diff --git a/.agents/skills/pr/SKILL.md b/.agents/skills/pr/SKILL.md
index 07f9d452af..9ce4aadab7 100644
--- a/.agents/skills/pr/SKILL.md
+++ b/.agents/skills/pr/SKILL.md
@@ -1,7 +1,7 @@
---
name: pr
description: "Create a PR for the current branch. Use when the user asks to create a pull request, submit PR, or says 'pr'."
-user_invocable: true
+user-invocable: true
---
# Create Pull Request
diff --git a/apps/cli/src/commands/migrate/openclaw.ts b/apps/cli/src/commands/migrate/openclaw.ts
index 182b75bf9d..98b64115d0 100644
--- a/apps/cli/src/commands/migrate/openclaw.ts
+++ b/apps/cli/src/commands/migrate/openclaw.ts
@@ -208,7 +208,7 @@ function readAgentProfile(workspacePath: string): AgentProfile {
// Try to extract **Emoji:** value (single emoji)
const emojiMatch = content.match(/\*{0,2}Emoji:?\*{0,2}\s*(.+)/i);
const rawAvatar = emojiMatch ? emojiMatch[1].trim() : undefined;
- // Filter out placeholder text like (待定), _(待定)_, (TBD), N/A, etc.
+ // Filter out placeholder text like (待定)(Chinese TBD), _(待定)_, (TBD), N/A, etc.
const isPlaceholder =
rawAvatar && /^[_*((].*[))_*]$|^(?:tbd|todo|n\/?a|none|待定|未定)$/i.test(rawAvatar);
const avatar = rawAvatar && !isPlaceholder ? rawAvatar : undefined;
diff --git a/locales/ar/agent.json b/locales/ar/agent.json
index 4c80cedb0e..89ca759765 100644
--- a/locales/ar/agent.json
+++ b/locales/ar/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "تم الاتصال بالروبوت بنجاح",
"channel.connecting": "جارٍ الاتصال...",
"channel.connectionConfig": "إعدادات الاتصال",
+ "channel.connectionMode": "وضع الاتصال",
+ "channel.connectionModeHint": "يُفضَّل استخدام WebSocket للروبوتات الجديدة. استخدم Webhook إذا كان روبوتك يحتوي بالفعل على عنوان URL مُعدّ لرد النداء على منصة QQ المفتوحة.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "تم النسخ إلى الحافظة",
"channel.copy": "نسخ",
"channel.credentials": "بيانات الاعتماد",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "يرجى نسخ هذا العنوان ولصقه في الحقل {{fieldName}} في بوابة مطوري {{name}}.",
"channel.exportConfig": "تصدير التكوين",
"channel.feishu.description": "قم بتوصيل هذا المساعد بـ Feishu للدردشة الخاصة والجماعية.",
+ "channel.feishu.webhookMigrationDesc": "يوفّر وضع WebSocket تسليمًا فوريًا للأحداث دون الحاجة إلى عنوان URL عام لرد النداء. للانتقال، قم بتغيير وضع الاتصال إلى WebSocket في الإعدادات المتقدمة. لا يلزم أي إعداد إضافي على منصة Feishu/Lark المفتوحة.",
+ "channel.feishu.webhookMigrationTitle": "النظر في الترقية إلى وضع WebSocket",
"channel.historyLimit": "حد رسائل السجل",
"channel.historyLimitHint": "العدد الافتراضي للرسائل التي يتم جلبها عند قراءة سجل القناة",
"channel.importConfig": "استيراد التكوين",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "مطلوب للتحقق من التفاعل",
"channel.qq.appIdHint": "معرّف تطبيق QQ Bot الخاص بك من منصة QQ المفتوحة",
"channel.qq.description": "قم بتوصيل هذا المساعد بـ QQ للمحادثات الجماعية والرسائل المباشرة.",
+ "channel.qq.webhookMigrationDesc": "يوفّر وضع WebSocket تسليمًا فوريًا للأحداث وإعادة اتصال تلقائية دون الحاجة إلى عنوان URL لرد النداء. للانتقال، أنشئ روبوتًا جديدًا على منصة QQ المفتوحة دون إعداد عنوان URL لرد النداء، ثم غيّر وضع الاتصال إلى WebSocket في الإعدادات المتقدمة.",
+ "channel.qq.webhookMigrationTitle": "النظر في الترقية إلى وضع WebSocket",
"channel.removeChannel": "إزالة القناة",
"channel.removeFailed": "فشل في إزالة القناة",
"channel.removed": "تمت إزالة القناة",
@@ -93,7 +101,11 @@
"channel.signingSecret": "سر التوقيع",
"channel.signingSecretHint": "يُستخدم للتحقق من طلبات الويب هوك.",
"channel.slack.appIdHint": "معرف تطبيق Slack الخاص بك من لوحة تحكم API Slack (يبدأ بـ A).",
+ "channel.slack.appToken": "رمز على مستوى التطبيق",
+ "channel.slack.appTokenHint": "مطلوب لوضع Socket Mode (WebSocket). أنشئ رمزًا على مستوى التطبيق (xapp-...) من قسم المعلومات الأساسية في إعدادات تطبيق Slack الخاص بك.",
"channel.slack.description": "قم بتوصيل هذا المساعد بـ Slack للمحادثات القنوية والرسائل المباشرة.",
+ "channel.slack.webhookMigrationDesc": "يوفّر وضع Socket Mode تسليمًا فوريًا للأحداث عبر WebSocket دون الحاجة إلى تعريض نقطة نهاية HTTP عامة. للانتقال، فعّل Socket Mode في إعدادات تطبيق Slack، وأنشئ رمزًا على مستوى التطبيق، ثم غيّر وضع الاتصال إلى WebSocket في الإعدادات المتقدمة.",
+ "channel.slack.webhookMigrationTitle": "النظر في الترقية إلى وضع Socket Mode (WebSocket)",
"channel.telegram.description": "قم بتوصيل هذا المساعد بـ Telegram للدردشة الخاصة والجماعية.",
"channel.testConnection": "اختبار الاتصال",
"channel.testFailed": "فشل اختبار الاتصال",
diff --git a/locales/ar/chat.json b/locales/ar/chat.json
index f86ec9f1c2..ce336d9844 100644
--- a/locales/ar/chat.json
+++ b/locales/ar/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "تم حذف المجموعة بنجاح",
"confirmRemoveSessionItemAlert": "أنت على وشك حذف هذا الوكيل. بمجرد الحذف، لا يمكن استعادته. يرجى تأكيد الإجراء.",
"confirmRemoveSessionSuccess": "تم حذف الوكيل بنجاح",
+ "createModal.createBlank": "إنشاء صفحة فارغة",
+ "createModal.groupPlaceholder": "صِف ما ينبغي أن يقوم به هذا الفريق...",
+ "createModal.groupTitle": "ما الذي ينبغي أن يقوم به فريقك؟",
+ "createModal.placeholder": "صِف ما ينبغي أن يقوم به وكيلك...",
+ "createModal.title": "ما الذي ينبغي أن يقوم به وكيلك؟",
"defaultAgent": "الوكيل الافتراضي",
"defaultGroupChat": "مجموعة",
"defaultList": "القائمة الافتراضية",
@@ -229,6 +234,7 @@
"operation.contextCompression": "السياق طويل جدًا، يتم ضغط السجل...",
"operation.execAgentRuntime": "جارٍ تحضير الرد",
"operation.execClientTask": "تنفيذ المهمة",
+ "operation.execServerAgentRuntime": "قيد التنفيذ… يمكنك تغيير المهام أو إغلاق الصفحة — ستستمر المهمة بالعمل.",
"operation.sendMessage": "جارٍ إرسال الرسالة",
"owner": "مالك المجموعة",
"pageCopilot.title": "وكيل الصفحة",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "جارٍ جلب التفاصيل...",
"task.status.initializing": "جارٍ تهيئة المهمة...",
"task.subtask": "مهمة فرعية",
+ "task.title": "المهام",
"thread.divider": "موضوع فرعي",
"thread.threadMessageCount": "{{messageCount}} رسالة",
"thread.title": "موضوع فرعي",
@@ -429,9 +436,11 @@
"toolAuth.title": "تفويض المهارات لهذا الوكيل",
"topic.checkOpenNewTopic": "هل تريد بدء موضوع جديد؟",
"topic.checkSaveCurrentMessages": "هل تريد حفظ المحادثة الحالية كموضوع؟",
+ "topic.defaultTitle": "موضوع بدون عنوان",
"topic.openNewTopic": "فتح موضوع جديد",
"topic.recent": "المواضيع الأخيرة",
"topic.saveCurrentMessages": "حفظ الجلسة الحالية كموضوع",
+ "topic.viewAll": "عرض جميع المواضيع",
"translate.action": "ترجمة",
"translate.clear": "مسح الترجمة",
"tts.action": "تحويل النص إلى كلام",
diff --git a/locales/ar/common.json b/locales/ar/common.json
index c50a381b2d..68910a08e9 100644
--- a/locales/ar/common.json
+++ b/locales/ar/common.json
@@ -343,10 +343,19 @@
"mail.support": "دعم عبر البريد الإلكتروني",
"more": "المزيد",
"navPanel.agent": "الوكيل",
+ "navPanel.customizeSidebar": "تخصيص الشريط الجانبي",
"navPanel.displayItems": "عناصر العرض",
+ "navPanel.hidden": "مخفي",
+ "navPanel.hideSection": "إخفاء القسم",
"navPanel.library": "المكتبة",
+ "navPanel.moveDown": "نقل لأسفل",
+ "navPanel.moveUp": "نقل لأعلى",
+ "navPanel.pinned": "مثبّت",
"navPanel.searchAgent": "بحث عن وكيل...",
+ "navPanel.searchRecent": "البحث في الأخير...",
"navPanel.searchResultEmpty": "لم يتم العثور على نتائج",
+ "navPanel.show": "إظهار",
+ "navPanel.visible": "مرئي",
"new": "جديد",
"noContent": "لا يوجد محتوى",
"oauth": "تسجيل الدخول الموحد",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "ادعمنا",
"productHunt.description": "ادعمنا على Product Hunt. دعمك يعني لنا الكثير!",
"productHunt.title": "نحن على Product Hunt!",
+ "promptTransform.action": "تنقية الفكرة",
+ "promptTransform.actions.rewrite": "توسيع التفاصيل",
+ "promptTransform.actions.translate": "ترجمة",
+ "promptTransform.status.rewrite": "جارٍ توسيع التفاصيل...",
+ "promptTransform.status.translate": "جارٍ الترجمة...",
+ "recents": "العناصر الأخيرة",
"regenerate": "إعادة التوليد",
"releaseNotes": "تفاصيل الإصدار",
"rename": "إعادة التسمية",
@@ -400,6 +415,7 @@
"tab.audio": "الصوت",
"tab.chat": "الدردشة",
"tab.community": "المجتمع",
+ "tab.create": "إنشاء",
"tab.discover": "اكتشف",
"tab.eval": "مختبر التقييم",
"tab.files": "الملفات",
diff --git a/locales/ar/image.json b/locales/ar/image.json
index 91a6cb3df9..d7a9067d5c 100644
--- a/locales/ar/image.json
+++ b/locales/ar/image.json
@@ -12,6 +12,7 @@
"config.model.label": "النموذج",
"config.prompt.placeholder": "صف ما ترغب في إنشائه",
"config.prompt.placeholderWithRef": "وصف كيف تريد تعديل الصورة",
+ "config.promptExtend.label": "توسيع المطلب",
"config.quality.label": "جودة الصورة",
"config.quality.options.hd": "عالية الدقة",
"config.quality.options.standard": "قياسية",
@@ -24,6 +25,8 @@
"config.size.label": "الحجم",
"config.steps.label": "الخطوات",
"config.title": "الإعدادات",
+ "config.watermark.label": "علامة مائية",
+ "config.webSearch.label": "بحث ويب",
"config.width.label": "العرض",
"generation.actions.applySeed": "تطبيق البذرة",
"generation.actions.copyError": "نسخ رسالة الخطأ",
diff --git a/locales/ar/labs.json b/locales/ar/labs.json
index 38bb48c3ab..3d8bec0c1e 100644
--- a/locales/ar/labs.json
+++ b/locales/ar/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "تجميع رسائل الوكيل ونتائج استدعاء الأدوات معًا للعرض",
"features.assistantMessageGroup.title": "تجميع رسائل الوكيل",
+ "features.gatewayMode.desc": "تنفيذ مهام الوكيل على الخادم عبر بوابة WebSocket بدلًا من التشغيل محليًا، مما يتيح تنفيذًا أسرع ويقلل من استهلاك موارد العميل.",
+ "features.gatewayMode.title": "تنفيذ الوكيل من جانب الخادم (البوابة)",
"features.groupChat.desc": "تمكين تنسيق الدردشة الجماعية متعددة الوكلاء.",
"features.groupChat.title": "دردشة جماعية (متعددة الوكلاء)",
"features.inputMarkdown.desc": "عرض Markdown في منطقة الإدخال في الوقت الفعلي (نص عريض، كتل الشيفرة، جداول، إلخ).",
diff --git a/locales/ar/models.json b/locales/ar/models.json
index 406d0fbc71..1485d42363 100644
--- a/locales/ar/models.json
+++ b/locales/ar/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "نموذج رائد في الصين، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة، النصوص الطويلة، والتوليد الإبداعي. كما يتميز بقدرات متعددة الوسائط رائدة في الصناعة ونتائج قوية في المعايير الموثوقة.",
"Baichuan4.description": "أداء محلي رائد، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والتوليد الإبداعي. كما يقدم قدرات متعددة الوسائط رائدة ونتائج قوية في المعايير.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS هي عائلة من النماذج مفتوحة المصدر من ByteDance Seed، مصممة للتعامل مع السياقات الطويلة، والاستدلال، والمهام العامة. Seed-OSS-36B-Instruct هو نموذج موجه بالتعليم يحتوي على 36 مليار معلمة مع دعم أصلي للسياقات الطويلة جدًا لمعالجة المستندات الكبيرة أو قواعد الشيفرة. يتميز بقدرات قوية في الاستدلال وتوليد الشيفرة واستخدام الأدوات. من أبرز ميزاته \"ميزانية التفكير\" التي تسمح بطول استدلال مرن لتحسين الكفاءة.",
+ "DeepSeek-OCR.description": "يعد DeepSeek-OCR نموذج رؤية-لغة من DeepSeek AI يركز على التعرف البصري على الحروف و\"الضغط السياقي البصري\". يستكشف ضغط السياق المستخرج من الصور، ويعالج المستندات بكفاءة، ويحوّلها إلى نص منظم (مثل Markdown). يقدّم دقة عالية في التعرف على النص داخل الصور، مما يجعله مناسباً لرقمنة المستندات واستخراج النصوص والمعالجة الهيكلية.",
"DeepSeek-R1-Distill-Llama-70B.description": "تم تقطير DeepSeek R1، النموذج الأكبر والأذكى في مجموعة DeepSeek، إلى بنية Llama 70B. تُظهر المعايير والتقييمات البشرية أنه أذكى من Llama 70B الأساسي، خاصة في مهام الرياضيات ودقة الحقائق.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "نموذج مقطر من DeepSeek-R1 يعتمد على Qwen2.5-Math-1.5B. يعمل التعلم المعزز وبيانات البداية الباردة على تحسين أداء الاستدلال، مما يضع معايير جديدة للمهام المتعددة في النماذج المفتوحة.",
"DeepSeek-R1-Distill-Qwen-14B.description": "نماذج DeepSeek-R1-Distill مدربة بدقة من نماذج مفتوحة المصدر باستخدام بيانات عينة تم إنشاؤها بواسطة DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "المزود: sophnet. DeepSeek V3 Fast هو الإصدار عالي السرعة من DeepSeek V3 0324، بدقة كاملة (غير مضغوطة) مع أداء أقوى في البرمجة والرياضيات واستجابات أسرع.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast هو الإصدار السريع عالي السرعة من DeepSeek V3.1. وضع تفكير هجين: من خلال قوالب الدردشة، يدعم نموذج واحد كلاً من أوضاع التفكير وغير التفكير. استخدام أدوات أذكى: التحسينات بعد التدريب تعزز أداء المهام التي تتطلب أدوات ووكلاء.",
"DeepSeek-V3.1-Think.description": "وضع التفكير في DeepSeek-V3.1: نموذج استدلال هجين جديد يدعم أوضاع التفكير وغير التفكير، أكثر كفاءة من DeepSeek-R1-0528. التحسينات بعد التدريب تعزز بشكل كبير استخدام الأدوات وأداء المهام التي تتطلب وكلاء.",
+ "DeepSeek-V3.2.description": "يقدم deepseek-v3.2 آلية انتباه متفرّق تهدف إلى تحسين كفاءة التدريب والاستدلال عند معالجة النصوص الطويلة، مع كلفة أقل مقارنة بـ deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE تم تطويره بواسطة DeepSeek. يتفوق على نماذج مفتوحة أخرى مثل Qwen2.5-72B وLlama-3.1-405B في العديد من المعايير، ويتنافس مع النماذج المغلقة الرائدة مثل GPT-4o وClaude 3.5 Sonnet.",
"Doubao-lite-128k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 128K للاستدلال والتدريب الدقيق.",
"Doubao-lite-32k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 32K للاستدلال والتدريب الدقيق.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: نموذج عالي الأداء للمنطق، البرمجة، ومهام الوكلاء.",
"GLM-4.6.description": "GLM-4.6: نموذج الجيل السابق.",
"GLM-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، معزز لسيناريوهات البرمجة الوكيلية مع تحسين قدرات البرمجة، تخطيط المهام طويلة الأمد، والتعاون مع الأدوات.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: إصدار محسن من GLM-5 مع استدلال أسرع لمهام البرمجة.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo هو نموذج أساس مُحسَّن بعمق لسيناريوهات الوكلاء. تم تحسينه خصيصاً لتلبية المتطلبات الأساسية لمهام الوكلاء منذ مرحلة التدريب، مما يعزز القدرات الأساسية مثل استدعاء الأدوات، تنفيذ الأوامر، وسلاسل التنفيذ الطويلة. وهو مثالي لبناء مساعدين ذكيين عاليي الأداء.",
"GLM-5.1.description": "GLM-5.1 هو أحدث نموذج رائد من Zhipu، وهو نسخة محسّنة من GLM-5 مع قدرات هندسية وكيلة محسّنة لأنظمة الهندسة المعقدة والمهام طويلة الأمد.",
- "GLM-5.description": "GLM-5 هو نموذج الأساس الرائد من الجيل التالي لـ Zhipu، مصمم خصيصًا للهندسة الوكيلية. يوفر إنتاجية موثوقة في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة الأمد. في قدرات البرمجة والوكلاء، يحقق GLM-5 أداءً رائدًا بين النماذج مفتوحة المصدر.",
+ "GLM-5.description": "GLM-5 هو نموذج الجيل القادم الأساسي من شركة Zhipu، مصمّم خصيصاً لهندسة الوكلاء. يقدّم إنتاجية موثوقة في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة الأمد. في قدرات البرمجة والوكلاء، يحقق GLM-5 أداءً رائداً بين النماذج مفتوحة المصدر. وفي سيناريوهات البرمجة الواقعية، يقترب في تجربة المستخدم من Claude Opus 4.5. يتفوق في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة المدى، مما يجعله نموذجاً أساسياً مثالياً للمساعدين العامين.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) هو نموذج مبتكر لمجالات متنوعة ومهام معقدة.",
"HY-Image-V3.0.description": "قدرات قوية لاستخراج الميزات من الصور الأصلية والحفاظ على التفاصيل، مما يوفر نسيجًا بصريًا أكثر ثراءً وينتج صورًا عالية الدقة ومتقنة ومناسبة للإنتاج.",
"HelloMeme.description": "HelloMeme هي أداة ذكاء اصطناعي لإنشاء الميمات، الصور المتحركة (GIFs)، أو مقاطع الفيديو القصيرة من الصور أو الحركات التي تقدمها. لا تتطلب مهارات رسم أو برمجة—فقط صورة مرجعية—لإنتاج محتوى ممتع وجذاب ومتناسق من حيث الأسلوب.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter هو نموذج توليد شخصيات مخصص بدون ضبط من Tencent AI لعام 2025، يهدف إلى توليد شخصيات عالية الدقة ومتسقة عبر السيناريوهات. يمكنه نمذجة شخصية من صورة مرجعية واحدة ونقلها بمرونة عبر الأساليب، الحركات، والخلفيات.",
"InternVL2-8B.description": "InternVL2-8B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
"InternVL2.5-26B.description": "InternVL2.5-26B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
+ "KAT-Coder-Air-V1.description": "إصدار خفيف الوزن ضمن سلسلة KAT-Coder. مصمم خصيصاً للبرمجة عبر الوكلاء، ويغطي بشكل شامل مهام البرمجة وسيناريوهاتها. وبالاعتماد على التعلم المعزز واسع النطاق القائم على الوكلاء، يتيح ظهور سلوكيات ذكية ويتفوق بشكل كبير على النماذج المماثلة في أداء البرمجة.",
+ "KAT-Coder-Exp-72B-1010.description": "يعد KAT-Coder-Exp-72B الإصدار التجريبي المعتمد على الابتكار بالتعلم المعزز في سلسلة KAT-Coder، وقد حقق أداءً مذهلاً بنسبة 74.6٪ على معيار SWE-Bench Verified، مسجلاً رقماً قياسياً جديداً للنماذج مفتوحة المصدر. وهو يركز على البرمجة عبر الوكلاء ويدعم حالياً فقط هيكل SWE-Agent، لكنه قابل أيضاً للاستخدام في المحادثات البسيطة.",
+ "KAT-Coder-Pro-V1.description": "مصمم للبرمجة عبر الوكلاء، يغطي بشكل شامل مهام البرمجة وسيناريوهاتها، ويحقق سلوكاً ذكياً ناشئاً عبر التعلم المعزز واسع النطاق، متفوقاً بشكل كبير على النماذج المشابهة في أداء كتابة الأكواد.",
+ "KAT-Coder-Pro-V2.description": "أحدث نموذج عالي الأداء من فريق Kwaipilot لدى Kuaishou، مصمم للمشاريع المؤسسية المعقدة وتكامل SaaS. يتفوق في سيناريوهات البرمجة، ويتوافق مع مختلف أطر الوكلاء (Claude Code، OpenCode، KiloCode)، ويدعم OpenClaw أصلياً، ومُحسَّن خصيصاً لجماليات واجهات الويب الأمامية.",
+ "Kimi-K2.5.description": "Kimi K2.5 هو أقوى نموذج من سلسلة Kimi، ويقدم أداءً متقدماً مفتوح المصدر في مهام الوكلاء والبرمجة وفهم الرؤية. يدعم الإدخال متعدد الوسائط ووضعَي التفكير وغير التفكير.",
"Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة طوره فريق Kolors في Kuaishou. مدرب على مليارات المعاملات، يتميز بجودة بصرية عالية، فهم دلالي قوي للغة الصينية، وقدرات متميزة في عرض النصوص.",
"Kwai-Kolors/Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة واسع النطاق من فريق Kolors في Kuaishou. مدرب على مليارات أزواج النصوص والصور، يتفوق في الجودة البصرية، الدقة الدلالية المعقدة، وعرض النصوص الصينية/الإنجليزية، مع فهم وتوليد قويين للمحتوى الصيني.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) هو نموذج مفتوح المصدر لمهام هندسة البرمجيات. يحقق معدل حل 62.4% على SWE-Bench Verified، ويحتل المرتبة الخامسة بين النماذج المفتوحة. تم تحسينه عبر التدريب الوسيط، SFT، وRL لإكمال الشيفرة، إصلاح الأخطاء، ومراجعة الشيفرة.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "نموذج لغة صغير متطور يتمتع بفهم لغوي قوي، استدلال ممتاز، وتوليد نصوص عالي الجودة.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 هو النموذج مفتوح المصدر متعدد اللغات الأكثر تقدمًا من Llama، يقدم أداءً قريبًا من نموذج 405B بتكلفة منخفضة جدًا. يعتمد على بنية Transformer ومحسن باستخدام SFT وRLHF لتحقيق الفائدة والسلامة. النسخة المضبوطة على التعليمات محسنّة للمحادثة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة. تاريخ التحديث المعرفي: ديسمبر 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick هو نموذج MoE كبير مع تفعيل خبراء فعال لأداء استدلال قوي.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro مصمم خصيصاً لتدفقات عمل الوكلاء عالية الكثافة في السيناريوهات الواقعية. يحتوي على أكثر من تريليون معلمة إجمالية (42 مليار معلمة مفعلة)، ويعتمد بنية انتباه هجينة مبتكرة، ويدعم طول سياق هائل يصل إلى مليون رمز. يعتمد على نموذج أساس قوي، ونواصل توسيع الموارد الحاسوبية عبر نطاق أوسع من سيناريوهات الوكلاء، مما يوسع فضاء الحركة للذكاء ويحقق تعميماً كبيراً — من البرمجة إلى تنفيذ المهام الواقعية (\"claw\").",
"MiniMax-Hailuo-02.description": "تم إصدار نموذج إنشاء الفيديو من الجيل التالي، MiniMax Hailuo 02، رسميًا، ويدعم دقة 1080P وإنشاء فيديو لمدة 10 ثوانٍ.",
"MiniMax-Hailuo-2.3-Fast.description": "نموذج جديد لإنشاء الفيديو مع تحسينات شاملة في حركة الجسم، والواقعية الفيزيائية، واتباع التعليمات.",
"MiniMax-Hailuo-2.3.description": "نموذج جديد لإنشاء الفيديو مع تحسينات شاملة في حركة الجسم، والواقعية الفيزيائية، واتباع التعليمات.",
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
- "MiniMax-M2.1-Lightning.description": "قدرات برمجة متعددة اللغات قوية مع استدلال أسرع وأكثر كفاءة.",
"MiniMax-M2.1-highspeed.description": "قدرات برمجة متعددة اللغات قوية، تجربة برمجة مطورة بشكل شامل. أسرع وأكثر كفاءة.",
"MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام الواقعية المعقدة. يتميز بقدرات برمجة متعددة اللغات والقدرة على أداء المهام المعقدة كوكلاء ذكي.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: نفس أداء M2.5 مع استدلال أسرع.",
"MiniMax-M2.5.description": "أداء من الدرجة الأولى وفعالية تكلفة قصوى، يتعامل بسهولة مع المهام المعقدة (تقريباً 60 tps).",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: نفس أداء M2.7 مع استدلال أسرع بشكل ملحوظ.",
- "MiniMax-M2.7.description": "MiniMax M2.7: بداية رحلة التحسين الذاتي التكراري، قدرات هندسية واقعية رائدة.",
+ "MiniMax-M2.7.description": "أول نموذج ذاتي التطور يتميز بأداء رائد في البرمجة والمهام عبر الوكلاء (~60 رمزاً في الثانية).",
"MiniMax-M2.description": "MiniMax M2: نموذج الجيل السابق.",
"MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 هو نموذج استدلال كبير مفتوح الأوزان مع 456 مليار معلمة إجمالية وحوالي 45.9 مليار نشطة لكل رمز. يدعم سياق 1 مليون بشكل طبيعي ويستخدم Flash Attention لتقليل FLOPs بنسبة 75% على توليد 100 ألف رمز مقارنة بـ DeepSeek R1. مع بنية MoE بالإضافة إلى CISPO وتدريب RL الهجين، يحقق أداءً رائدًا في الاستدلال طويل المدخلات ومهام الهندسة البرمجية الواقعية.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج MoE من الدرجة الأولى يحتوي على إجمالي 1 تريليون و32 مليار معلمة نشطة. من أبرز ميزاته الذكاء البرمجي القوي مع تحسينات كبيرة في المعايير ومهام الوكلاء الواقعية، بالإضافة إلى تحسينات في جمالية واجهة الشيفرة وسهولة الاستخدام.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo هو إصدار Turbo محسّن لسرعة الاستدلال والإنتاجية مع الحفاظ على قدرات التفكير متعدد الخطوات واستخدام الأدوات في K2 Thinking. إنه نموذج MoE يحتوي على حوالي 1 تريليون معلمة إجمالية، ويدعم سياقًا أصليًا بطول 256 ألف رمز، واستدعاء أدوات واسع النطاق ومستقر لسيناريوهات الإنتاج التي تتطلب زمن استجابة وتزامنًا صارمين.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 هو نموذج وكيل متعدد الوسائط مفتوح المصدر، مبني على Kimi-K2-Base، ومدرب على حوالي 1.5 تريليون رمز من النصوص والرؤية. يستخدم بنية MoE بعدد إجمالي 1 تريليون مع 32 مليار معلمات نشطة، ويدعم نافذة سياق تصل إلى 256 ألف، مما يدمج الفهم البصري واللغوي بسلاسة.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 هو نموذج الجيل التالي الرائد المصمم لهندسة الوكلاء، ويستخدم بنية خبراء مختلطة (MoE) بـ 754 مليار معلمة. يعزز قدرات البرمجة بشكل كبير، محققاً نتائج متقدمة على SWE-Bench Pro، ويتفوق بوضوح على سابقه في مقاييس مثل NL2Repo وTerminal-Bench 2.0. مصمم لمهام الوكلاء طويلة الأمد، ويتعامل مع الأسئلة الغامضة بشكل أدق، ويحلل المهام المعقدة، وينفذ التجارب، ويفحص النتائج، ويواصل التحسين عبر مئات الدورات وآلاف استدعاءات الأدوات.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 هو النموذج الرائد الجديد من Zhipu مع 355 مليار معلمة إجمالية و32 مليار معلمة نشطة، تم ترقيته بالكامل في الحوار العام، المنطق، وقدرات الوكلاء. يعزز GLM-4.7 التفكير المتداخل ويقدم التفكير المحفوظ والتفكير على مستوى الدور.",
"Pro/zai-org/glm-5.description": "GLM-5 هو نموذج اللغة الكبير من الجيل التالي من Zhipu، يركز على هندسة الأنظمة المعقدة ومهام الوكيل طويلة المدة. تم توسيع معلمات النموذج إلى 744 مليار (40 مليار نشطة) وتدمج DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ هو نموذج بحث تجريبي يركز على تحسين الاستدلال.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 مُحسَّن للاستدلال المتقدم واتباع التعليمات، ويستخدم بنية MoE للحفاظ على كفاءة الاستدلال على نطاق واسع.",
"Qwen3-235B.description": "Qwen3-235B-A22B هو نموذج MoE يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بسلاسة بين التفكير وعدم التفكير. يدعم الفهم والاستدلال عبر 119 لغة ولهجة، ويتمتع بقدرات قوية على استدعاء الأدوات، ويتنافس مع نماذج رائدة مثل DeepSeek R1 وOpenAI o1 وo3-mini وGrok 3 وGoogle Gemini 2.5 Pro في اختبارات القدرات العامة، والبرمجة والرياضيات، والقدرات متعددة اللغات، واستدلال المعرفة.",
"Qwen3-32B.description": "Qwen3-32B هو نموذج كثيف يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بين التفكير وعدم التفكير. بفضل تحسينات في البنية، وبيانات أكثر، وتدريب أفضل، يقدم أداءً مماثلًا لـ Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "يدعم Qwen3.5 Plus إدخال النصوص والصور والفيديو. أداؤه في المهام النصية البحتة مماثل لـ Qwen3 Max، مع أداء أفضل وتكلفة أقل. وقد تحسّنت قدراته متعددة الوسائط بشكل ملحوظ مقارنة بسلسلة Qwen3 VL.",
"S2V-01.description": "النموذج الأساسي لتحويل المرجع إلى فيديو من سلسلة 01.",
"SenseChat-128K.description": "الإصدار الرابع الأساسي مع سياق 128 ألف رمز، قوي في فهم وتوليد النصوص الطويلة.",
"SenseChat-32K.description": "الإصدار الرابع الأساسي مع سياق 32 ألف رمز، مرن لمجموعة متنوعة من السيناريوهات.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو النموذج الأسرع والأكثر ذكاءً من Anthropic، يتميز بسرعة البرق وقدرات تفكير ممتدة.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرات استدلال ممتدة.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 هو نموذج Haiku الأسرع والأذكى من Anthropic، يتميز بسرعة البرق وقدرات استدلال موسعة.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم.",
- "claude-opus-4-20250514.description": "Claude Opus 4 هو النموذج الأكثر قوة من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام شديدة التعقيد، ويتفوق في الأداء والذكاء والطلاقة والفهم.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة جداً، ويتميز بأداء وذكاء وطلاقة وفهم متقدم.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
- "claude-opus-4-6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 هو أذكى نموذج من Anthropic لبناء الوكلاء والبرمجة.",
"claude-opus-4.5.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الفائق والأداء القابل للتوسع لمهام الاستدلال المعقدة وعالية الجودة.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-opus-4.6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن، يقدم استجابات شبه فورية أو تفكيرًا ممتدًا خطوة بخطوة مع تحكم دقيق للمستخدمين عبر واجهة API.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 قادر على تقديم ردود شبه فورية أو عمليّة تفكير مفصلة خطوة بخطوة مع إظهار سير العملية.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج طورته Anthropic حتى الآن.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 يقدم أفضل مزيج بين السرعة والذكاء من Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 يمكنه إنتاج استجابات شبه فورية أو استدلال خطوة بخطوة ممتد يمكن للمستخدمين رؤيته. يمكن لمستخدمي API التحكم بدقة في مدة تفكير النموذج.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.",
- "deepseek-chat.description": "DeepSeek V3.2 يوازن بين التفكير وطول المخرجات لمهام الأسئلة والأجوبة اليومية والمهام الوكيلة. تصل المعايير العامة إلى مستويات GPT-5، وهو الأول الذي يدمج التفكير في استخدام الأدوات، مما يؤدي إلى تقييمات وكلاء مفتوحة المصدر.",
+ "deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة وقدرات البرمجة. يحافظ على قدرة المحادثة للنموذج الحواري والقدرة البرمجية القوية لنموذج البرمجة، مع مواءمة تفضيلات أفضل. كما يحسن DeepSeek-V2.5 قدرات الكتابة واتباع التعليمات.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج تفكير عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية عالية وقدرات تفكير قابلة للمقارنة مع Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة منطقية قبل الإجابة النهائية لتحسين الدقة.",
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
"ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، الذي تم تطويره بواسطة فريق ByteDance Seed، يدعم تحرير الصور المتعددة والتكوين. يتميز باتساق الموضوع المحسن، واتباع التعليمات بدقة، وفهم المنطق المكاني، والتعبير الجمالي، وتخطيط الملصقات وتصميم الشعارات مع تقديم نصوص وصور عالية الدقة.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، الذي تم تطويره بواسطة ByteDance Seed، يدعم إدخال النصوص والصور لإنشاء صور عالية الجودة وقابلة للتحكم بدرجة عالية من التعليمات.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع قدرة عالية على التحكم وجودة عالية في توليد الصور. يمكنه إنتاج الصور بناءً على الأوامر النصية.",
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
- "fal-ai/qwen-image-edit.description": "نموذج تحرير الصور الاحترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، وتحرير النصوص الدقيقة باللغتين الصينية والإنجليزية، ونقل الأنماط، والتدوير، والمزيد.",
- "fal-ai/qwen-image.description": "نموذج إنشاء الصور القوي من فريق Qwen مع قدرات قوية في عرض النصوص الصينية وأنماط بصرية متنوعة.",
+ "fal-ai/qwen-image-edit.description": "نموذج احترافي لتحرير الصور من فريق Qwen، يدعم التحرير الدلالي والبصري، ويحرر النصوص الصينية والإنجليزية بدقة، ويتيح تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
+ "fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen يتميز بإظهار ممتاز للنصوص الصينية وأنماط بصرية متنوعة.",
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
- "flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
+ "flux-dev.description": "نموذج مفتوح المصدر مخصص لتوليد الصور لأغراض البحث والابتكار غير التجاري، مع تحسينات فعالة.",
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
"flux-kontext-pro.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
- "flux-merged.description": "FLUX.1 [merged] يجمع بين الميزات العميقة المستكشفة في \"DEV\" مع مزايا السرعة العالية لـ \"Schnell\"، مما يوسع حدود الأداء ويوسع التطبيقات.",
"flux-pro-1.1-ultra.description": "توليد صور بدقة فائقة تصل إلى 4 ميغابكسل، تنتج صورًا واضحة في غضون 10 ثوانٍ.",
"flux-pro-1.1.description": "نموذج توليد صور احترافي مطور يتميز بجودة صور ممتازة واتباع دقيق للأوامر.",
"flux-pro.description": "نموذج توليد صور تجاري من الدرجة الأولى بجودة صور لا مثيل لها ومخرجات متنوعة.",
- "flux-schnell.description": "FLUX.1 [schnell] هو أكثر النماذج مفتوحة المصدر تقدمًا في توليد الصور بعدد خطوات قليلة، يتفوق على المنافسين المماثلين وحتى النماذج غير المقطرة القوية مثل Midjourney v6.0 و DALL-E 3 (HD). تم ضبطه بدقة للحفاظ على تنوع ما قبل التدريب، مما يحسن بشكل كبير من جودة الصور، واتباع التعليمات، وتنوع الحجم/النسبة، والتعامل مع الخطوط، وتنوع المخرجات.",
"flux.1-schnell.description": "FLUX.1-schnell هو نموذج عالي الأداء لتوليد الصور يدعم أنماطًا متعددة بسرعة.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) يوفر أداءً مستقرًا وقابلًا للضبط للمهام المعقدة.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) يوفر دعمًا متعدد الوسائط قويًا للمهام المعقدة.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج إنشاء الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضاً المحادثة متعددة الوسائط.",
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور بمستوى احترافي بسرعة Flash مع دعم الدردشة متعددة الوسائط.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) هو أسرع نموذج توليد صور أصلي من Google مع دعم التفكير، وتوليد الصور التفاعلي، والتحرير.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview هو النموذج الأكثر كفاءة من حيث التكلفة من Google، مُحسّن للمهام الوكيلة ذات الحجم الكبير، الترجمة، ومعالجة البيانات.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.",
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "أقوى وأحدث نماذجنا، مصمم للمهام المؤسسية المعقدة بأداء متميز.",
"jamba-mini.description": "أكثر النماذج كفاءة في فئته، يوازن بين السرعة والجودة مع استهلاك منخفض للموارد.",
"jina-deepsearch-v1.description": "DeepSearch يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال لإجراء تحقيقات شاملة. فكر فيه كوكيل يأخذ مهمة البحث الخاصة بك، ويجري عمليات بحث واسعة متعددة المراحل، ثم يقدم إجابة. تتضمن العملية بحثًا مستمرًا، واستدلالًا، وحلًا متعدد الزوايا للمشكلات، وهو مختلف جوهريًا عن نماذج LLM التقليدية التي تعتمد على بيانات التدريب المسبق أو أنظمة RAG التقليدية التي تعتمد على بحث سطحي لمرة واحدة.",
- "k2p5.description": "Kimi K2.5 هو النموذج الأكثر تنوعًا لـ Kimi حتى الآن، يتميز بهيكل متعدد الوسائط يدعم إدخال الرؤية والنصوص، أوضاع 'التفكير' و'غير التفكير'، بالإضافة إلى المهام الحوارية والوكيلة.",
"kimi-k2-0711-preview.description": "kimi-k2 هو نموذج MoE أساسي يتمتع بقدرات قوية في البرمجة والوكالة (1 تريليون معلمة إجمالية، 32 مليار نشطة)، ويتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال، البرمجة، الرياضيات، والوكالة.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview يوفر نافذة سياق 256k، برمجة وكيلة أقوى، جودة أفضل لرموز الواجهة الأمامية، وفهم سياقي محسن.",
"kimi-k2-instruct.description": "Kimi K2 Instruct هو النموذج الرسمي للاستدلال من Kimi مع سياق طويل للبرمجة، الأسئلة والأجوبة، والمزيد.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم قدرات تفكير واستدلال تعزز الأداء بشكل كبير، خاصة في المشكلات الصعبة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.",
"qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.",
"r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم النص إلى الفيديو، الصورة إلى الفيديو (الإطار الأول، الإطار الأول+الأخير)، وتوليد الصوت المتزامن مع المرئيات.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بتوليد معزز بالاسترجاع عبر الويب للحصول على معلومات في الوقت الفعلي، تفسير معقد للتعليمات، وتحسين اتساق المراجع لإنشاء مرئيات احترافية.",
"solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.",
"solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.",
"solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 هو نموذجنا الجديد القوي لتوليد الوسائط، يولد فيديوهات مع صوت متزامن. يمكنه إنشاء مقاطع غنية بالتفاصيل وديناميكية من اللغة الطبيعية أو الصور.",
"spark-x.description": "نظرة عامة على قدرات X2: 1. يقدم تعديل ديناميكي لوضع الاستدلال، يتم التحكم فيه عبر الحقل `thinking`. 2. طول سياق موسع: 64K رموز إدخال و128K رموز إخراج. 3. يدعم وظيفة استدعاء الأدوات.",
"stable-diffusion-3-medium.description": "أحدث نموذج تحويل النص إلى صورة من Stability AI. هذا الإصدار يحسن جودة الصور، وفهم النص، وتنوع الأساليب بشكل كبير، ويفسر التعليمات الطبيعية المعقدة بدقة أكبر وينتج صورًا أكثر دقة وتنوعًا.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo يستخدم تقنيات تقطير الانتشار العدائي (ADD) لتسريع stable-diffusion-3.5-large.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large هو نموذج تحويل نص إلى صورة بسعة 800 مليون معلمة، يتميز بجودة عالية وتوافق ممتاز مع التعليمات، ويدعم صورًا بدقة 1 ميغابيكسل وتشغيلًا فعالًا على الأجهزة الاستهلاكية.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 تم تهيئته من نقطة التحقق v1.2 وتم تحسينه لمدة 595 ألف خطوة على \"laion-aesthetics v2 5+\" بدقة 512x512، مع تقليل تكييف النص بنسبة 10% لتحسين التوجيه بدون مصنف.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo يركز على توليد صور عالية الجودة مع قوة ممتازة في إظهار التفاصيل وواقعية المشاهد.",
"stable-diffusion-xl-base-1.0.description": "نموذج تحويل نص إلى صورة مفتوح المصدر من Stability AI يتميز بإبداع رائد في توليد الصور. يتمتع بفهم قوي للتعليمات ويدعم تعريف التعليمات العكسية لتوليد دقيق.",
- "stable-diffusion-xl.description": "stable-diffusion-xl يقدم تحسينات كبيرة مقارنة بـ v1.5 ويضاهي أفضل نتائج النماذج المفتوحة لتحويل النص إلى صورة. تشمل التحسينات مضاعفة حجم UNet ثلاث مرات، ووحدة تحسين لجودة الصورة، وتقنيات تدريب أكثر كفاءة.",
"step-1-128k.description": "يوفر توازنًا بين الأداء والتكلفة للسيناريوهات العامة.",
"step-1-256k.description": "يدعم السياقات الطويلة جدًا، مثالي لتحليل المستندات الطويلة.",
"step-1-32k.description": "يدعم المحادثات متوسطة الطول لمجموعة واسعة من الاستخدامات.",
diff --git a/locales/ar/plugin.json b/locales/ar/plugin.json
index 80c10c31d1..0b8180044f 100644
--- a/locales/ar/plugin.json
+++ b/locales/ar/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "إجمالي {{count}} من المعاملات",
"arguments.title": "المعلمات",
"builtins.lobe-activator.apiName.activateTools": "تفعيل الأدوات",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} غير موجود",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "الحصول على النماذج المتاحة",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "الحصول على المهارات المتاحة",
"builtins.lobe-agent-builder.apiName.getConfig": "الحصول على الإعدادات",
diff --git a/locales/ar/providers.json b/locales/ar/providers.json
index f32ecec2f6..0302ccf31e 100644
--- a/locales/ar/providers.json
+++ b/locales/ar/providers.json
@@ -33,7 +33,6 @@
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
"kimicodingplan.description": "كود Kimi من Moonshot AI يوفر الوصول إلى نماذج Kimi بما في ذلك K2.5 لأداء مهام الترميز.",
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
- "lobehub.description": "يستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي ويقيس الاستخدام باستخدام أرصدة مرتبطة برموز النماذج.",
"longcat.description": "LongCat هو سلسلة من نماذج الذكاء الاصطناعي التوليدية الكبيرة التي تم تطويرها بشكل مستقل بواسطة Meituan. تم تصميمه لتعزيز إنتاجية المؤسسة الداخلية وتمكين التطبيقات المبتكرة من خلال بنية حسابية فعالة وقدرات متعددة الوسائط قوية.",
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
"minimaxcodingplan.description": "خطة الرموز MiniMax توفر الوصول إلى نماذج MiniMax بما في ذلك M2.7 لأداء مهام الترميز عبر اشتراك ثابت الرسوم.",
@@ -60,6 +59,7 @@
"spark.description": "يوفر iFLYTEK Spark ذكاءً اصطناعيًا متعدد اللغات قويًا عبر مجالات متعددة، مما يمكّن من الابتكار في الأجهزة الذكية والرعاية الصحية والتمويل وغيرها.",
"stepfun.description": "تقدم نماذج Stepfun قدرات رائدة في التعدد الوسائطي والتفكير المعقد، مع فهم طويل للسياق وتنظيم بحث مستقل قوي.",
"straico.description": "يُبسط Straico دمج الذكاء الاصطناعي من خلال توفير مساحة عمل موحدة تجمع بين أفضل نماذج الذكاء الاصطناعي التوليدية للنصوص والصور والصوت، مما يمكّن المسوقين ورواد الأعمال والهواة من الوصول السلس إلى أدوات الذكاء الاصطناعي المتنوعة.",
+ "streamlake.description": "تعد StreamLake منصة سحابية للموديلات الذكية وحوسبة الذكاء الاصطناعي على مستوى المؤسسات، تجمع بين استدلال الموديلات عالي الأداء، وتخصيص الموديلات منخفض التكلفة، وخدمات مُدارة بالكامل، لتمكين المؤسسات من التركيز على ابتكار تطبيقات الذكاء الاصطناعي دون القلق بشأن تعقيد موارد الحوسبة الأساسية أو تكلفتها.",
"taichu.description": "Taichu هو نموذج متعدد الوسائط من الجيل التالي من CASIA ومعهد ووهان للذكاء الاصطناعي، يدعم الأسئلة والأجوبة متعددة الجولات، والكتابة، وتوليد الصور، وفهم الأبعاد الثلاثية، وتحليل الإشارات بقدرات إدراكية وإبداعية متقدمة.",
"tencentcloud.description": "توفر Tencent Cloud محرك معرفة قائم على النماذج اللغوية الكبيرة يقدم إجابات معرفية شاملة للمؤسسات والمطورين، مع خدمات معيارية مثل تحليل المستندات، والتقسيم، والتضمين، وإعادة الصياغة متعددة الجولات لبناء حلول ذكاء اصطناعي مخصصة.",
"togetherai.description": "توفر Together AI أداءً رائدًا من خلال نماذج مبتكرة، وتخصيص واسع، وتوسع سريع، ونشر بسيط لتلبية احتياجات المؤسسات.",
diff --git a/locales/ar/setting.json b/locales/ar/setting.json
index 090a122982..666dc90066 100644
--- a/locales/ar/setting.json
+++ b/locales/ar/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "أدوات النظام",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - أداة سريعة للبحث في الشيفرة البرمجية",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - واجهة سطر الأوامر لأتمتة المتصفح بدون واجهة لوكلاء الذكاء الاصطناعي",
+ "settingSystemTools.tools.bun.desc": "Bun - بيئة تشغيل JavaScript ومدير حزم سريع",
+ "settingSystemTools.tools.bunx.desc": "bunx - أداة تشغيل حزم Bun لتنفيذ حزم npm",
"settingSystemTools.tools.fd.desc": "fd - بديل سريع وسهل الاستخدام لأداة find",
"settingSystemTools.tools.find.desc": "أداة find في Unix - أمر قياسي للبحث عن الملفات",
"settingSystemTools.tools.grep.desc": "GNU grep - أداة قياسية للبحث في النصوص",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - إدارة والاتصال بخدمات LobeHub",
"settingSystemTools.tools.mdfind.desc": "بحث Spotlight في macOS (بحث مفهرس وسريع)",
"settingSystemTools.tools.node.desc": "Node.js - بيئة تشغيل JavaScript لـ JS/TS",
"settingSystemTools.tools.npm.desc": "npm - مدير حزم Node.js لتثبيت التبعيات",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - مدير حزم سريع وفعّال في استخدام مساحة القرص",
"settingSystemTools.tools.python.desc": "Python - بيئة تشغيل لغة البرمجة",
"settingSystemTools.tools.rg.desc": "ripgrep - أداة بحث نصي سريعة للغاية",
+ "settingSystemTools.tools.uv.desc": "uv - مدير حزم Python فائق السرعة",
"settingTTS.openai.sttModel": "نموذج OpenAI لتحويل الكلام إلى نص",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "نموذج OpenAI لتحويل النص إلى كلام",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "النموذج",
"systemAgent.inputCompletion.modelDesc": "النموذج المستخدم لاقتراحات الإكمال التلقائي للإدخال (مثل نص الشبح في GitHub Copilot)",
"systemAgent.inputCompletion.title": "وكيل الإكمال التلقائي للإدخال",
+ "systemAgent.promptRewrite.label": "النموذج",
+ "systemAgent.promptRewrite.modelDesc": "حدد النموذج المستخدم لإعادة صياغة المطالبات",
+ "systemAgent.promptRewrite.title": "وكيل إعادة صياغة المطالبات",
"systemAgent.queryRewrite.label": "النموذج",
"systemAgent.queryRewrite.modelDesc": "تحديد النموذج المستخدم لتحسين استفسارات المستخدم",
"systemAgent.queryRewrite.title": "وكيل إعادة صياغة استعلام المكتبة",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "رفع ملف .zip أو .skill محلي",
"tab.usage": "إحصائيات الاستخدام",
"tools.add": "إضافة مهارة",
+ "tools.builtins.find-skills.description": "يساعد المستخدمين في اكتشاف وتثبيت مهارات الوكلاء عند سؤالهم \"كيف أفعل كذا\" أو \"اعثر على مهارة لكذا\" أو عند رغبتهم في توسيع القدرات",
+ "tools.builtins.find-skills.title": "العثور على المهارات",
"tools.builtins.groupName": "المهارات المدمجة",
"tools.builtins.install": "تثبيت",
"tools.builtins.installed": "مثبّت",
+ "tools.builtins.lobe-activator.description": "اكتشاف وتنشيط الأدوات والمهارات",
+ "tools.builtins.lobe-activator.title": "منشّط الأدوات والمهارات",
+ "tools.builtins.lobe-agent-browser.description": "واجهة سطر أوامر لأتمتة المتصفح للوكلاء الذكيين. تُستخدم للمهام التي تتضمن التفاعل مع المواقع أو تطبيقات Electron مثل التنقل، تعبئة النماذج، النقر، التقاط الصور، استخراج البيانات، تدفقات تسجيل الدخول، والاختبارات الشاملة.",
+ "tools.builtins.lobe-agent-browser.title": "متصفح الوكيل",
+ "tools.builtins.lobe-agent-builder.description": "إعداد بيانات الوكيل، إعدادات النموذج، الإضافات، والموجه النظامي",
+ "tools.builtins.lobe-agent-builder.title": "منشئ الوكيل",
+ "tools.builtins.lobe-agent-documents.description": "إدارة مستندات الوكيل (عرض، إنشاء، قراءة، تعديل، إزالة، إعادة تسمية) وقواعد التحميل",
+ "tools.builtins.lobe-agent-documents.title": "المستندات",
+ "tools.builtins.lobe-agent-management.description": "إنشاء الوكلاء وإدارتهم وتنظيم عملهم",
+ "tools.builtins.lobe-agent-management.title": "إدارة الوكلاء",
"tools.builtins.lobe-artifacts.description": "إنشاء ومعاينة مكونات واجهة المستخدم التفاعلية، وتصوير البيانات، والمخططات، والرسومات بصيغة SVG، وتطبيقات الويب بشكل مباشر. أنشئ محتوى بصريًا غنيًا يمكن للمستخدمين التفاعل معه مباشرة.",
"tools.builtins.lobe-artifacts.readme": "أنشئ معاينات حية وتفاعلية لمكونات واجهة المستخدم، وتصوير البيانات، والمخططات، والرسومات بصيغة SVG، وتطبيقات الويب. أنشئ محتوى بصريًا غنيًا يمكن للمستخدمين التفاعل معه مباشرة.",
"tools.builtins.lobe-artifacts.title": "القطع الفنية",
+ "tools.builtins.lobe-brief.description": "الإبلاغ عن التقدم، تسليم النتائج، وطلب القرارات من المستخدم",
+ "tools.builtins.lobe-brief.title": "أدوات المختصر",
"tools.builtins.lobe-calculator.description": "إجراء العمليات الحسابية، حل المعادلات، والعمل مع التعبيرات الرمزية",
"tools.builtins.lobe-calculator.readme": "آلة حاسبة رياضية متقدمة تدعم العمليات الحسابية الأساسية، المعادلات الجبرية، عمليات التفاضل والتكامل، والرياضيات الرمزية. تشمل تحويل القواعد، حل المعادلات، التفاضل، التكامل، وأكثر.",
"tools.builtins.lobe-calculator.title": "آلة حاسبة",
"tools.builtins.lobe-cloud-sandbox.description": "تنفيذ تعليمات برمجية بلغة بايثون، جافاسكريبت، وتايب سكريبت في بيئة سحابية معزولة. شغّل أوامر الصدفة، إدارة الملفات، البحث باستخدام تعبيرات regex، وتصدير النتائج بأمان.",
"tools.builtins.lobe-cloud-sandbox.readme": "نفّذ تعليمات برمجية بلغة Python وJavaScript وTypeScript في بيئة سحابية معزولة. شغّل أوامر الصدفة، وأدر الملفات، وابحث في المحتوى باستخدام regex، وصدّر النتائج بأمان.",
"tools.builtins.lobe-cloud-sandbox.title": "بيئة سحابية تجريبية",
+ "tools.builtins.lobe-creds.description": "إدارة بيانات اعتماد المستخدم للمصادقة، وحقن متغيرات البيئة، والتحقق من واجهات API — التعامل مع مفاتيح API، رموز OAuth، والأسرار للتكامل مع الخدمات الخارجية.",
+ "tools.builtins.lobe-creds.title": "بيانات الاعتماد",
+ "tools.builtins.lobe-cron.description": "إدارة المهام المجدولة التي تعمل تلقائيًا في أوقات محددة. إنشاء، تحديث، تفعيل/تعطيل، ومراقبة المهام المتكررة لوكلائك.",
+ "tools.builtins.lobe-cron.title": "المهام المجدولة",
+ "tools.builtins.lobe-group-agent-builder.description": "إعداد بيانات المجموعات، الأعضاء، والمحتوى المشترك لمجموعات الوكلاء متعددة",
+ "tools.builtins.lobe-group-agent-builder.title": "منشئ وكيل المجموعة",
+ "tools.builtins.lobe-group-management.description": "تنظيم وإدارة المحادثات الجماعية لوكلاء متعددين",
+ "tools.builtins.lobe-group-management.title": "إدارة المجموعات",
"tools.builtins.lobe-gtd.description": "خطط للأهداف وتابع التقدم باستخدام منهجية GTD. أنشئ خططًا استراتيجية، وأدر قوائم المهام مع تتبع الحالة، ونفّذ مهام غير متزامنة طويلة الأمد.",
"tools.builtins.lobe-gtd.readme": "خطط لأهدافك وتابع تقدمك باستخدام منهجية GTD. أنشئ خططًا استراتيجية، وأدر قوائم المهام مع تتبع الحالة، ونفّذ المهام غير المتزامنة طويلة الأمد.",
"tools.builtins.lobe-gtd.title": "أدوات GTD",
+ "tools.builtins.lobe-knowledge-base.description": "البحث في المستندات المرفوعة والمعرفة المتخصصة عبر البحث الدلالي — للرجوع الدائم والقابل لإعادة الاستخدام",
+ "tools.builtins.lobe-knowledge-base.title": "قاعدة المعرفة",
"tools.builtins.lobe-local-system.description": "الوصول إلى نظام الملفات المحلي على سطح المكتب. قراءة، وكتابة، والبحث، وتنظيم الملفات. تنفيذ أوامر الصدفة مع دعم المهام الخلفية والبحث في المحتوى باستخدام تعبيرات regex.",
"tools.builtins.lobe-local-system.readme": "يمكنك الوصول إلى نظام الملفات المحلي على سطح المكتب. اقرأ، واكتب، وابحث، ونظّم الملفات. نفّذ أوامر الصدفة مع دعم المهام الخلفية وابحث في المحتوى باستخدام أنماط regex.",
"tools.builtins.lobe-local-system.title": "النظام المحلي",
+ "tools.builtins.lobe-message.description": "إرسال، قراءة، تحرير، وإدارة الرسائل عبر منصات مراسلة متعددة من خلال واجهة موحدة",
+ "tools.builtins.lobe-message.readme": "أداة مراسلة متعددة المنصات تدعم Discord وTelegram وSlack وGoogle Chat وIRC. توفر واجهات موحدة لعمليات الرسائل، التفاعلات، التثبيت، المواضيع، إدارة القنوات، والميزات الخاصة بكل منصة مثل الاستفتاءات.",
+ "tools.builtins.lobe-message.title": "الرسائل",
"tools.builtins.lobe-notebook.description": "إنشاء وإدارة مستندات دائمة ضمن مواضيع المحادثة. احفظ الملاحظات، والتقارير، والمقالات، ومحتوى Markdown الذي يبقى متاحًا عبر الجلسات.",
"tools.builtins.lobe-notebook.readme": "أنشئ وادِر مستندات دائمة ضمن مواضيع المحادثة. احفظ الملاحظات، والتقارير، والمقالات، ومحتوى Markdown ليبقى متاحًا عبر الجلسات.",
"tools.builtins.lobe-notebook.title": "دفتر الملاحظات",
+ "tools.builtins.lobe-page-agent.description": "إنشاء، قراءة، تحديث، وحذف العقد في المستندات ذات البنية XML",
+ "tools.builtins.lobe-page-agent.readme": "إنشاء وتحرير مستندات منظمة مع تحكم دقيق على مستوى العقد. البدء من Markdown، إجراء عمليات إدراج/تعديل/حذف مجمّعة، والبحث والاستبدال عبر المستندات.",
+ "tools.builtins.lobe-page-agent.title": "المستند",
+ "tools.builtins.lobe-remote-device.description": "اكتشاف وإدارة اتصالات أجهزة سطح المكتب البعيدة",
+ "tools.builtins.lobe-remote-device.readme": "إدارة الاتصالات مع أجهزة سطح المكتب الخاصة بك. عرض الأجهزة المتصلة، تفعيل جهاز للعمليات البعيدة، والتحقق من حالة الاتصال.",
+ "tools.builtins.lobe-remote-device.title": "جهاز بعيد",
+ "tools.builtins.lobe-skill-store.description": "تصفح وتثبيت مهارات الوكلاء من سوق LobeHub. استخدم هذا عند حاجتك لقدرات إضافية أو لتثبيت مهارة محددة.",
+ "tools.builtins.lobe-skill-store.title": "متجر المهارات",
+ "tools.builtins.lobe-skills.description": "تنشيط واستخدام حزم المهارات القابلة لإعادة الاستخدام",
+ "tools.builtins.lobe-skills.title": "المهارات",
+ "tools.builtins.lobe-task.description": "إنشاء، عرض، تحرير، وحذف المهام مع إدارة التبعيات وإعدادات المراجعة",
+ "tools.builtins.lobe-task.title": "أدوات المهام",
+ "tools.builtins.lobe-topic-reference.description": "استرجاع السياق من المحادثات المرجعية للمواضيع",
+ "tools.builtins.lobe-topic-reference.title": "مرجع الموضوع",
+ "tools.builtins.lobe-user-interaction.description": "طرح الأسئلة على المستخدمين عبر تفاعلات الواجهة ومتابعة نتائج دورة حياتهم",
+ "tools.builtins.lobe-user-interaction.title": "تفاعل المستخدم",
"tools.builtins.lobe-user-memory.description": "أنشئ قاعدة معرفة مخصصة عنك. تذكّر التفضيلات، وتتبع الأنشطة والتجارب، واحفظ معلومات الهوية، واسترجع السياق المناسب في المحادثات المستقبلية.",
"tools.builtins.lobe-user-memory.readme": "أنشئ قاعدة معرفة مخصصة عنك. تذكّر التفضيلات، وتتبع الأنشطة والتجارب، واحتفظ بمعلومات الهوية، واسترجع السياق المناسب في المحادثات المستقبلية.",
"tools.builtins.lobe-user-memory.title": "الذاكرة",
+ "tools.builtins.lobe-web-browsing.description": "البحث في الويب للحصول على معلومات حديثة وزحف الصفحات لاستخراج المحتوى. يدعم عدة محركات بحث، فئات، ونطاقات زمنية.",
+ "tools.builtins.lobe-web-browsing.readme": "البحث في الويب وجمع المعلومات الحديثة وزحف الصفحات لاستخراج المحتوى. يدعم محركات بحث متعددة، فئات، ونطاقات زمنية للبحث الشامل.",
+ "tools.builtins.lobe-web-browsing.title": "تصفح الويب",
+ "tools.builtins.lobe-web-onboarding.description": "قيادة عملية الإعداد على الويب ببيئة تشغيل وكيل مُتحكم بها",
+ "tools.builtins.lobe-web-onboarding.title": "إعداد الويب",
+ "tools.builtins.lobehub.description": "إدارة منصة LobeHub عبر CLI — قواعد المعرفة، الذاكرة، الوكلاء، الملفات، البحث، التوليد، والمزيد.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "غير مثبّت",
+ "tools.builtins.task.description": "إدارة وتنفيذ المهام — إنشاء، تتبع، مراجعة، وإكمال المهام عبر CLI.",
+ "tools.builtins.task.title": "المهام",
"tools.builtins.uninstall": "إلغاء التثبيت",
"tools.builtins.uninstallConfirm.desc": "هل أنت متأكد أنك تريد إلغاء تثبيت {{name}}؟ سيتم إزالة هذه المهارة من الوكيل الحالي.",
"tools.builtins.uninstallConfirm.title": "إلغاء تثبيت {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "هل تريد قطع الاتصال بـ {{name}}؟",
"tools.lobehubSkill.disconnected": "غير متصل",
"tools.lobehubSkill.error": "خطأ",
+ "tools.lobehubSkill.providers.github.description": "GitHub هو منصة للتحكم بالإصدارات والتعاون، تتيح للمطورين استضافة، مراجعة، وإدارة مستودعات الأكواد.",
+ "tools.lobehubSkill.providers.github.readme": "اتصل بـ GitHub للوصول إلى مستودعاتك، إنشاء وإدارة القضايا، مراجعة طلبات السحب، والتعاون في الأكواد — وكل ذلك عبر محادثة طبيعية مع مساعدك الذكي.",
"tools.lobehubSkill.providers.linear.description": "Linear هي أداة حديثة لتتبع القضايا وإدارة المشاريع مصممة للفرق عالية الأداء لبناء برمجيات أفضل بشكل أسرع",
"tools.lobehubSkill.providers.linear.readme": "اجلب قوة Linear مباشرة إلى مساعدك الذكي. أنشئ وحدث المشكلات، وأدر السبرينت، وتتبع تقدم المشاريع، وسهّل سير عمل التطوير — كل ذلك من خلال المحادثة الطبيعية.",
"tools.lobehubSkill.providers.microsoft.description": "تقويم Outlook هو أداة جدولة مدمجة ضمن Microsoft Outlook تتيح للمستخدمين إنشاء المواعيد، تنظيم الاجتماعات، وإدارة الوقت والفعاليات بفعالية.",
"tools.lobehubSkill.providers.microsoft.readme": "تكامل مع تقويم Outlook لعرض وإنشاء وإدارة فعالياتك بسلاسة. جدْوِل الاجتماعات، وتحقق من التوفر، واضبط التذكيرات، ونظّم وقتك — كل ذلك باستخدام أوامر اللغة الطبيعية.",
"tools.lobehubSkill.providers.twitter.description": "X (تويتر سابقًا) هي منصة تواصل اجتماعي لمشاركة التحديثات الفورية، الأخبار، والتفاعل مع جمهورك من خلال المنشورات، الردود، والرسائل المباشرة.",
"tools.lobehubSkill.providers.twitter.readme": "اتصل بـ X (تويتر) لنشر التغريدات، وإدارة الجدول الزمني، والتفاعل مع جمهورك. أنشئ المحتوى، وجدول المنشورات، وراقب الإشارات، وابنِ حضورك على وسائل التواصل الاجتماعي من خلال الذكاء الاصطناعي الحواري.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel هي منصة سحابية للمطورين الأماميين، توفر الاستضافة والدوال الخادمة لنشر التطبيقات بسهولة.",
+ "tools.lobehubSkill.providers.vercel.readme": "اتصل بـ Vercel لإدارة عمليات النشر، مراقبة حالة المشاريع، والتحكم في البنية التحتية. انشر التطبيقات، تحقق من سجلات البناء، أدر متغيرات البيئة، ووسع مشاريعك عبر محادثة ذكية.",
"tools.notInstalled": "غير مثبت",
"tools.notInstalledWarning": "هذه المهارة غير مثبتة حاليًا، مما قد يؤثر على وظائف الوكيل.",
"tools.plugins.enabled": "مفعلة: {{num}}",
diff --git a/locales/ar/subscription.json b/locales/ar/subscription.json
index 3f2b46cd2a..a3ac60cc5d 100644
--- a/locales/ar/subscription.json
+++ b/locales/ar/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "الترقية إلى",
"credits.topUp.upgradeSuffix": "لتوفير ${{savings}}",
"credits.topUp.validityInfo": "صالح لمدة {{months}} أشهر",
+ "crossPlatform.desc": "تم شراء هذا الاشتراك من خلال تطبيق الهاتف المحمول ولا يمكن تعديله هنا. يرجى إدارة اشتراكك على جهازك المحمول.",
+ "crossPlatform.manageOnMobile": "إدارة على الجهاز المحمول",
+ "crossPlatform.title": "اشتراك عبر الأنظمة الأساسية",
"currentPlan.cancelAlert": "سيتم إلغاء الاشتراك بعد {{canceledAt}}. لا يزال بإمكانك استعادته من \"إدارة الاشتراك\" قبل ذلك",
"currentPlan.downgradeAlert": "سيتم تخفيض الخطة إلى {{plan}} بعد {{downgradedAt}}.",
"currentPlan.management": "إدارة الاشتراك",
diff --git a/locales/ar/video.json b/locales/ar/video.json
index afb977de64..2346e73ce7 100644
--- a/locales/ar/video.json
+++ b/locales/ar/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "الإطار الابتدائي",
"config.prompt.placeholder": "صف الفيديو الذي ترغب في إنشائه",
"config.prompt.placeholderWithRef": "وصف المشهد الذي تريد إنشاؤه مع الصورة",
+ "config.promptExtend.label": "توسيع المطالبة",
"config.referenceImage.label": "صورة مرجعية",
"config.resolution.label": "الدقة",
"config.seed.label": "البذرة",
"config.seed.random": "عشوائي",
"config.size.label": "الحجم",
+ "config.watermark.label": "علامة مائية",
+ "config.webSearch.label": "البحث في الويب",
"generation.actions.copyError": "نسخ رسالة الخطأ",
"generation.actions.errorCopied": "تم نسخ رسالة الخطأ إلى الحافظة",
"generation.actions.errorCopyFailed": "فشل في نسخ رسالة الخطأ",
diff --git a/locales/bg-BG/agent.json b/locales/bg-BG/agent.json
index 2ffcc82542..ad70911b97 100644
--- a/locales/bg-BG/agent.json
+++ b/locales/bg-BG/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Ботът е успешно свързан",
"channel.connecting": "Свързване...",
"channel.connectionConfig": "Конфигурация на връзката",
+ "channel.connectionMode": "Режим на свързване",
+ "channel.connectionModeHint": "WebSocket се препоръчва за нови ботове. Използвайте Webhook, ако вашият бот вече има конфигуриран callback URL в платформата QQ Open Platform.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Копирано в клипборда",
"channel.copy": "Копирай",
"channel.credentials": "Удостоверения",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Моля, копирайте този URL и го поставете в полето {{fieldName}} в {{name}} Developer Portal.",
"channel.exportConfig": "Експортиране на конфигурация",
"channel.feishu.description": "Свържете този асистент с Feishu за лични и групови чатове.",
+ "channel.feishu.webhookMigrationDesc": "Режимът WebSocket осигурява доставяне на събития в реално време без необходимост от публичен callback URL. За миграция превключете режима на свързване към WebSocket в Разширени настройки. Не е необходима допълнителна конфигурация в Feishu/Lark Open Platform.",
+ "channel.feishu.webhookMigrationTitle": "Обмислете миграция към режим WebSocket",
"channel.historyLimit": "Лимит на съобщенията в историята",
"channel.historyLimitHint": "По подразбиране брой съобщения за извличане при четене на историята на канала",
"channel.importConfig": "Импортиране на конфигурация",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Задължително за проверка на взаимодействия",
"channel.qq.appIdHint": "Вашият QQ Bot App ID от QQ Open Platform",
"channel.qq.description": "Свържете този асистент с QQ за групови чатове и директни съобщения.",
+ "channel.qq.webhookMigrationDesc": "Режимът WebSocket осигурява доставяне на събития в реално време и автоматично повторно свързване без необходимост от callback URL. За миграция създайте нов бот в QQ Open Platform без да конфигурирате callback URL, след което превключете режима на свързване към WebSocket в Разширени настройки.",
+ "channel.qq.webhookMigrationTitle": "Обмислете миграция към режим WebSocket",
"channel.removeChannel": "Премахване на канал",
"channel.removeFailed": "Неуспешно премахване на канала",
"channel.removed": "Каналът е премахнат",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Тайна за подписване",
"channel.signingSecretHint": "Използва се за проверка на заявки към уебхук.",
"channel.slack.appIdHint": "Вашият Slack App ID от таблото за управление на Slack API (започва с A).",
+ "channel.slack.appToken": "Токен на ниво приложение",
+ "channel.slack.appTokenHint": "Задължителен за Socket Mode (WebSocket). Генерирайте токен на ниво приложение (xapp-...) в секцията Basic Information в настройките на вашето Slack приложение.",
"channel.slack.description": "Свържете този асистент със Slack за разговори в канали и директни съобщения.",
+ "channel.slack.webhookMigrationDesc": "Socket Mode осигурява доставяне на събития в реално време чрез WebSocket без да изисква публичен HTTP endpoint. За миграция активирайте Socket Mode в настройките на вашето Slack приложение, генерирайте токен на ниво приложение, след което превключете режима на свързване към WebSocket в Разширени настройки.",
+ "channel.slack.webhookMigrationTitle": "Обмислете миграция към Socket Mode (WebSocket)",
"channel.telegram.description": "Свържете този асистент с Telegram за лични и групови чатове.",
"channel.testConnection": "Тестване на връзката",
"channel.testFailed": "Тестът на връзката неуспешен",
diff --git a/locales/bg-BG/chat.json b/locales/bg-BG/chat.json
index 649fcdeb10..3bc27d27aa 100644
--- a/locales/bg-BG/chat.json
+++ b/locales/bg-BG/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Групата е изтрита успешно",
"confirmRemoveSessionItemAlert": "Ще изтриете този агент. След изтриване, той не може да бъде възстановен. Моля, потвърдете действието си.",
"confirmRemoveSessionSuccess": "Агентът е премахнат успешно",
+ "createModal.createBlank": "Създай празен",
+ "createModal.groupPlaceholder": "Опишете какво трябва да прави тази група...",
+ "createModal.groupTitle": "Какво трябва да прави вашата група?",
+ "createModal.placeholder": "Опишете какво трябва да прави вашият агент...",
+ "createModal.title": "Какво трябва да прави вашият агент?",
"defaultAgent": "Агент по подразбиране",
"defaultGroupChat": "Група",
"defaultList": "Списък по подразбиране",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Контекстът е твърде дълъг, компресиране на историята...",
"operation.execAgentRuntime": "Подготвяне на отговор",
"operation.execClientTask": "Изпълнение на задача",
+ "operation.execServerAgentRuntime": "Работи… Можете да превключите задачи или да затворите страницата — задачата ще продължи.",
"operation.sendMessage": "Изпращане на съобщение",
"owner": "Собственик на групата",
"pageCopilot.title": "Агент на страницата",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Извличане на подробности...",
"task.status.initializing": "Инициализиране на задачата...",
"task.subtask": "Подзадача",
+ "task.title": "Задачи",
"thread.divider": "Подтема",
"thread.threadMessageCount": "{{messageCount}} съобщения",
"thread.title": "Подтема",
@@ -429,9 +436,11 @@
"toolAuth.title": "Упълномощи уменията за този агент",
"topic.checkOpenNewTopic": "Да започнем нова тема?",
"topic.checkSaveCurrentMessages": "Искате ли да запазите текущия разговор като тема?",
+ "topic.defaultTitle": "Неозаглавена тема",
"topic.openNewTopic": "Отвори нова тема",
"topic.recent": "Скорошни теми",
"topic.saveCurrentMessages": "Запази текущата сесия като тема",
+ "topic.viewAll": "Виж всички теми",
"translate.action": "Преведи",
"translate.clear": "Изчисти превода",
"tts.action": "Текст към реч",
diff --git a/locales/bg-BG/common.json b/locales/bg-BG/common.json
index dadf192f6e..4c3121112a 100644
--- a/locales/bg-BG/common.json
+++ b/locales/bg-BG/common.json
@@ -343,10 +343,19 @@
"mail.support": "Имейл поддръжка",
"more": "Още",
"navPanel.agent": "Агент",
+ "navPanel.customizeSidebar": "Персонализиране на страничната лента",
"navPanel.displayItems": "Показвани елементи",
+ "navPanel.hidden": "Скрито",
+ "navPanel.hideSection": "Скриване на раздел",
"navPanel.library": "Библиотека",
+ "navPanel.moveDown": "Преместване надолу",
+ "navPanel.moveUp": "Преместване нагоре",
+ "navPanel.pinned": "Закачено",
"navPanel.searchAgent": "Търсене на агент...",
+ "navPanel.searchRecent": "Търсене в скорошни...",
"navPanel.searchResultEmpty": "Няма намерени резултати",
+ "navPanel.show": "Показване",
+ "navPanel.visible": "Видимо",
"new": "Нов",
"noContent": "Няма съдържание",
"oauth": "SSO вход",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Подкрепете ни",
"productHunt.description": "Подкрепете ни в Product Hunt. Вашата подкрепа означава много за нас!",
"productHunt.title": "Ние сме в Product Hunt!",
+ "promptTransform.action": "Усъвършенстване на идеята",
+ "promptTransform.actions.rewrite": "Разширяване на подробностите",
+ "promptTransform.actions.translate": "Превод",
+ "promptTransform.status.rewrite": "Разширяване на подробностите...",
+ "promptTransform.status.translate": "Превеждане...",
+ "recents": "Скорошни",
"regenerate": "Генерирай отново",
"releaseNotes": "Детайли за версията",
"rename": "Преименувай",
@@ -400,6 +415,7 @@
"tab.audio": "Аудио",
"tab.chat": "Чат",
"tab.community": "Общност",
+ "tab.create": "Създаване",
"tab.discover": "Открий",
"tab.eval": "Оценителна лаборатория",
"tab.files": "Файлове",
diff --git a/locales/bg-BG/image.json b/locales/bg-BG/image.json
index c27e7f8f2c..e7025ab08a 100644
--- a/locales/bg-BG/image.json
+++ b/locales/bg-BG/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Модел",
"config.prompt.placeholder": "Опишете какво искате да генерирате",
"config.prompt.placeholderWithRef": "Опишете как искате да промените изображението",
+ "config.promptExtend.label": "Разширяване на подсказката",
"config.quality.label": "Качество на изображението",
"config.quality.options.hd": "Висока резолюция",
"config.quality.options.standard": "Стандартно",
@@ -24,6 +25,8 @@
"config.size.label": "Размер",
"config.steps.label": "Стъпки",
"config.title": "Конфигурация",
+ "config.watermark.label": "Воден знак",
+ "config.webSearch.label": "Уеб търсене",
"config.width.label": "Ширина",
"generation.actions.applySeed": "Приложи сийд",
"generation.actions.copyError": "Копирай съобщението за грешка",
diff --git a/locales/bg-BG/labs.json b/locales/bg-BG/labs.json
index 7a413f6cae..21767f4f5d 100644
--- a/locales/bg-BG/labs.json
+++ b/locales/bg-BG/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Групиране на съобщенията от агента и резултатите от извикванията на инструменти заедно за показване",
"features.assistantMessageGroup.title": "Групиране на съобщения от агент",
+ "features.gatewayMode.desc": "Изпълнявайте задачите на агента на сървъра чрез Gateway WebSocket вместо локално. Осигурява по-бързо изпълнение и намалява използването на ресурси от клиента.",
+ "features.gatewayMode.title": "Изпълнение на агента от страна на сървъра (Gateway)",
"features.groupChat.desc": "Активиране на координация в групов чат с множество агенти.",
"features.groupChat.title": "Групов чат (многоагентен)",
"features.inputMarkdown.desc": "Реално време визуализация на Markdown в полето за въвеждане (удебелен текст, кодови блокове, таблици и др.).",
diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json
index 4999415e5d..dcf9edb01d 100644
--- a/locales/bg-BG/models.json
+++ b/locales/bg-BG/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Водещ модел в Китай, надминаващ основни чуждестранни модели при китайски задачи като знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности с отлични резултати на авторитетни бенчмаркове.",
"Baichuan4.description": "Водещо вътрешно представяне, надминаващо водещи чуждестранни модели при китайски задачи като енциклопедични знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности и силни резултати на бенчмаркове.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS е семейство от отворени LLM модели от ByteDance Seed, проектирани за силна обработка на дълъг контекст, логическо мислене, агентни и общи способности. Seed-OSS-36B-Instruct е 36B модел, настроен за инструкции, с вграден ултра-дълъг контекст за обработка на големи документи или кодови бази. Оптимизиран е за логическо мислене, генериране на код и агентни задачи (използване на инструменти), като същевременно запазва силни общи способности. Ключова характеристика е \"Бюджет за мислене\", позволяващ гъвкава дължина на разсъждение за подобрена ефективност.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR е мултимоделен модел на DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Той изследва техники за компресиране на контекст от изображения, обработва документи ефективно и ги преобразува в структуриран текст (например Markdown). Точно разпознава текст в изображения и е подходящ за дигитализация на документи, извличане на текст и структурирана обработка.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, по-големият и по-интелигентен модел от серията DeepSeek, е дистилиран в архитектурата Llama 70B. Бенчмаркове и човешки оценки показват, че е по-умен от базовия Llama 70B, особено при задачи по математика и точност на фактите.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Дистилиран модел DeepSeek-R1, базиран на Qwen2.5-Math-1.5B. Подсилващо обучение и cold-start данни оптимизират логическата производителност, поставяйки нови мултизадачни бенчмаркове за отворени модели.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Моделите DeepSeek-R1-Distill са фино настроени от отворени модели с помощта на примерни данни, генерирани от DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Доставчик: sophnet. DeepSeek V3 Fast е високоскоростната версия на DeepSeek V3 0324, с пълна прецизност (без квантизация), по-силен при програмиране и математика и по-бързи отговори.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast е високоскоростният вариант на DeepSeek V3.1. Хибриден режим на мислене: чрез шаблони за чат, един модел поддържа както мислещ, така и немислещ режим. По-умно използване на инструменти: оптимизации след обучение подобряват производителността при задачи с инструменти и агенти.",
"DeepSeek-V3.1-Think.description": "Режим на мислене на DeepSeek-V3.1: нов хибриден модел за разсъждение с мислещ и немислещ режим, по-ефективен от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и производителността при агентни задачи.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 въвежда механизъм за разредено внимание, който подобрява ефективността при обучение и инференция при обработка на дълги текстове, като е по-евтин от deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 е MoE модел, разработен от DeepSeek. Надминава други отворени модели като Qwen2.5-72B и Llama-3.1-405B в много бенчмаркове и е конкурентен с водещи затворени модели като GPT-4o и Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 128K контекст за извеждане и фина настройка.",
"Doubao-lite-32k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 32K контекст за извеждане и фина настройка.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Високопроизводителен модел за разсъждения, програмиране и задачи с агенти.",
"GLM-4.6.description": "GLM-4.6: Модел от предишно поколение.",
"GLM-4.7.description": "GLM-4.7 е най-новият водещ модел на Zhipu, подобрен за сценарии на агентно програмиране с усъвършенствани възможности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Оптимизирана версия на GLM-5 с по-бързо извеждане за задачи по програмиране.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo е базов модел, силно оптимизиран за агентни сценарии. Той е специално трениран за основните изисквания на агентните задачи, подобрявайки ключови способности като извикване на инструменти, следване на команди и изпълнение на дълги вериги от действия. Идеален е за изграждане на високопроизводителни агентни асистенти.",
"GLM-5.1.description": "GLM-5.1 е най-новият флагмански модел на Zhipu, подобрена версия на GLM-5 с усъвършенствани възможности за агентно инженерство за сложни системни инженерни задачи и задачи с дълъг хоризонт.",
- "GLM-5.description": "GLM-5 е водещ модел от следващо поколение на Zhipu, създаден за агентно инженерство. Той осигурява надеждна продуктивност в сложни системни инженерни задачи и дългосрочни агентни задачи. В областта на програмирането и агентните способности GLM-5 постига най-добри резултати сред моделите с отворен код.",
+ "GLM-5.description": "GLM-5 е следващото флагманско поколение базови модели на Zhipu, създадено за Agentic Engineering. Осигурява надеждна продуктивност при сложни системни разработки и дългосрочни агентни задачи. В кодирането и агентните способности GLM-5 постига водещи резултати сред отворените модели. В реални програмни сценарии потребителското му изживяване се доближава до това на Claude Opus 4.5. Отличава се при сложни системни инженерни задачи и дълги агентни процеси, което го прави идеална основа за универсални агентни асистенти.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) е иновативен модел за разнообразни области и сложни задачи.",
"HY-Image-V3.0.description": "Мощни възможности за извличане на характеристики от оригиналното изображение и запазване на детайлите, предоставящи по-богата визуална текстура и създаващи високоточни, добре композирани, продукционни визуализации.",
"HelloMeme.description": "HelloMeme е AI инструмент, който генерира мемета, GIF-ове или кратки видеа от предоставени изображения или движения. Не изисква умения за рисуване или програмиране — само референтно изображение — за създаване на забавно, атрактивно и стилово консистентно съдържание.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter е модел за персонализирано генериране на персонажи без нужда от настройка, пуснат от Tencent AI през 2025 г., насочен към висок реализъм и консистентност на персонажа в различни сценарии. Може да моделира персонаж от едно референтно изображение и гъвкаво да го прехвърля между стилове, действия и фонове.",
"InternVL2-8B.description": "InternVL2-8B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
"InternVL2.5-26B.description": "InternVL2.5-26B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
+ "KAT-Coder-Air-V1.description": "Лек модел от серията KAT-Coder. Специално създаден за Agentic Coding, покрива широк спектър от програмни задачи и сценарии. Благодарение на мащабно обучение с подсилване върху агентни методи, развива интелигентно поведение и значително превъзхожда подобни модели в производителността при програмиране.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B е експерименталната версия с RL иновации в серията KAT-Coder, постигайки забележителни 74.6% на бенчмарка SWE-Bench Verified — нов рекорд за отворени модели. Фокусира се върху Agentic Coding и към момента поддържа само SWE-Agent структурата, но може да се използва и за прости разговори.",
+ "KAT-Coder-Pro-V1.description": "Създаден за Agentic Coding, покрива комплексно програмни задачи и сценарии, като постига интелигентно поведение чрез мащабно обучение с подсилване и значително превъзхожда сходни модели в производителността при писане на код.",
+ "KAT-Coder-Pro-V2.description": "Най-новият високопроизводителен модел на екипа Kwaipilot на Kuaishou, създаден за сложни корпоративни проекти и SaaS интеграции. Отличава се в сценарии, свързани с код, и е съвместим с различни агентни рамки (Claude Code, OpenCode, KiloCode), поддържа OpenClaw нативно и е специално оптимизиран за естетика на фронт-енд страници.",
+ "Kimi-K2.5.description": "Kimi K2.5 е най-способният модел от серията Kimi, постигащ водещи резултати при агентни задачи, програмиране и визуално разбиране. Поддържа мултимодални входове и режими с мислене и без мислене.",
"Kolors.description": "Kolors е модел за преобразуване на текст в изображение, разработен от екипа на Kuaishou Kolors. Обучен с милиарди параметри, той има значителни предимства във визуалното качество, разбиране на китайски семантики и визуализиране на текст.",
"Kwai-Kolors/Kolors.description": "Kolors е мащабен латентен дифузионен модел за преобразуване на текст в изображение от екипа на Kuaishou Kolors. Обучен върху милиарди двойки текст-изображение, той се отличава с високо визуално качество, точност при сложни семантики и визуализиране на китайски/английски текст, с отлично разбиране и генериране на китайско съдържание.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) е модел с отворен код за задачи в софтуерното инженерство. Постига 62.4% успеваемост в SWE-Bench Verified, класирайки се на 5-то място сред отворените модели. Оптимизиран чрез междинно обучение, SFT и RL за допълване на код, отстраняване на грешки и преглед на код.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Модерен малък езиков модел с отлично езиково разбиране, логическо мислене и генериране на текст.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много по-ниска цена. Базиран е на трансформерна архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и надминава много отворени и затворени модели на индустриални бенчмаркове. Граница на знанието: декември 2023 г.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick е голям MoE модел с ефективна активация на експерти за силна логическа производителност.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro е специално създаден за високонатоварени агентни работни процеси в реални условия. Разполага с над 1 трилион параметъра (42B активирани), използва хибридна архитектура за внимание и поддържа ултра-дълъг контекст до 1 милион токена. Изграден върху мощен базов модел, той непрекъснато разширява изчислителните възможности за по-широк набор агентни сценарии, увеличава действията, които интелигентността може да изпълнява, и постига значима генерализация — от програмиране до изпълнение на реални задачи („claw“).",
"MiniMax-Hailuo-02.description": "Моделът за видео генериране от следващо поколение, MiniMax Hailuo 02, е официално пуснат, поддържащ резолюция 1080P и генериране на видеа с продължителност 10 секунди.",
"MiniMax-Hailuo-2.3-Fast.description": "Чисто нов модел за видео генериране с цялостни подобрения в движенията на тялото, физическата реалистичност и следването на инструкции.",
"MiniMax-Hailuo-2.3.description": "Чисто нов модел за видео генериране с цялостни подобрения в движенията на тялото, физическата реалистичност и следването на инструкции.",
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
- "MiniMax-M2.1-Lightning.description": "Мощни многоезични програмни възможности с по-бързо и ефективно извеждане.",
"MiniMax-M2.1-highspeed.description": "Мощни многоезични програмни възможности, цялостно подобрено програмиране. По-бързо и по-ефективно.",
"MiniMax-M2.1.description": "MiniMax-M2.1 е водеща отворена голяма езикова система от MiniMax, фокусирана върху решаването на сложни реални задачи. Основните ѝ предимства са възможностите за програмиране на множество езици и способността да действа като агент за решаване на сложни задачи.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Същата производителност като M2.5, но с по-бързо извеждане.",
"MiniMax-M2.5.description": "MiniMax-M2.5 е водещ модел с отворен код от MiniMax, фокусиран върху решаването на сложни реални задачи. Основните му предимства са мултиезиковите програмни възможности и способността да решава сложни задачи като агент.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Същата производителност като M2.7, но със значително по-бързо извеждане.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Начало на пътя към рекурсивно самоусъвършенстване, водещи инженерни способности в реалния свят.",
+ "MiniMax-M2.7.description": "Първият самоеволюиращ се модел с висок клас производителност при програмиране и агентни задачи (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Модел от предишно поколение.",
"MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е модел за хибридно внимание с отворени тегла, съдържащ 456 милиарда общи параметри и ~45.9 милиарда активни на токен. Той поддържа контекст от 1 милион токена и използва Flash Attention за намаляване на FLOPs с 75% при генериране на 100K токена спрямо DeepSeek R1. С архитектура MoE плюс CISPO и обучение с хибридно внимание RL, той постига водещи резултати в задачи за дългосрочно разсъждение и реално софтуерно инженерство.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 е най-новият и най-мощен модел от серията Kimi K2. Това е MoE модел от най-висок клас с 1T общо и 32B активни параметъра. Основните му предимства включват по-силна агентна интелигентност при програмиране с значителни подобрения в бенчмаркове и реални задачи, както и подобрена естетика и използваемост на фронтенд кода.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo е ускорен вариант, оптимизиран за скорост на разсъждение и пропускателна способност, като запазва многoетапното разсъждение и използване на инструменти от K2 Thinking. Това е MoE модел с ~1T общи параметри, роден 256K контекст и стабилно мащабируемо извикване на инструменти за производствени сценарии с по-строги изисквания за латентност и едновременност.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 е отворен мултимодален агентен модел, базиран на Kimi-K2-Base, обучен върху приблизително 1.5 трилиона смесени визуални и текстови токени. Моделът използва MoE архитектура с общо 1T параметри и 32B активни параметри, поддържа контекстен прозорец от 256K и безпроблемно интегрира визуално и езиково разбиране.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 е следващо поколение флагмански модел, създаден за агентно инженерство, използващ архитектура Mixture of Experts (MoE) с 754B параметъра. Значително подобрява програмните способности, постигайки водещи резултати на SWE-Bench Pro, и превъзхожда предшественика си на NL2Repo и Terminal-Bench 2.0. Създаден за дълги агентни процеси, обработва неясни въпроси с по-добра преценка, разбива сложни задачи, изпълнява експерименти, анализира резултати и оптимизира решенията чрез стотици итерации и хиляди извиквания на инструменти.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 е новото поколение водещ модел на Zhipu с 355 милиарда общи параметри и 32 милиарда активни параметри, напълно обновен за общ диалог, разсъждения и агентни способности. GLM-4.7 подобрява преплетеното мислене и въвежда запазено мислене и мислене на ниво завой.",
"Pro/zai-org/glm-5.description": "GLM-5 е следващото поколение голям езиков модел на Zhipu, фокусиран върху сложното системно инженерство и задачи на агенти с дълга продължителност. Параметрите на модела са разширени до 744 милиарда (40 милиарда активни) и интегрират DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобряване на разсъждението.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 е оптимизиран за напреднало разсъждение и следване на инструкции, използвайки MoE за ефективно мащабиране на разсъждението.",
"Qwen3-235B.description": "Qwen3-235B-A22B е MoE модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват безпроблемно между мислещ и немислещ режим. Поддържа разбиране и разсъждение на 119 езика и диалекта и има силни възможности за извикване на инструменти, конкурирайки се с водещи модели като DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro в бенчмаркове за общи способности, програмиране и математика, многоезичност и логическо разсъждение.",
"Qwen3-32B.description": "Qwen3-32B е плътен модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват между мислещ и немислещ режим. С архитектурни подобрения, повече данни и по-добро обучение, той се представя наравно с Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus поддържа текст, изображения и видео. Представянето му при чисто текстови задачи е сравнимо с Qwen3 Max, но е по-ефективно и по-евтино. Мултимодалните му способности са значително подобрени спрямо серията Qwen3 VL.",
"S2V-01.description": "Основният модел за преобразуване на референция във видео от серията 01.",
"SenseChat-128K.description": "Базов модел V4 с контекст от 128K, силен в разбиране и генериране на дълги текстове.",
"SenseChat-32K.description": "Базов модел V4 с контекст от 32K, гъвкав за различни сценарии.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и интелигентен модел Haiku на Anthropic, с мълниеносна скорост и разширено мислене.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и интелигентен модел Haiku на Anthropic, отличаващ се със светкавична скорост и разширени способности за разсъждение.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 е най-бързият и най-умен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
- "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способният модел на Anthropic за силно комплексни задачи, превъзхождащ по производителност, интелигентност, плавност и разбиране.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително комплексни задачи, предоставящ върхова производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
- "claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и програмиране.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.5.description": "Claude Opus 4.5 е водещият модел на Anthropic, съчетаващ първокласен интелект с мащабируемо представяне за сложни задачи с високо качество на разсъжденията.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено мислене стъпка по стъпка с фино управление за API потребители.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширени стъпкови разсъждения с видим мисловен процес.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 предлага най-добрия баланс между скорост и интелигентност.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено стъпка по стъпка разсъждение, което потребителите могат да видят. Потребителите на API могат фино да контролират колко дълго моделът разсъждава.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.",
- "deepseek-chat.description": "DeepSeek V3.2 балансира разсъжденията и дължината на изхода за ежедневни задачи за въпроси и отговори и агенти. Публичните бенчмаркове достигат нива на GPT-5, и това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на агенти с отворен код.",
+ "deepseek-chat.description": "Нов модел с отворен код, комбиниращ общи и програмни способности. Запазва диалоговите възможности на чат моделите и силното програмиране на coder моделите, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също подобрява писането и следването на инструкции.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking е модел за дълбоко разсъждение, който генерира верига от мисли преди изходите за по-висока точност, с топ резултати в конкуренцията и разсъждения, сравними с Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "Режимът за мислене на DeepSeek V3.2 извежда вериги от разсъждения преди крайния отговор за по-висока точност.",
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
"ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, създаден от екипа Seed на ByteDance, поддържа редактиране и композиция на множество изображения. Характеризира се с подобрена консистенция на обектите, прецизно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на плакати и дизайн на лого с високопрецизно рендиране на текст и изображения.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа текстови и визуални входове за силно контролируемо, висококачествено генериране на изображения от подсказки.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ текстови и визуални входове и предлагаш висококачествен, силно контролиран визуален резултат. Генерира изображения по текстови описания.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
- "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, ротация и други.",
- "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа Qwen със силно рендиране на текст на китайски и разнообразни визуални стилове.",
+ "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени промени като трансфер на стил и завъртане на обекти.",
+ "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen, отличаващ се с впечатляващо качествено изобразяване на китайски текст и разнообразни визуални стилове.",
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
- "flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
+ "flux-dev.description": "Модел за генериране на изображения с отворен код, оптимизиран за неконкурентни изследвания и иновации.",
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
"flux-kontext-pro.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
- "flux-merged.description": "FLUX.1 [обединен] комбинира дълбоките функции, изследвани в \"DEV\", с високоскоростните предимства на \"Schnell\", разширявайки границите на производителността и разширявайки приложенията.",
"flux-pro-1.1-ultra.description": "Генериране на изображения с ултра висока резолюция и изход от 4MP, създаващ ясни изображения за 10 секунди.",
"flux-pro-1.1.description": "Подобрен професионален модел за генериране на изображения с отлично качество и прецизно следване на подсказки.",
"flux-pro.description": "Висококласен търговски модел за генериране на изображения с несравнимо качество и разнообразие на изхода.",
- "flux-schnell.description": "FLUX.1 [schnell] е най-усъвършенстваният отворен модел с малко стъпки, надминаващ подобни конкуренти и дори силни недестилирани модели като Midjourney v6.0 и DALL-E 3 (HD). Фино настроен е да запази разнообразието от предварително обучение, значително подобрявайки визуалното качество, следването на инструкции, вариациите в размер/съотношение, обработката на шрифтове и разнообразието на изхода.",
"flux.1-schnell.description": "FLUX.1-schnell е високопроизводителен модел за генериране на изображения с бърз изход в различни стилове.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) осигурява стабилна и настройваема производителност за комплексни задачи.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) предлага силна мултимодална поддръжка за комплексни задачи.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google, който също поддържа мултимодален диалог.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът за генериране на изображения на Google, който също поддържа мултимодален чат.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения и поддържа мултимодален чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) предлага качество на изображения от професионално ниво с Flash скорост и поддръжка на мултимодален чат.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият нативен модел на Google за генериране на изображения, с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview е най-икономичният мултимодален модел на Google, оптимизиран за задачи с голям обем, превод и обработка на данни.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.",
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
"jina-deepsearch-v1.description": "DeepSearch комбинира уеб търсене, четене и разсъждение за задълбочени изследвания. Представете си го като агент, който поема вашата изследователска задача, извършва широки търсения с множество итерации и едва след това предоставя отговор. Процесът включва непрекъснато проучване, разсъждение и многопластово решаване на проблеми, коренно различен от стандартните LLM, които отговарят въз основа на предварително обучение или традиционни RAG системи, разчитащи на еднократно повърхностно търсене.",
- "k2p5.description": "Kimi K2.5 е най-гъвкавият модел на Kimi досега, с вградена мултимодална архитектура, която поддържа както визуални, така и текстови входове, режими на 'мислене' и 'немислене', както и както разговорни, така и агентски задачи.",
"kimi-k2-0711-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлага прозорец на контекста от 256k, по-силно агентно програмиране, по-добро качество на front-end код и подобрено разбиране на контекста.",
"kimi-k2-instruct.description": "Kimi K2 Instruct е официалният модел за разсъждение на Kimi с дълъг контекст за код, въпроси и отговори и други.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при трудни задачи. QwQ-32B е среден по размер модел, който се конкурира с водещи модели като DeepSeek-R1 и o1-mini.",
"qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.",
"r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа преобразуване на текст във видео, изображение във видео (първи кадър, първи+последен кадър) и генериране на аудио, синхронизирано с визуализациите.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus предлага генериране, обогатено с уеб извличане за реална информация, подобрена интерпретация на сложни подсказки и подобрена консистентност на референциите за професионално визуално създаване.",
"solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.",
"solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.",
"solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 е нашият нов мощен модел за генериране на медии, генериращ видеа със синхронизиран звук. Той може да създава богато детайлизирани, динамични клипове от естествен език или изображения.",
"spark-x.description": "Преглед на възможностите на X2: 1. Въвежда динамично регулиране на режима на разсъждение, контролирано чрез полето `thinking`. 2. Разширена дължина на контекста: 64K входни токени и 128K изходни токени. 3. Поддържа функционалност за извикване на функции.",
"stable-diffusion-3-medium.description": "Най-новият модел за преобразуване на текст в изображение от Stability AI. Тази версия значително подобрява качеството на изображенията, разбирането на текст и стиловото разнообразие, като по-точно интерпретира сложни естественоезикови заявки и генерира по-прецизни и разнообразни изображения.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo използва adversarial diffusion distillation (ADD) върху stable-diffusion-3.5-large за по-висока скорост.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large е текст-към-изображение модел MMDiT с 800 милиона параметъра, предлагащ отлично качество и съответствие с подадените инструкции, поддържащ изображения с резолюция 1 мегапиксел и ефективна работа на потребителски хардуер.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 е инициализиран от контролна точка v1.2 и фино настроен за 595 хиляди стъпки върху „laion-aesthetics v2 5+“ при резолюция 512x512, като намалява влиянието на текстовото условие с 10% за подобрено семплиране без класификатор.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo е фокусиран върху висококачествено генериране на изображения с отлична детайлност и вярност на сцените.",
"stable-diffusion-xl-base-1.0.description": "Модел с отворен код за генериране на изображения от текст от Stability AI, предлагащ водещо в индустрията творческо качество. Притежава силно разбиране на инструкции и поддържа обратни дефиниции на подканите за прецизно генериране.",
- "stable-diffusion-xl.description": "stable-diffusion-xl предлага значителни подобрения спрямо v1.5 и съответства на водещите отворени модели за генериране на изображения от текст. Подобренията включват 3 пъти по-голям UNet гръбнак, модул за прецизиране за по-добро качество на изображенията и по-ефективни техники на обучение.",
"step-1-128k.description": "Баланс между производителност и разходи за общи сценарии.",
"step-1-256k.description": "Обработка на изключително дълъг контекст, идеална за анализ на дълги документи.",
"step-1-32k.description": "Поддържа разговори със средна дължина за широк спектър от приложения.",
diff --git a/locales/bg-BG/plugin.json b/locales/bg-BG/plugin.json
index 2769a8e96d..45cd809314 100644
--- a/locales/bg-BG/plugin.json
+++ b/locales/bg-BG/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} параметъра общо",
"arguments.title": "Аргументи",
"builtins.lobe-activator.apiName.activateTools": "Активиране на инструменти",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} не са намерени",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Извличане на налични модели",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Извличане на налични умения",
"builtins.lobe-agent-builder.apiName.getConfig": "Извличане на конфигурация",
diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json
index 389b01f2bd..ae92ad6744 100644
--- a/locales/bg-BG/providers.json
+++ b/locales/bg-BG/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
"kimicodingplan.description": "Kimi Code от Moonshot AI предоставя достъп до модели Kimi, включително K2.5, за задачи, свързани с програмиране.",
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
- "lobehub.description": "LobeHub Cloud използва официални API за достъп до AI модели и измерва използването с Кредити, свързани с токени на модела.",
"longcat.description": "LongCat е серия от големи модели за генеративен AI, независимо разработени от Meituan. Той е създаден да подобри вътрешната продуктивност на предприятието и да позволи иновативни приложения чрез ефективна изчислителна архитектура и силни мултимодални възможности.",
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan предоставя достъп до модели MiniMax, включително M2.7, за задачи, свързани с програмиране, чрез абонамент с фиксирана такса.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark предоставя мощен многоезичен AI в различни области, позволявайки иновации в умния хардуер, здравеопазването, финансите и други вертикали.",
"stepfun.description": "Моделите на Stepfun предлагат водещи мултимодални и сложни разсъждателни възможности, с разбиране на дълъг контекст и мощна автономна координация на търсене.",
"straico.description": "Straico опростява интеграцията на изкуствения интелект, като предоставя унифицирано работно пространство, което обединява водещи модели за генериране на текст, изображения и аудио, давайки възможност на маркетолози, предприемачи и ентусиасти за лесен достъп до разнообразни AI инструменти.",
+ "streamlake.description": "StreamLake е корпоративна платформа за модели и AI изчислителен облак, която обединява високопроизводителна инференция на модели, нискобюджетна персонализация на модели и напълно управлявани услуги, за да помогне на предприятията да се съсредоточат върху иновациите в AI приложенията, без да се притесняват за сложността и разходите на базовите изчислителни ресурси.",
"taichu.description": "Модел от ново поколение от CASIA и Института по AI в Ухан, поддържащ многократни въпроси и отговори, писане, генериране на изображения, 3D разбиране и анализ на сигнали с по-силна когниция и креативност.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power предоставя цялостни решения за въпроси и отговори за предприятия и разработчици, с модулни услуги като анализ на документи, сегментиране, вграждания и многократна пренаписка за изграждане на персонализирани AI решения.",
"togetherai.description": "Together AI предлага водеща производителност с иновативни модели, широка персонализация, бързо мащабиране и лесно внедряване за нуждите на предприятията.",
diff --git a/locales/bg-BG/setting.json b/locales/bg-BG/setting.json
index 078767dab2..00a8e98d09 100644
--- a/locales/bg-BG/setting.json
+++ b/locales/bg-BG/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Системни инструменти",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - бърз инструмент за търсене в код",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI за автоматизация на браузъра без графичен интерфейс за AI агенти",
+ "settingSystemTools.tools.bun.desc": "Bun – бърза JavaScript среда за изпълнение и мениджър на пакети",
+ "settingSystemTools.tools.bunx.desc": "bunx – инструмент на Bun за изпълнение на npm пакети",
"settingSystemTools.tools.fd.desc": "fd - бърза и удобна алтернатива на find",
"settingSystemTools.tools.find.desc": "Unix find - стандартна команда за търсене на файлове",
"settingSystemTools.tools.grep.desc": "GNU grep - стандартен инструмент за търсене в текст",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI – управлявайте и свързвайте услуги на LobeHub",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight търсене (бързо индексирано търсене)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript среда за изпълнение за JS/TS",
"settingSystemTools.tools.npm.desc": "npm - мениджър на пакети Node.js за инсталиране на зависимости",
+ "settingSystemTools.tools.pnpm.desc": "pnpm – бърз и ефективен по отношение на дисковото пространство мениджър на пакети",
"settingSystemTools.tools.python.desc": "Python - среда за изпълнение на езика за програмиране",
"settingSystemTools.tools.rg.desc": "ripgrep - изключително бърз инструмент за търсене в текст",
+ "settingSystemTools.tools.uv.desc": "uv – изключително бърз мениджър на Python пакети",
"settingTTS.openai.sttModel": "OpenAI модел за разпознаване на реч",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI модел за преобразуване на текст в реч",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Модел",
"systemAgent.inputCompletion.modelDesc": "Модел, използван за предложения за автоматично довършване на въвеждане (като призрачния текст на GitHub Copilot)",
"systemAgent.inputCompletion.title": "Агент за автоматично довършване на въвеждане",
+ "systemAgent.promptRewrite.label": "Модел",
+ "systemAgent.promptRewrite.modelDesc": "Определете модела, използван за пренаписване на подсказки",
+ "systemAgent.promptRewrite.title": "Агент за пренаписване на подсказки",
"systemAgent.queryRewrite.label": "Модел",
"systemAgent.queryRewrite.modelDesc": "Посочете модел за оптимизиране на потребителски заявки",
"systemAgent.queryRewrite.title": "Агент за пренаписване на заявки в библиотеката",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Качване на локален .zip или .skill файл",
"tab.usage": "Статистика на използване",
"tools.add": "Добави умение",
+ "tools.builtins.find-skills.description": "Помага на потребителите да откриват и инсталират умения за агенти, когато питат „как да направя X“, „намери умение за X“ или когато искат да разширят възможностите",
+ "tools.builtins.find-skills.title": "Намиране на умения",
"tools.builtins.groupName": "Вградени",
"tools.builtins.install": "Инсталирай",
"tools.builtins.installed": "Инсталирано",
+ "tools.builtins.lobe-activator.description": "Откриване и активиране на инструменти и умения",
+ "tools.builtins.lobe-activator.title": "Активатор на инструменти и умения",
+ "tools.builtins.lobe-agent-browser.description": "CLI за автоматизация на браузър за AI агенти. Използва се при задачи, включващи уебсайтове или Electron – навигация, попълване на формуляри, кликване, заснемане на екрана, извличане на данни, логин процеси и end-to-end тестване.",
+ "tools.builtins.lobe-agent-browser.title": "Браузър за агенти",
+ "tools.builtins.lobe-agent-builder.description": "Конфигурирайте метаданни на агента, настройки на модела, плъгини и системната подсказка",
+ "tools.builtins.lobe-agent-builder.title": "Създател на агенти",
+ "tools.builtins.lobe-agent-documents.description": "Управление на документи в обхвата на агента (списък, създаване, четене, редактиране, премахване, преименуване) и правила за зареждане",
+ "tools.builtins.lobe-agent-documents.title": "Документи",
+ "tools.builtins.lobe-agent-management.description": "Създаване, управление и оркестриране на AI агенти",
+ "tools.builtins.lobe-agent-management.title": "Управление на агенти",
"tools.builtins.lobe-artifacts.description": "Генерирайте и визуализирайте интерактивни UI компоненти, визуализации на данни, диаграми, SVG графики и уеб приложения в реално време. Създавайте богато визуално съдържание, с което потребителите могат директно да взаимодействат.",
"tools.builtins.lobe-artifacts.readme": "Генерирайте и визуализирайте интерактивни UI компоненти, визуализации на данни, диаграми, SVG графики и уеб приложения в реално време. Създавайте богато визуално съдържание, с което потребителите могат директно да взаимодействат.",
"tools.builtins.lobe-artifacts.title": "Артефакти",
+ "tools.builtins.lobe-brief.description": "Докладване на напредък, предоставяне на резултати и заявка за решения от потребителя",
+ "tools.builtins.lobe-brief.title": "Инструменти за отчети",
"tools.builtins.lobe-calculator.description": "Извършвайте математически изчисления, решавайте уравнения и работете със символни изрази",
"tools.builtins.lobe-calculator.readme": "Разширен математически калкулатор, поддържащ основна аритметика, алгебрични уравнения, операции с калкулус и символна математика. Включва преобразуване на бази, решаване на уравнения, диференциране, интегриране и други.",
"tools.builtins.lobe-calculator.title": "Калкулатор",
"tools.builtins.lobe-cloud-sandbox.description": "Изпълнявайте код на Python, JavaScript и TypeScript в изолирана облачна среда. Стартирайте shell команди, управлявайте файлове, търсете съдържание с regex и експортирайте резултати сигурно.",
"tools.builtins.lobe-cloud-sandbox.readme": "Изпълнявайте код на Python, JavaScript и TypeScript в изолирана облачна среда. Стартирайте shell команди, управлявайте файлове, търсете съдържание с regex и експортирайте резултати сигурно.",
"tools.builtins.lobe-cloud-sandbox.title": "Облачна пясъчник среда",
+ "tools.builtins.lobe-creds.description": "Управление на потребителски идентификационни данни за автентикация, задаване на променливи на средата и API проверка — управление на API ключове, OAuth токени и тайни за интеграции на трети страни.",
+ "tools.builtins.lobe-creds.title": "Идентификационни данни",
+ "tools.builtins.lobe-cron.description": "Управление на планирани задачи, които се изпълняват автоматично в определени моменти. Създаване, актуализиране, активиране/деактивиране и наблюдение на повтарящи се задачи.",
+ "tools.builtins.lobe-cron.title": "Планирани задачи",
+ "tools.builtins.lobe-group-agent-builder.description": "Конфигурирайте метаданни на групи, членове и споделено съдържание за групи с множество агенти",
+ "tools.builtins.lobe-group-agent-builder.title": "Създател на групови агенти",
+ "tools.builtins.lobe-group-management.description": "Оркестрирайте и управлявайте разговори в групи от агенти",
+ "tools.builtins.lobe-group-management.title": "Групово управление",
"tools.builtins.lobe-gtd.description": "Планирайте цели и следете напредъка с помощта на методологията GTD. Създавайте стратегически планове, управлявайте списъци със задачи със следене на статус и изпълнявайте дълготрайни асинхронни задачи.",
"tools.builtins.lobe-gtd.readme": "Планирайте цели и следете напредъка си с помощта на методологията GTD. Създавайте стратегически планове, управлявайте списъци със задачи със следене на статус и изпълнявайте дълготрайни асинхронни задачи.",
"tools.builtins.lobe-gtd.title": "GTD Инструменти",
+ "tools.builtins.lobe-knowledge-base.description": "Търсене в качени документи и специализирани знания чрез семантично векторно търсене — за постоянно и многократно използване",
+ "tools.builtins.lobe-knowledge-base.title": "База знания",
"tools.builtins.lobe-local-system.description": "Достъп до локалната файлова система на настолния компютър. Четете, записвайте, търсете и организирайте файлове. Изпълнявайте shell команди с поддръжка на фонови задачи и търсете съдържание с regex шаблони.",
"tools.builtins.lobe-local-system.readme": "Достъп до локалната файлова система на вашия компютър. Четете, записвайте, търсете и организирайте файлове. Изпълнявайте shell команди с поддръжка на фонови задачи и търсете съдържание с regex шаблони.",
"tools.builtins.lobe-local-system.title": "Локална система",
+ "tools.builtins.lobe-message.description": "Изпращане, четене, редактиране и управление на съобщения в множество платформи чрез обединен интерфейс",
+ "tools.builtins.lobe-message.readme": "Инструмент за съобщения с поддръжка на Discord, Telegram, Slack, Google Chat и IRC. Осигурява унифицирани API за операции със съобщения, реакции, закачане, нишки, управление на канали и специфични функции като анкети.",
+ "tools.builtins.lobe-message.title": "Съобщения",
"tools.builtins.lobe-notebook.description": "Създавайте и управлявайте постоянни документи в рамките на разговорни теми. Запазвайте бележки, доклади, статии и markdown съдържание, достъпно през различни сесии.",
"tools.builtins.lobe-notebook.readme": "Създавайте и управлявайте постоянни документи в рамките на разговорни теми. Запазвайте бележки, доклади, статии и markdown съдържание, достъпно през различни сесии.",
"tools.builtins.lobe-notebook.title": "Бележник",
+ "tools.builtins.lobe-page-agent.description": "Създаване, четене, актуализиране и изтриване на възли в XML-структурирани документи",
+ "tools.builtins.lobe-page-agent.readme": "Създавайте и редактирайте структурирани документи с прецизен контрол на ниво възел. Инициализирайте от Markdown, извършвайте групово вмъкване/промяна/премахване и търсене и замяна на текст.",
+ "tools.builtins.lobe-page-agent.title": "Документ",
+ "tools.builtins.lobe-remote-device.description": "Откриване и управление на връзки към отдалечени настолни устройства",
+ "tools.builtins.lobe-remote-device.readme": "Управлявайте връзки към настолните си устройства. Преглеждайте онлайн устройства, активирайте устройство за дистанционни операции и проверявайте състоянието на връзката.",
+ "tools.builtins.lobe-remote-device.title": "Отдалечено устройство",
+ "tools.builtins.lobe-skill-store.description": "Разглеждайте и инсталирайте умения за агенти от LobeHub Marketplace. Използвайте, когато имате нужда от разширени възможности или искате да инсталирате конкретно умение.",
+ "tools.builtins.lobe-skill-store.title": "Магазин за умения",
+ "tools.builtins.lobe-skills.description": "Активирайте и използвайте многократни пакети с умения",
+ "tools.builtins.lobe-skills.title": "Умения",
+ "tools.builtins.lobe-task.description": "Създаване, изброяване, редактиране и изтриване на задачи с зависимости и настройки за преглед",
+ "tools.builtins.lobe-task.title": "Инструменти за задачи",
+ "tools.builtins.lobe-topic-reference.description": "Извличане на контекст от свързани тематични разговори",
+ "tools.builtins.lobe-topic-reference.title": "Тематична препратка",
+ "tools.builtins.lobe-user-interaction.description": "Задаване на въпроси на потребителите чрез UI взаимодействия и проследяване на техните резултати",
+ "tools.builtins.lobe-user-interaction.title": "Взаимодействие с потребителя",
"tools.builtins.lobe-user-memory.description": "Изградете персонализирана база знания за вас. Запомняйте предпочитания, следете дейности и преживявания, съхранявайте информация за идентичност и извличайте релевантен контекст в бъдещи разговори.",
"tools.builtins.lobe-user-memory.readme": "Изградете персонализирана база знания за себе си. Запомняйте предпочитания, следете дейности и преживявания, съхранявайте информация за идентичност и извличайте релевантен контекст в бъдещи разговори.",
"tools.builtins.lobe-user-memory.title": "Памет",
+ "tools.builtins.lobe-web-browsing.description": "Търсене в уеб пространството за актуална информация и обхождане на страници за извличане на съдържание. Поддържа множество търсачки, категории и времеви диапазони.",
+ "tools.builtins.lobe-web-browsing.readme": "Търсете актуална информация в мрежата и обхождайте уеб страници за извличане на съдържание. Поддръжка на множество търсачки, категории и времеви диапазони за цялостно изследване.",
+ "tools.builtins.lobe-web-browsing.title": "Уеб търсене",
+ "tools.builtins.lobe-web-onboarding.description": "Управлявайте процеса на уеб onboarding с контролиран агентски runtime",
+ "tools.builtins.lobe-web-onboarding.title": "Уеб въведение",
+ "tools.builtins.lobehub.description": "Управление на платформата LobeHub чрез CLI — бази знания, памет, агенти, файлове, търсене, генериране и други.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Не е инсталирано",
+ "tools.builtins.task.description": "Управление и изпълнение на задачи — създаване, проследяване, преглед и завършване на задачи чрез CLI.",
+ "tools.builtins.task.title": "Задача",
"tools.builtins.uninstall": "Деинсталирай",
"tools.builtins.uninstallConfirm.desc": "Сигурни ли сте, че искате да деинсталирате {{name}}? Това умение ще бъде премахнато от текущия агент.",
"tools.builtins.uninstallConfirm.title": "Деинсталиране на {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Прекъсване на връзката с {{name}}?",
"tools.lobehubSkill.disconnected": "Изключено",
"tools.lobehubSkill.error": "Грешка",
+ "tools.lobehubSkill.providers.github.description": "GitHub е платформа за контрол на версиите и сътрудничество, позволяваща на разработчиците да хостват, преглеждат и управляват кодови хранилища.",
+ "tools.lobehubSkill.providers.github.readme": "Свържете се с GitHub, за да имате достъп до хранилищата си, да създавате и управлявате задачи (issues), да преглеждате pull заявки и да си сътрудничите по код — всичко това чрез естествен разговор с вашия AI асистент.",
"tools.lobehubSkill.providers.linear.description": "Linear е модерен инструмент за проследяване на проблеми и управление на проекти, създаден за високоефективни екипи, които искат да създават по-добър софтуер по-бързо",
"tools.lobehubSkill.providers.linear.readme": "Използвайте възможностите на Linear директно чрез вашия AI асистент. Създавайте и актуализирайте задачи, управлявайте спринтове, следете напредъка на проекти и оптимизирайте работния си процес чрез естествен разговор.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar е интегриран инструмент за планиране в Microsoft Outlook, който позволява на потребителите да създават срещи, организират събития и управляват времето си ефективно.",
"tools.lobehubSkill.providers.microsoft.readme": "Интегрирайте се с Outlook Calendar за лесно преглеждане, създаване и управление на събития. Насрочвайте срещи, проверявайте наличност, задавайте напомняния и координирайте времето си чрез естествени езикови команди.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) е социална медийна платформа за споделяне на актуални новини, ангажиране с аудиторията чрез публикации, отговори и директни съобщения.",
"tools.lobehubSkill.providers.twitter.readme": "Свържете се с X (Twitter), за да публикувате туитове, управлявате времевата си линия и взаимодействате с аудиторията си. Създавайте съдържание, планирайте публикации, следете споменавания и изграждайте присъствие в социалните мрежи чрез разговорен AI.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel е облачна платформа за фронтенд разработчици, предоставяща хостинг и serverless функции за лесно разгръщане на уеб приложения.",
+ "tools.lobehubSkill.providers.vercel.readme": "Свържете се с Vercel, за да управлявате разгръщанията си, да наблюдавате състоянието на проектите и да контролирате инфраструктурата си. Разгръщайте приложения, преглеждайте build логове, управлявайте променливи на средата и мащабирайте проекти чрез разговорен AI.",
"tools.notInstalled": "Не е инсталирано",
"tools.notInstalledWarning": "Това умение не е инсталирано в момента, което може да повлияе на функционалността на агента.",
"tools.plugins.enabled": "Активирани: {{num}}",
diff --git a/locales/bg-BG/subscription.json b/locales/bg-BG/subscription.json
index 3a964d9190..1008ab8c6a 100644
--- a/locales/bg-BG/subscription.json
+++ b/locales/bg-BG/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Надстрой до",
"credits.topUp.upgradeSuffix": "за да спестиш ${{savings}}",
"credits.topUp.validityInfo": "Валидност: {{months}} месеца",
+ "crossPlatform.desc": "Този абонамент е закупен чрез мобилното приложение и не може да бъде променен тук. Моля, управлявайте абонамента си на мобилното устройство.",
+ "crossPlatform.manageOnMobile": "Управлявайте на мобилното устройство",
+ "crossPlatform.title": "Абонамент за различни платформи",
"currentPlan.cancelAlert": "Абонаментът ще бъде анулиран след {{canceledAt}}. Можете да го възстановите в \"Управление на абонамента\" преди това",
"currentPlan.downgradeAlert": "Ще бъде понижен до {{plan}} след {{downgradedAt}}.",
"currentPlan.management": "Управление на абонамента",
diff --git a/locales/bg-BG/video.json b/locales/bg-BG/video.json
index c14b258d80..67952acf4a 100644
--- a/locales/bg-BG/video.json
+++ b/locales/bg-BG/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Начална рамка",
"config.prompt.placeholder": "Опишете видеото, което искате да генерирате",
"config.prompt.placeholderWithRef": "Опишете сцената, която искате да създадете с изображението",
+ "config.promptExtend.label": "Разширяване на подканата",
"config.referenceImage.label": "Референтно изображение",
"config.resolution.label": "Резолюция",
"config.seed.label": "Сийд",
"config.seed.random": "Случаен",
"config.size.label": "Размер",
+ "config.watermark.label": "Воден знак",
+ "config.webSearch.label": "Уеб търсене",
"generation.actions.copyError": "Копирай съобщението за грешка",
"generation.actions.errorCopied": "Съобщението за грешка е копирано в клипборда",
"generation.actions.errorCopyFailed": "Неуспешно копиране на съобщението за грешка",
diff --git a/locales/de-DE/agent.json b/locales/de-DE/agent.json
index cda9a2fe7a..758901bde7 100644
--- a/locales/de-DE/agent.json
+++ b/locales/de-DE/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot erfolgreich verbunden",
"channel.connecting": "Verbinden...",
"channel.connectionConfig": "Verbindungskonfiguration",
+ "channel.connectionMode": "Verbindungsmodus",
+ "channel.connectionModeHint": "Für neue Bots wird WebSocket empfohlen. Verwenden Sie Webhook, wenn Ihr Bot bereits über eine konfigurierte Callback-URL auf der QQ Open Platform verfügt.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "In die Zwischenablage kopiert",
"channel.copy": "Kopieren",
"channel.credentials": "Anmeldedaten",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Bitte kopieren Sie diese URL und fügen Sie sie in das Feld {{fieldName}} im {{name}} Entwicklerportal ein.",
"channel.exportConfig": "Konfiguration exportieren",
"channel.feishu.description": "Verbinden Sie diesen Assistenten mit Feishu für private und Gruppenchats.",
+ "channel.feishu.webhookMigrationDesc": "Der WebSocket-Modus bietet die Zustellung von Ereignissen in Echtzeit, ohne dass eine öffentliche Callback-URL erforderlich ist. Um zu migrieren, wechseln Sie den Verbindungsmodus in den erweiterten Einstellungen zu WebSocket. Es ist keine zusätzliche Konfiguration auf der Feishu/Lark Open Platform erforderlich.",
+ "channel.feishu.webhookMigrationTitle": "Erwägen Sie die Migration zum WebSocket-Modus",
"channel.historyLimit": "Begrenzung der Nachrichtenhistorie",
"channel.historyLimitHint": "Standardanzahl von Nachrichten, die beim Lesen der Kanäle-Historie abgerufen werden",
"channel.importConfig": "Konfiguration importieren",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Erforderlich für Interaktionsüberprüfung",
"channel.qq.appIdHint": "Ihre QQ-Bot-App-ID von der QQ Open Platform",
"channel.qq.description": "Verbinden Sie diesen Assistenten mit QQ für Gruppenchats und Direktnachrichten.",
+ "channel.qq.webhookMigrationDesc": "Der WebSocket-Modus bietet die Zustellung von Ereignissen in Echtzeit und automatische Wiederverbindung, ohne dass eine Callback-URL benötigt wird. Um zu migrieren, erstellen Sie einen neuen Bot auf der QQ Open Platform, ohne eine Callback-URL zu konfigurieren, und wechseln Sie dann in den erweiterten Einstellungen den Verbindungsmodus zu WebSocket.",
+ "channel.qq.webhookMigrationTitle": "Erwägen Sie die Migration zum WebSocket-Modus",
"channel.removeChannel": "Kanal entfernen",
"channel.removeFailed": "Kanal konnte nicht entfernt werden",
"channel.removed": "Kanal entfernt",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Signatur-Geheimnis",
"channel.signingSecretHint": "Wird verwendet, um Webhook-Anfragen zu verifizieren.",
"channel.slack.appIdHint": "Ihre Slack-App-ID aus dem Slack-API-Dashboard (beginnt mit A).",
+ "channel.slack.appToken": "App-Level-Token",
+ "channel.slack.appTokenHint": "Erforderlich für den Socket-Modus (WebSocket). Generieren Sie ein App-Level-Token (xapp-...) unter \"Basic Information\" in den Einstellungen Ihrer Slack-App.",
"channel.slack.description": "Verbinden Sie diesen Assistenten mit Slack für Kanalgespräche und Direktnachrichten.",
+ "channel.slack.webhookMigrationDesc": "Der Socket-Modus bietet die Zustellung von Ereignissen in Echtzeit über WebSocket, ohne dass ein öffentlicher HTTP-Endpunkt erforderlich ist. Um zu migrieren, aktivieren Sie den Socket-Modus in den Einstellungen Ihrer Slack-App, generieren Sie ein App-Level-Token und wechseln Sie anschließend den Verbindungsmodus in den erweiterten Einstellungen zu WebSocket.",
+ "channel.slack.webhookMigrationTitle": "Erwägen Sie die Migration zum Socket-Modus (WebSocket)",
"channel.telegram.description": "Verbinden Sie diesen Assistenten mit Telegram für private und Gruppenchats.",
"channel.testConnection": "Verbindung testen",
"channel.testFailed": "Verbindungstest fehlgeschlagen",
diff --git a/locales/de-DE/chat.json b/locales/de-DE/chat.json
index a001013fbe..f18fd3a4ad 100644
--- a/locales/de-DE/chat.json
+++ b/locales/de-DE/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Gruppe erfolgreich gelöscht",
"confirmRemoveSessionItemAlert": "Sie sind dabei, diesen Agenten zu löschen. Nach dem Löschen kann er nicht wiederhergestellt werden. Bitte bestätigen Sie Ihre Aktion.",
"confirmRemoveSessionSuccess": "Agent erfolgreich entfernt",
+ "createModal.createBlank": "Leere erstellen",
+ "createModal.groupPlaceholder": "Beschreiben Sie, was diese Gruppe tun soll...",
+ "createModal.groupTitle": "Was soll Ihre Gruppe tun?",
+ "createModal.placeholder": "Beschreiben Sie, was Ihr Agent tun soll...",
+ "createModal.title": "Was soll Ihr Agent tun?",
"defaultAgent": "Standardagent",
"defaultGroupChat": "Gruppe",
"defaultList": "Standardliste",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Kontext zu lang, komprimiere Verlauf...",
"operation.execAgentRuntime": "Antwort wird vorbereitet",
"operation.execClientTask": "Aufgabe wird ausgeführt",
+ "operation.execServerAgentRuntime": "Wird ausgeführt… Sie können die Aufgabe wechseln oder die Seite schließen — die Aufgabe läuft weiter.",
"operation.sendMessage": "Nachricht wird gesendet",
"owner": "Gruppeninhaber",
"pageCopilot.title": "Seitenagent",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Details werden abgerufen...",
"task.status.initializing": "Aufgabe wird initialisiert...",
"task.subtask": "Teilaufgabe",
+ "task.title": "Aufgaben",
"thread.divider": "Unterthema",
"thread.threadMessageCount": "{{messageCount}} Nachrichten",
"thread.title": "Unterthema",
@@ -429,9 +436,11 @@
"toolAuth.title": "Skills für diesen Agenten autorisieren",
"topic.checkOpenNewTopic": "Neues Thema starten?",
"topic.checkSaveCurrentMessages": "Möchtest du die aktuelle Unterhaltung als Thema speichern?",
+ "topic.defaultTitle": "Unbenanntes Thema",
"topic.openNewTopic": "Neues Thema öffnen",
"topic.recent": "Letzte Themen",
"topic.saveCurrentMessages": "Aktuelle Sitzung als Thema speichern",
+ "topic.viewAll": "Alle Themen anzeigen",
"translate.action": "Übersetzen",
"translate.clear": "Übersetzung löschen",
"tts.action": "Text-zu-Sprache",
diff --git a/locales/de-DE/common.json b/locales/de-DE/common.json
index 45cf69cb84..d2a89d1a09 100644
--- a/locales/de-DE/common.json
+++ b/locales/de-DE/common.json
@@ -343,10 +343,19 @@
"mail.support": "E-Mail-Support",
"more": "Mehr",
"navPanel.agent": "Agent",
+ "navPanel.customizeSidebar": "Seitenleiste anpassen",
"navPanel.displayItems": "Anzuzeigende Elemente",
+ "navPanel.hidden": "Ausgeblendet",
+ "navPanel.hideSection": "Abschnitt ausblenden",
"navPanel.library": "Bibliothek",
+ "navPanel.moveDown": "Nach unten verschieben",
+ "navPanel.moveUp": "Nach oben verschieben",
+ "navPanel.pinned": "Angeheftet",
"navPanel.searchAgent": "Agent suchen...",
+ "navPanel.searchRecent": "Zuletzt gesucht...",
"navPanel.searchResultEmpty": "Keine Suchergebnisse gefunden",
+ "navPanel.show": "Anzeigen",
+ "navPanel.visible": "Sichtbar",
"new": "Neu",
"noContent": "Kein Inhalt",
"oauth": "SSO-Anmeldung",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Unterstütze uns",
"productHunt.description": "Unterstütze uns auf Product Hunt. Deine Unterstützung bedeutet uns viel!",
"productHunt.title": "Wir sind auf Product Hunt!",
+ "promptTransform.action": "Idee verfeinern",
+ "promptTransform.actions.rewrite": "Details ausweiten",
+ "promptTransform.actions.translate": "Übersetzen",
+ "promptTransform.status.rewrite": "Details werden ausgeweitet...",
+ "promptTransform.status.translate": "Wird übersetzt...",
+ "recents": "Kürzlich",
"regenerate": "Neu generieren",
"releaseNotes": "Versionshinweise",
"rename": "Umbenennen",
@@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Community",
+ "tab.create": "Erstellen",
"tab.discover": "Entdecken",
"tab.eval": "Bewertungslabor",
"tab.files": "Dateien",
diff --git a/locales/de-DE/image.json b/locales/de-DE/image.json
index ca7d145351..4909c9691f 100644
--- a/locales/de-DE/image.json
+++ b/locales/de-DE/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Modell",
"config.prompt.placeholder": "Beschreiben Sie, was Sie generieren möchten",
"config.prompt.placeholderWithRef": "Beschreiben Sie, wie Sie das Bild anpassen möchten",
+ "config.promptExtend.label": "Prompt-Erweiterung",
"config.quality.label": "Bildqualität",
"config.quality.options.hd": "Hohe Auflösung",
"config.quality.options.standard": "Standard",
@@ -24,6 +25,8 @@
"config.size.label": "Größe",
"config.steps.label": "Schritte",
"config.title": "Konfiguration",
+ "config.watermark.label": "Wasserzeichen",
+ "config.webSearch.label": "Websuche",
"config.width.label": "Breite",
"generation.actions.applySeed": "Seed anwenden",
"generation.actions.copyError": "Fehlermeldung kopieren",
diff --git a/locales/de-DE/labs.json b/locales/de-DE/labs.json
index 719106e4a5..12697faa5c 100644
--- a/locales/de-DE/labs.json
+++ b/locales/de-DE/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Agenten-Nachrichten und deren Tool-Ergebnisse gemeinsam anzeigen",
"features.assistantMessageGroup.title": "Agenten-Nachrichten gruppieren",
+ "features.gatewayMode.desc": "Führt Agentenaufgaben über die Gateway-WebSocket-Verbindung auf dem Server aus, statt sie lokal auszuführen. Ermöglicht eine schnellere Ausführung und verringert die Client-Ressourcennutzung.",
+ "features.gatewayMode.title": "Serverseitige Agentenausführung (Gateway)",
"features.groupChat.desc": "Koordination von Gruppenchats mit mehreren Agenten aktivieren.",
"features.groupChat.title": "Gruppenchat (Multi-Agenten)",
"features.inputMarkdown.desc": "Markdown in Echtzeit im Eingabebereich rendern (fetter Text, Codeblöcke, Tabellen usw.).",
diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json
index c286f17d4b..65b8162aca 100644
--- a/locales/de-DE/models.json
+++ b/locales/de-DE/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Ein Spitzenmodell in China, das führende internationale Modelle bei chinesischen Aufgaben wie Wissen, Langtextverarbeitung und kreativer Generierung übertrifft. Es bietet zudem branchenführende multimodale Fähigkeiten mit starken Ergebnissen in anerkannten Benchmarks.",
"Baichuan4.description": "Hervorragende nationale Leistung, übertrifft führende internationale Modelle bei chinesischen Aufgaben wie enzyklopädischem Wissen, langen Texten und kreativer Generierung. Bietet zudem branchenführende multimodale Fähigkeiten und starke Benchmark-Ergebnisse.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS ist eine Familie quelloffener LLMs von ByteDance Seed, entwickelt für starke Langkontextverarbeitung, logisches Denken, Agentenfunktionen und allgemeine Fähigkeiten. Seed-OSS-36B-Instruct ist ein 36B-Modell, das auf Anweisungen abgestimmt ist und nativ ultralangen Kontext unterstützt – ideal für große Dokumente oder Codebasen. Es ist für logisches Denken, Codegenerierung und Agentenaufgaben (Toolnutzung) optimiert und behält dabei starke allgemeine Fähigkeiten. Ein zentrales Merkmal ist das „Thinking Budget“, das eine flexible Denklänge zur Effizienzsteigerung ermöglicht.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR ist ein Vision-Language-Modell von DeepSeek AI, das sich auf OCR und „Context Optical Compression“ konzentriert. Es erforscht die Komprimierung von Kontext aus Bildern, verarbeitet Dokumente effizient und wandelt sie in strukturierten Text (z. B. Markdown) um. Es erkennt Text in Bildern präzise und eignet sich für die Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, das größere und intelligentere Modell der DeepSeek-Reihe, wurde in die Llama-70B-Architektur destilliert. Benchmarks und menschliche Bewertungen zeigen, dass es intelligenter ist als das ursprüngliche Llama-70B, insbesondere bei Mathematik- und Faktenaufgaben.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Ein aus Qwen2.5-Math-1.5B destilliertes DeepSeek-R1-Modell. Verstärkendes Lernen und Cold-Start-Daten optimieren die Denkleistung und setzen neue Maßstäbe für offene Multitasking-Modelle.",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill-Modelle sind feinabgestimmte Versionen quelloffener Modelle, die mit von DeepSeek-R1 generierten Beispieldaten trainiert wurden.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Anbieter: sophnet. DeepSeek V3 Fast ist die Hoch-TPS-Version von DeepSeek V3 0324, in voller Präzision (nicht quantisiert) mit stärkerer Leistung bei Code und Mathematik sowie schnelleren Antworten.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast ist die Hoch-TPS-Variante von DeepSeek V3.1. Hybrid-Denkmodus: Über Chatvorlagen unterstützt ein Modell sowohl Denk- als auch Nicht-Denk-Modi. Intelligente Toolnutzung: Nachtrainingsoptimierungen verbessern die Leistung bei Tool- und Agentenaufgaben.",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 Denkmodus: Ein neues hybrides Denkmodell mit Denk- und Nicht-Denk-Modi, effizienter als DeepSeek-R1-0528. Nachtrainingsoptimierungen verbessern die Toolnutzung und Agentenleistung erheblich.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 führt einen Sparse-Attention-Mechanismus ein, um die Trainings- und Inferenzeffizienz bei der Verarbeitung langer Texte zu verbessern und bietet gleichzeitig geringere Kosten als deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell, das von DeepSeek entwickelt wurde. Es übertrifft andere offene Modelle wie Qwen2.5-72B und Llama-3.1-405B in vielen Benchmarks und ist konkurrenzfähig mit führenden geschlossenen Modellen wie GPT-4o und Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite bietet ultraschnelle Antworten und ein hervorragendes Preis-Leistungs-Verhältnis mit flexiblen Optionen für verschiedene Szenarien. Unterstützt 128K Kontext für Inferenz und Feinabstimmung.",
"Doubao-lite-32k.description": "Doubao-lite bietet ultraschnelle Antworten und ein hervorragendes Preis-Leistungs-Verhältnis mit flexiblen Optionen für verschiedene Szenarien. Unterstützt 32K Kontext für Inferenz und Feinabstimmung.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Hochleistungsmodell für logisches Denken, Programmierung und Agentenaufgaben.",
"GLM-4.6.description": "GLM-4.6: Modell der vorherigen Generation.",
"GLM-4.7.description": "GLM-4.7 ist Zhipus neuestes Flaggschiffmodell, optimiert für agentenbasierte Codierungsszenarien mit verbesserten Programmierfähigkeiten, langfristiger Aufgabenplanung und Werkzeugzusammenarbeit.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Optimierte Version von GLM-5 mit schnellerer Inferenz für Programmieraufgaben.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo ist ein Foundation-Modell, das speziell für agentische Szenarien optimiert wurde. Es wurde bereits in der Trainingsphase auf die Kernanforderungen von Agent-Aufgaben ausgerichtet und verbessert wichtige Fähigkeiten wie Tool-Aufrufe, Befehlsausführung und langkettige Abläufe. Ideal für den Aufbau leistungsstarker Agent-Assistenten.",
"GLM-5.1.description": "GLM-5.1 ist Zhipus neuestes Flaggschiffmodell, eine verbesserte Version von GLM-5 mit erweiterten agentischen Ingenieursfähigkeiten für komplexe Systementwicklung und langfristige Aufgaben.",
- "GLM-5.description": "GLM-5 ist Zhipus Flaggschiffmodell der nächsten Generation, speziell entwickelt für agentenbasierte Ingenieursaufgaben. Es bietet zuverlässige Produktivität in komplexen Systemingenieurprojekten und langfristigen agentenbasierten Aufgaben. In den Bereichen Programmierung und Agentenfähigkeiten erreicht GLM-5 Spitzenleistungen unter Open-Source-Modellen.",
+ "GLM-5.description": "GLM-5 ist Zhipus nächste Generation des Flaggschiff-Foundation-Modells, das speziell für Agentic Engineering entwickelt wurde. Es liefert zuverlässige Produktivität in komplexen Systemingenieuraufgaben und langfristigen Agent-Prozessen. In den Bereichen Codierung und agentische Fähigkeiten erreicht GLM-5 Spitzenleistungen unter Open-Source-Modellen. In realen Programmierumgebungen nähert sich die Nutzungserfahrung der von Claude Opus 4.5 an. Es überzeugt besonders in komplexen Systementwicklungen und langlaufenden Agent-Aufgaben und ist damit ein ideales Foundation-Modell für vielseitige Agent-Assistenten.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) ist ein innovatives Modell für vielfältige Anwendungsbereiche und komplexe Aufgaben.",
"HY-Image-V3.0.description": "Leistungsstarke Funktionen zur Extraktion von Originalbildern und zur Detailerhaltung, die eine reichere visuelle Textur liefern und hochpräzise, gut komponierte, produktionsreife Bilder erzeugen.",
"HelloMeme.description": "HelloMeme ist ein KI-Tool zur Erstellung von Memes, GIFs oder Kurzvideos aus bereitgestellten Bildern oder Bewegungen. Es erfordert keine Zeichen- oder Programmierkenntnisse – ein Referenzbild genügt, um unterhaltsame, ansprechende und stilistisch konsistente Inhalte zu erzeugen.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter ist ein personalisiertes Charaktergenerierungsmodell ohne Feintuning, veröffentlicht von Tencent AI im Jahr 2025. Es ermöglicht hochrealistische, szenenübergreifend konsistente Charaktere. Ein einzelnes Referenzbild genügt, um den Charakter flexibel in verschiedene Stile, Aktionen und Hintergründe zu übertragen.",
"InternVL2-8B.description": "InternVL2-8B ist ein leistungsstarkes Vision-Language-Modell für multimodale Bild-Text-Verarbeitung. Es erkennt Bildinhalte präzise und generiert passende Beschreibungen oder Antworten.",
"InternVL2.5-26B.description": "InternVL2.5-26B ist ein leistungsstarkes Vision-Language-Modell für multimodale Bild-Text-Verarbeitung. Es erkennt Bildinhalte präzise und generiert passende Beschreibungen oder Antworten.",
+ "KAT-Coder-Air-V1.description": "Eine leichte Version der KAT-Coder-Serie. Speziell für Agentic Coding entwickelt und deckt Programmieraufgaben und -szenarien umfassend ab. Durch großskaliges, agentenbasiertes Reinforcement Learning ermöglicht es emergentes intelligentes Verhalten und übertrifft vergleichbare Modelle deutlich in der Codeleistung.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B ist die experimentelle RL-Innovationsversion der KAT-Coder-Serie und erreicht eine bemerkenswerte Leistung von 74,6 % im SWE-Bench-Verified-Benchmark – ein neuer Rekord für Open-Source-Modelle. Es konzentriert sich auf Agentic Coding und unterstützt derzeit ausschließlich das SWE-Agent-Gerüst, kann jedoch auch für einfache Gespräche genutzt werden.",
+ "KAT-Coder-Pro-V1.description": "Für Agentic Coding entwickelt und umfassend auf Programmieraufgaben und -szenarien ausgelegt. Durch großskaliges Reinforcement Learning entstehen intelligente Verhaltensweisen, wodurch es vergleichbare Modelle in der Codegenerierung deutlich übertrifft.",
+ "KAT-Coder-Pro-V2.description": "Das neueste Hochleistungsmodell des Kuaishou-Kwaipilot-Teams, entwickelt für komplexe Unternehmensprojekte und SaaS-Integration. Es überzeugt in codebezogenen Szenarien und ist mit verschiedenen Agent-Frameworks (Claude Code, OpenCode, KiloCode) kompatibel, unterstützt OpenClaw nativ und ist speziell für die Ästhetik von Frontend-Seiten optimiert.",
+ "Kimi-K2.5.description": "Kimi K2.5 ist das leistungsfähigste Kimi-Modell und liefert Open-Source‑SOTA in Agent-Aufgaben, Codierung und visuellem Verständnis. Es unterstützt multimodale Eingaben sowie Thinking- und Non-Thinking-Modi.",
"Kolors.description": "Kolors ist ein Text-zu-Bild-Modell, entwickelt vom Kuaishou-Kolors-Team. Mit Milliarden von Parametern trainiert, bietet es herausragende visuelle Qualität, starkes Verständnis chinesischer Semantik und präzise Textdarstellung.",
"Kwai-Kolors/Kolors.description": "Kolors ist ein großskaliges Latent-Diffusion-Text-zu-Bild-Modell des Kuaishou-Kolors-Teams. Trainiert auf Milliarden Text-Bild-Paaren, überzeugt es durch visuelle Qualität, semantische Präzision und Textdarstellung in Chinesisch und Englisch. Es bietet starkes Verständnis und Generierung chinesischer Inhalte.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) ist ein Open-Source-Modell für Softwareentwicklung. Es erreicht eine Lösungsrate von 62,4 % auf SWE-Bench Verified und belegt Platz 5 unter Open-Source-Modellen. Optimiert durch Mid-Training, SFT und RL für Codevervollständigung, Fehlerbehebung und Code-Review.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modernes kompaktes Sprachmodell mit starkem Sprachverständnis, exzellenter Argumentation und Textgenerierung.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Modell der Llama-Reihe. Es bietet nahezu 405B-Leistung zu sehr niedrigen Kosten. Basierend auf Transformer-Architektur, verbessert durch SFT und RLHF für Nützlichkeit und Sicherheit. Die instruktionstaugliche Version ist für mehrsprachige Konversation optimiert und übertrifft viele offene und geschlossene Modelle in Benchmarks. Wissensstand: Dezember 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick ist ein großes MoE-Modell mit effizienter Expertenaktivierung für starke Argumentationsleistung.",
+ "MiMo-V2-Pro.description": "MiMo‑V2‑Pro wurde speziell für hochintensive Agent-Workflows in realen Anwendungsszenarien entwickelt. Es verfügt über mehr als 1 Billion Gesamtparameter (42B aktivierte Parameter), nutzt eine innovative Hybrid-Attention-Architektur und unterstützt eine ultralange Kontextlänge von bis zu 1 Million Tokens. Basierend auf einem leistungsstarken Foundation-Modell skalieren wir kontinuierlich die Rechenressourcen für ein breites Spektrum agentischer Szenarien, erweitern den Handlungsspielraum künstlicher Intelligenz und erreichen starke Generalisierung – von Codierung bis hin zur physischen Ausführung realer Aufgaben („claw“).",
"MiniMax-Hailuo-02.description": "Das nächste Generation Videoerzeugungsmodell, MiniMax Hailuo 02, wurde offiziell veröffentlicht und unterstützt 1080P-Auflösung sowie die Erzeugung von 10-Sekunden-Videos.",
"MiniMax-Hailuo-2.3-Fast.description": "Brandneues Videoerzeugungsmodell mit umfassenden Verbesserungen in Körperbewegung, physikalischem Realismus und Befolgung von Anweisungen.",
"MiniMax-Hailuo-2.3.description": "Brandneues Videoerzeugungsmodell mit umfassenden Verbesserungen in Körperbewegung, physikalischem Realismus und Befolgung von Anweisungen.",
"MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
"MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
- "MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten mit schnellerer und effizienterer Inferenz.",
"MiniMax-M2.1-highspeed.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten, umfassend verbesserte Programmiererfahrung. Schneller und effizienter.",
"MiniMax-M2.1.description": "MiniMax-M2.1 ist das Flaggschiff unter den Open-Source-Großmodellen von MiniMax und konzentriert sich auf die Lösung komplexer Aufgaben aus der realen Welt. Seine zentralen Stärken liegen in der mehrsprachigen Programmierfähigkeit und der Fähigkeit, als Agent komplexe Aufgaben zu bewältigen.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Gleiche Leistung wie M2.5 mit schnellerer Inferenz.",
"MiniMax-M2.5.description": "MiniMax-M2.5 ist ein Flaggschiff-Open-Source-Großmodell von MiniMax, das sich auf die Lösung komplexer realer Aufgaben konzentriert. Seine Kernstärken sind mehrsprachige Programmierfähigkeiten und die Fähigkeit, komplexe Aufgaben als Agent zu lösen.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Gleiche Leistung wie M2.7 mit deutlich schnellerer Inferenz.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Beginn der Reise zur rekursiven Selbstverbesserung, erstklassige reale Ingenieursfähigkeiten.",
+ "MiniMax-M2.7.description": "Das erste selbst-evolvierende Modell mit erstklassiger Code- und Agent-Leistung (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Modell der vorherigen Generation.",
"MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 ist ein großskaliges Hybrid-Attention-Reasoning-Modell mit offenen Gewichten, 456 Milliarden Gesamtparametern und ~45,9 Milliarden aktiven Parametern pro Token. Es unterstützt nativ 1 Million Kontext und verwendet Flash Attention, um FLOPs bei der Generierung von 100.000 Tokens im Vergleich zu DeepSeek R1 um 75 % zu reduzieren. Mit einer MoE-Architektur sowie CISPO und Hybrid-Attention-RL-Training erreicht es führende Leistungen bei langem Input-Reasoning und realen Software-Engineering-Aufgaben.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 ist ein Open-Source-natives multimodales Agentenmodell, basierend auf Kimi-K2-Base, trainiert mit etwa 1,5 Billionen gemischten Bild- und Text-Tokens. Das Modell verwendet eine MoE-Architektur mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern, unterstützt ein Kontextfenster von 256K und integriert nahtlos visuelle und sprachliche Verständnisfähigkeiten.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 ist ein Next-Generation-Flaggschiffmodell für Agent Engineering und nutzt eine Mixture-of-Experts-(MoE)-Architektur mit 754B Parametern. Es verbessert die Programmierfähigkeiten erheblich, erzielt Spitzenwerte auf SWE-Bench Pro und übertrifft seinen Vorgänger deutlich bei Benchmarks wie NL2Repo und Terminal-Bench 2.0. Für langanhaltende Agent-Aufgaben konzipiert, verarbeitet es mehrdeutige Fragen mit besserem Urteilsvermögen, zerlegt komplexe Aufgaben, führt Experimente aus, analysiert Ergebnisse und optimiert kontinuierlich über hunderte Iterationen und tausende Tool-Aufrufe.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 ist Zhipus neues Flaggschiffmodell der Generation mit 355 Milliarden Gesamt- und 32 Milliarden aktiven Parametern, vollständig aktualisiert in allgemeinem Dialog, logischem Denken und Agentenfähigkeiten. GLM-4.7 verbessert Interleaved Thinking und führt Preserved Thinking sowie Turn-level Thinking ein.",
"Pro/zai-org/glm-5.description": "GLM-5 ist Zhipus nächste Generation eines großen Sprachmodells, das sich auf komplexe Systementwicklung und lang andauernde Agentenaufgaben konzentriert. Die Modellparameter wurden auf 744 Milliarden (40 Milliarden aktiv) erweitert und integrieren DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 ist für fortgeschrittenes logisches Denken und Befolgen von Anweisungen optimiert. Es nutzt MoE, um effizientes Denken im großen Maßstab zu ermöglichen.",
"Qwen3-235B.description": "Qwen3-235B-A22B ist ein MoE-Modell mit einem hybriden Denkmodus, der es Nutzern ermöglicht, nahtlos zwischen Denk- und Nicht-Denk-Modus zu wechseln. Es unterstützt Verständnis und logisches Denken in 119 Sprachen und Dialekten und verfügt über starke Tool-Calling-Fähigkeiten. Es konkurriert mit führenden Modellen wie DeepSeek R1, OpenAI o1, o3-mini, Grok 3 und Google Gemini 2.5 Pro in Benchmarks zu allgemeinen Fähigkeiten, Programmierung, Mathematik, Mehrsprachigkeit und Wissensverarbeitung.",
"Qwen3-32B.description": "Qwen3-32B ist ein dichtes Modell mit einem hybriden Denkmodus, der Nutzern erlaubt, zwischen Denk- und Nicht-Denk-Modus zu wechseln. Durch Verbesserungen in der Architektur, mehr Trainingsdaten und besseres Training erreicht es eine Leistung auf dem Niveau von Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus unterstützt Text-, Bild- und Videoeingaben. Die Leistung bei reinen Textaufgaben ist vergleichbar mit Qwen3 Max, jedoch mit besseren Ergebnissen und niedrigeren Kosten. Seine multimodalen Fähigkeiten sind deutlich verbessert gegenüber der Qwen3-VL-Serie.",
"S2V-01.description": "Das grundlegende Referenz-zu-Video-Modell der 01-Serie.",
"SenseChat-128K.description": "Basisversion V4 mit 128K Kontext, stark im Verständnis und der Generierung von Langtexten.",
"SenseChat-32K.description": "Basisversion V4 mit 32K Kontext, flexibel einsetzbar in vielen Szenarien.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweitertem Denken.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – blitzschnell und mit erweitertem Denkvermögen.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweiterten Denkfähigkeiten.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
- "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist Anthropics neuestes und leistungsfähigstes Modell für hochkomplexe Aufgaben und überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 ist Anthropics leistungsstärkstes Modell für besonders komplexe Aufgaben und überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
- "claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Erstellung von Agenten und Programmierung.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 ist Anthropics intelligentestes Modell für die Entwicklung von Agenten und Codierung.",
"claude-opus-4.5.description": "Claude Opus 4.5 ist das Flaggschiff-Modell von Anthropic, das erstklassige Intelligenz mit skalierbarer Leistung für komplexe, hochwertige Denkaufgaben kombiniert.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
"claude-opus-4.6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic, das nahezu sofortige Antworten oder erweitertes schrittweises Denken mit fein abgestimmter Kontrolle für API-Benutzer bietet.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche schrittweise Denkprozesse mit sichtbarer Herleitung erzeugen.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 bietet die beste Kombination aus Geschwindigkeit und Intelligenz.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche schrittweise Überlegungen liefern, die Benutzer sehen können. API-Benutzer können fein steuern, wie lange das Modell nachdenkt.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Next-Gen-Modell für logisches Denken mit stärkeren Fähigkeiten für komplexes Denken und Kettenlogik.",
- "deepseek-chat.description": "DeepSeek V3.2 balanciert Argumentation und Ausgabelänge für tägliche QA- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau, und es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führende Open-Source-Agentenbewertungen erzielt.",
+ "deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Coding-Fähigkeiten kombiniert. Es behält die dialogorientierten Eigenschaften des Chat-Modells und die starke Codierleistung des Coder-Modells bei – mit besserer Präferenzabstimmung. DeepSeek‑V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein tiefes Argumentationsmodell, das vor der Ausgabe eine Gedankenverkettung erzeugt, um höhere Genauigkeit zu erzielen, mit Spitzenwettbewerbsergebnissen und Argumentation vergleichbar mit Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "Der Thinking-Modus von DeepSeek V3.2 erzeugt vor der finalen Antwort eine Chain-of-Thought, um die Genauigkeit zu erhöhen.",
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
"ernie-x1.1.description": "ERNIE X1.1 ist ein Vorschau-Denkmodell für Evaluierung und Tests.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom ByteDance Seed-Team, unterstützt Multi-Bild-Bearbeitung und Komposition. Es bietet verbesserte Konsistenz des Subjekts, präzise Befolgung von Anweisungen, Verständnis räumlicher Logik, ästhetischen Ausdruck, Posterlayout und Logodesign mit hochpräziser Text-Bild-Wiedergabe.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochkontrollierbare, qualitativ hochwertige Bildgenerierung aus Aufforderungen.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed und unterstützt Text- sowie Bildeingaben mit hochgradig steuerbarer, hochwertiger Bildgenerierung. Es erzeugt Bilder auf Basis von Texteingaben.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
- "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell vom Qwen-Team, das semantische und Erscheinungsbearbeitungen, präzise chinesische/englische Textbearbeitung, Stilübertragung, Rotation und mehr unterstützt.",
- "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell vom Qwen-Team mit starker chinesischer Textwiedergabe und vielfältigen visuellen Stilen.",
+ "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und optische Anpassungen unterstützt, chinesischen und englischen Text präzise bearbeiten kann und hochwertige Bearbeitungen wie Stiltransfer und Objektrotation ermöglicht.",
+ "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textdarstellung und vielfältigen visuellen Stilen.",
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
- "flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
+ "flux-dev.description": "Open-Source‑Bildgenerierungsmodell für Forschung und Entwicklung, effizient optimiert für nichtkommerzielle Innovationsforschung.",
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
"flux-kontext-pro.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
- "flux-merged.description": "FLUX.1 [merged] kombiniert die tiefen Features, die in \"DEV\" erforscht wurden, mit den Hochgeschwindigkeitsvorteilen von \"Schnell\", erweitert die Leistungsgrenzen und erweitert die Anwendungsbereiche.",
"flux-pro-1.1-ultra.description": "Bildgenerierung in Ultra-HD mit 4MP-Ausgabe, erzeugt gestochen scharfe Bilder in 10 Sekunden.",
"flux-pro-1.1.description": "Verbessertes professionelles Bildgenerierungsmodell mit exzellenter Bildqualität und präziser Prompt-Umsetzung.",
"flux-pro.description": "Hochwertiges kommerzielles Bildgenerierungsmodell mit unübertroffener Bildqualität und vielfältigen Ausgaben.",
- "flux-schnell.description": "FLUX.1 [schnell] ist das fortschrittlichste Open-Source-Modell mit wenigen Schritten, übertrifft vergleichbare Konkurrenten und sogar starke nicht-destillierte Modelle wie Midjourney v6.0 und DALL-E 3 (HD). Feinabgestimmt zur Erhaltung der Vielfalt aus dem Pretraining, verbessert es visuelle Qualität, Anweisungsbefolgung, Größen-/Seitenverhältnisvariation, Schriftverarbeitung und Ausgabediversität erheblich.",
"flux.1-schnell.description": "FLUX.1-schnell ist ein leistungsstarkes Bildgenerierungsmodell für schnelle Ausgaben in mehreren Stilen.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile, anpassbare Leistung für komplexe Aufgaben.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) bietet starke multimodale Unterstützung für komplexe Aufgaben.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
"gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist – es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell, das auch multimodale Dialoge unterstützt.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodalen Chat.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt zudem multimodale Chats.",
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Denkunterstützung, konversationaler Bildgenerierung und -bearbeitung.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Pro-Level-Bildqualität mit Flash-Geschwindigkeit und unterstützt multimodalen Chat.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Thinking-Unterstützung sowie dialogorientierter Bildgenerierung und -bearbeitung.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview ist Googles kosteneffizientestes multimodales Modell, optimiert für hochvolumige agentische Aufgaben, Übersetzung und Datenverarbeitung.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbessert Gemini 3 Pro mit erweiterten Fähigkeiten für logisches Denken und unterstützt mittleres Denklevel.",
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Unser leistungsstärkstes und fortschrittlichstes Modell, entwickelt für komplexe Unternehmensaufgaben mit herausragender Leistung.",
"jamba-mini.description": "Das effizienteste Modell seiner Klasse – vereint Geschwindigkeit und Qualität bei geringem Ressourcenverbrauch.",
"jina-deepsearch-v1.description": "DeepSearch kombiniert Websuche, Leseverständnis und logisches Denken für gründliche Recherchen. Stellen Sie sich einen Agenten vor, der Ihre Rechercheaufgabe übernimmt, breit gefächerte Suchen in mehreren Iterationen durchführt und erst dann eine Antwort liefert. Der Prozess umfasst kontinuierliche Recherche, Schlussfolgerungen und Problemlösungen aus verschiedenen Blickwinkeln – grundlegend anders als herkömmliche LLMs, die auf vortrainierten Daten basieren, oder klassische RAG-Systeme mit einmaliger Oberflächensuche.",
- "k2p5.description": "Kimi K2.5 ist Kimi's vielseitigstes Modell bis heute, mit einer nativen multimodalen Architektur, die sowohl visuelle als auch textuelle Eingaben unterstützt, 'denkenden' und 'nicht-denkenden' Modi sowie sowohl konversationelle als auch agentenbasierte Aufgaben.",
"kimi-k2-0711-preview.description": "kimi-k2 ist ein MoE-Grundlagenmodell mit starken Fähigkeiten in den Bereichen Programmierung und Agentenfunktionen (1T Gesamtparameter, 32B aktiv) und übertrifft andere gängige Open-Source-Modelle in den Bereichen logisches Denken, Programmierung, Mathematik und Agenten-Benchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview bietet ein 256k-Kontextfenster, verbesserte agentenbasierte Programmierung, höhere Codequalität im Frontend und ein besseres Kontextverständnis.",
"kimi-k2-instruct.description": "Kimi K2 Instruct ist das offizielle Modell von Kimi für logisches Denken mit erweitertem Kontext für Code, Fragenbeantwortung und mehr.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ ist ein Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen bietet es überlegene Denk- und Schlussfolgerungsfähigkeiten, die die Leistung bei nachgelagerten Aufgaben deutlich verbessern – insbesondere bei schwierigen Problemen. QwQ-32B ist ein mittelgroßes Modell, das mit führenden Schlussfolgerungsmodellen wie DeepSeek-R1 und o1-mini mithalten kann.",
"qwq_32b.description": "Mittelgroßes Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen steigern QwQs Denk- und Schlussfolgerungsfähigkeiten die Leistung bei nachgelagerten Aufgaben deutlich – insbesondere bei schwierigen Problemen.",
"r1-1776.description": "R1-1776 ist eine nachtrainierte Variante von DeepSeek R1, die darauf ausgelegt ist, unzensierte, objektive und faktenbasierte Informationen bereitzustellen.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro von ByteDance unterstützt Text-zu-Video, Bild-zu-Video (erstes Bild, erstes+letztes Bild) und Audioerzeugung synchronisiert mit visuellen Inhalten.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite von BytePlus bietet webabfrage-unterstützte Erzeugung für Echtzeitinformationen, verbesserte Interpretation komplexer Aufforderungen und verbesserte Referenzkonsistenz für professionelle visuelle Erstellung.",
"solar-mini-ja.description": "Solar Mini (Ja) erweitert Solar Mini mit einem Fokus auf Japanisch und behält dabei eine effiziente und starke Leistung in Englisch und Koreanisch bei.",
"solar-mini.description": "Solar Mini ist ein kompaktes LLM, das GPT-3.5 übertrifft. Es bietet starke mehrsprachige Fähigkeiten in Englisch und Koreanisch und ist eine effiziente Lösung mit kleinem Ressourcenbedarf.",
"solar-pro.description": "Solar Pro ist ein hochintelligentes LLM von Upstage, das auf Befolgen von Anweisungen auf einer einzelnen GPU ausgelegt ist und IFEval-Werte über 80 erreicht. Derzeit wird Englisch unterstützt; die vollständige Veröffentlichung mit erweitertem Sprachsupport und längeren Kontexten war für November 2024 geplant.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 ist unser neues leistungsstarkes Medienerzeugungsmodell, das Videos mit synchronisiertem Audio erzeugt. Es kann reich detaillierte, dynamische Clips aus natürlicher Sprache oder Bildern erstellen.",
"spark-x.description": "X2-Fähigkeiten-Übersicht: 1. Führt dynamische Anpassung des Denkmodus ein, gesteuert über das `thinking`-Feld. 2. Erweiterte Kontextlänge: 64K Eingabetokens und 128K Ausgabetokens. 3. Unterstützt Funktionaufruf-Funktionalität.",
"stable-diffusion-3-medium.description": "Das neueste Text-zu-Bild-Modell von Stability AI. Diese Version verbessert die Bildqualität, das Textverständnis und die Stilvielfalt erheblich, interpretiert komplexe Spracheingaben präziser und erzeugt genauere, vielfältigere Bilder.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo nutzt Adversarial Diffusion Distillation (ADD) auf stable-diffusion-3.5-large für höhere Geschwindigkeit.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large ist ein MMDiT Text-zu-Bild-Modell mit 800 Millionen Parametern, das hervorragende Qualität und präzise Prompt-Umsetzung bietet. Es unterstützt 1-Megapixel-Bilder und läuft effizient auf Consumer-Hardware.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 basiert auf dem v1.2-Checkpoint und wurde 595.000 Schritte lang auf „laion-aesthetics v2 5+“ bei 512x512 Auflösung feinjustiert. Die Textkonditionierung wurde um 10 % reduziert, um das classifier-free guidance sampling zu verbessern.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo konzentriert sich auf hochwertige Bildgenerierung mit starker Detaildarstellung und hoher Szenentreue.",
"stable-diffusion-xl-base-1.0.description": "Ein Open-Source-Text-zu-Bild-Modell von Stability AI mit branchenführender kreativer Bildgenerierung. Es versteht Anweisungen sehr gut und unterstützt umgekehrte Prompt-Definitionen für präzise Generierung.",
- "stable-diffusion-xl.description": "stable-diffusion-xl bringt große Verbesserungen gegenüber v1.5 und erreicht Ergebnisse auf dem Niveau der besten offenen Text-zu-Bild-Modelle. Zu den Verbesserungen gehören ein dreimal größerer UNet-Backbone, ein Verfeinerungsmodul für bessere Bildqualität und effizientere Trainingstechniken.",
"step-1-128k.description": "Ausgewogenes Verhältnis von Leistung und Kosten für allgemeine Anwendungsfälle.",
"step-1-256k.description": "Verarbeitung extralanger Kontexte – ideal für die Analyse langer Dokumente.",
"step-1-32k.description": "Unterstützt mittellange Konversationen für vielfältige Szenarien.",
diff --git a/locales/de-DE/plugin.json b/locales/de-DE/plugin.json
index 34cbb0084f..b6e651e22e 100644
--- a/locales/de-DE/plugin.json
+++ b/locales/de-DE/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} Parameter insgesamt",
"arguments.title": "Argumente",
"builtins.lobe-activator.apiName.activateTools": "Werkzeuge aktivieren",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} nicht gefunden",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Verfügbare Modelle abrufen",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Verfügbare Skills abrufen",
"builtins.lobe-agent-builder.apiName.getConfig": "Konfiguration abrufen",
diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json
index 502acd69b1..43db32c413 100644
--- a/locales/de-DE/providers.json
+++ b/locales/de-DE/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
"kimicodingplan.description": "Kimi Code von Moonshot AI bietet Zugriff auf Kimi-Modelle, darunter K2.5, für Coding-Aufgaben.",
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
- "lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung mit Credits, die an Modell-Token gebunden sind.",
"longcat.description": "LongCat ist eine Reihe von generativen KI-Großmodellen, die unabhängig von Meituan entwickelt wurden. Sie sind darauf ausgelegt, die Produktivität innerhalb des Unternehmens zu steigern und innovative Anwendungen durch eine effiziente Rechenarchitektur und starke multimodale Fähigkeiten zu ermöglichen.",
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
"minimaxcodingplan.description": "Der MiniMax Token Plan bietet Zugriff auf MiniMax-Modelle, darunter M2.7, für Coding-Aufgaben im Rahmen eines Festpreis-Abonnements.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark bietet leistungsstarke mehrsprachige KI für verschiedene Branchen – von Smart Hardware über Gesundheitswesen bis hin zu Finanzen.",
"stepfun.description": "Stepfun-Modelle bieten führende multimodale und komplexe Denkfähigkeiten – mit Langkontextverständnis und leistungsstarker autonomer Suchorchestrierung.",
"straico.description": "Straico vereinfacht die Integration von KI, indem es einen einheitlichen Arbeitsbereich bietet, der führende text-, bild- und audiogenerative KI-Modelle zusammenführt. So erhalten Marketer, Unternehmer und Enthusiasten nahtlosen Zugang zu vielfältigen KI-Tools.",
+ "streamlake.description": "StreamLake ist eine Unternehmensplattform für Modellservices und Cloud-Computing im Bereich KI. Sie vereint leistungsstarke Modellinferenz, kostengünstige Modellanpassung und vollständig verwaltete Services, sodass Unternehmen sich auf die Entwicklung innovativer KI-Anwendungen konzentrieren können, ohne sich um die Komplexität und die Kosten der zugrunde liegenden Computing‑Ressourcen sorgen zu müssen.",
"taichu.description": "Ein multimodales Next-Gen-Modell von CASIA und dem Wuhan Institute of AI – unterstützt mehrstufige Q&A, Schreiben, Bildgenerierung, 3D-Verständnis und Signalanalyse mit starker Kognition und Kreativität.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power bietet End-to-End-Wissens-Q&A für Unternehmen und Entwickler – mit modularen Diensten wie Dokumentenparsing, Chunking, Embeddings und mehrstufigem Rewriting für individuelle KI-Lösungen.",
"togetherai.description": "Together AI liefert führende Leistung mit innovativen Modellen, breiter Anpassbarkeit, schneller Skalierung und einfacher Bereitstellung für Unternehmensanforderungen.",
diff --git a/locales/de-DE/setting.json b/locales/de-DE/setting.json
index ffac3e1e3e..10bcd70b46 100644
--- a/locales/de-DE/setting.json
+++ b/locales/de-DE/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Systemwerkzeuge",
"settingSystemTools.tools.ag.desc": "The Silver Searcher – schnelles Tool zur Codesuche",
"settingSystemTools.tools.agentBrowser.desc": "Agent-Browser - headless Browser-Automatisierungs-CLI für KI-Agenten",
+ "settingSystemTools.tools.bun.desc": "Bun – schnelle JavaScript-Laufzeitumgebung und Paketmanager",
+ "settingSystemTools.tools.bunx.desc": "bunx – Bun-Paketausführer zum Ausführen von npm-Paketen",
"settingSystemTools.tools.fd.desc": "fd – schnelle und benutzerfreundliche Alternative zu find",
"settingSystemTools.tools.find.desc": "Unix find – Standardbefehl zur Dateisuche",
"settingSystemTools.tools.grep.desc": "GNU grep – Standardwerkzeug zur Textsuche",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI – LobeHub-Dienste verwalten und verbinden",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight-Suche (schnelle indizierte Suche)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript-Laufzeitumgebung für JS/TS",
"settingSystemTools.tools.npm.desc": "npm - Node.js-Paketmanager für die Installation von Abhängigkeiten",
+ "settingSystemTools.tools.pnpm.desc": "pnpm – schneller, platzsparender Paketmanager",
"settingSystemTools.tools.python.desc": "Python - Laufzeitumgebung für die Programmiersprache",
"settingSystemTools.tools.rg.desc": "ripgrep – extrem schnelles Tool zur Textsuche",
+ "settingSystemTools.tools.uv.desc": "uv – extrem schneller Python-Paketmanager",
"settingTTS.openai.sttModel": "OpenAI Sprach-zu-Text-Modell",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI Text-zu-Sprache-Modell",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modell",
"systemAgent.inputCompletion.modelDesc": "Modell, das für Eingabevorschläge zur automatischen Vervollständigung verwendet wird (wie GitHub Copilot-Geistertext)",
"systemAgent.inputCompletion.title": "Agent für automatische Eingabevervollständigung",
+ "systemAgent.promptRewrite.label": "Modell",
+ "systemAgent.promptRewrite.modelDesc": "Geben Sie das Modell an, das zum Umschreiben von Prompts verwendet wird",
+ "systemAgent.promptRewrite.title": "Prompt-Umschreibagent",
"systemAgent.queryRewrite.label": "Modell",
"systemAgent.queryRewrite.modelDesc": "Modell zur Optimierung von Benutzeranfragen",
"systemAgent.queryRewrite.title": "Agent zur Umschreibung von Bibliotheksanfragen",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Laden Sie eine lokale .zip- oder .skill-Datei hoch",
"tab.usage": "Nutzungsstatistik",
"tools.add": "Fähigkeit hinzufügen",
+ "tools.builtins.find-skills.description": "Hilft Nutzern, Agenten‑Fähigkeiten zu entdecken und zu installieren, wenn sie fragen „Wie mache ich X?“, „Finde eine Fähigkeit für X“ oder Funktionen erweitern möchten",
+ "tools.builtins.find-skills.title": "Fähigkeiten finden",
"tools.builtins.groupName": "Integriert",
"tools.builtins.install": "Installieren",
"tools.builtins.installed": "Installiert",
+ "tools.builtins.lobe-activator.description": "Werkzeuge und Fähigkeiten entdecken und aktivieren",
+ "tools.builtins.lobe-activator.title": "Tools & Skills Aktivator",
+ "tools.builtins.lobe-agent-browser.description": "Browser‑Automatisierungs‑CLI für KI-Agenten. Nutzen Sie sie bei Aufgaben mit Webseiten- oder Electron‑Interaktion wie Navigation, Formularausfüllung, Klicken, Screenshot-Erfassung, Datenscraping, Login‑Abläufen und End‑to‑End‑App‑Tests.",
+ "tools.builtins.lobe-agent-browser.title": "Agent Browser",
+ "tools.builtins.lobe-agent-builder.description": "Metadaten, Modelleinstellungen, Plugins und den System-Prompt des Agents konfigurieren",
+ "tools.builtins.lobe-agent-builder.title": "Agent Builder",
+ "tools.builtins.lobe-agent-documents.description": "Agentenbezogene Dokumente verwalten (auflisten, erstellen, lesen, bearbeiten, löschen, umbenennen) und Lade‑Regeln steuern",
+ "tools.builtins.lobe-agent-documents.title": "Dokumente",
+ "tools.builtins.lobe-agent-management.description": "KI‑Agenten erstellen, verwalten und orchestrieren",
+ "tools.builtins.lobe-agent-management.title": "Agentenverwaltung",
"tools.builtins.lobe-artifacts.description": "Interaktive UI-Komponenten, Datenvisualisierungen, Diagramme, SVG-Grafiken und Webanwendungen generieren und in Echtzeit anzeigen. Erstellen Sie reichhaltige visuelle Inhalte, mit denen Nutzer direkt interagieren können.",
"tools.builtins.lobe-artifacts.readme": "Erstellen und live-vorschauen interaktive UI-Komponenten, Datenvisualisierungen, Diagramme, SVG-Grafiken und Webanwendungen. Erzeugen Sie reichhaltige visuelle Inhalte, mit denen Nutzer direkt interagieren können.",
"tools.builtins.lobe-artifacts.title": "Artefakte",
+ "tools.builtins.lobe-brief.description": "Fortschritte melden, Ergebnisse liefern und Benutzerentscheidungen einholen",
+ "tools.builtins.lobe-brief.title": "Brief Tools",
"tools.builtins.lobe-calculator.description": "Mathematische Berechnungen durchführen, Gleichungen lösen und mit symbolischen Ausdrücken arbeiten",
"tools.builtins.lobe-calculator.readme": "Erweiterter mathematischer Rechner, der grundlegende Arithmetik, algebraische Gleichungen, Kalkulationsoperationen und symbolische Mathematik unterstützt. Beinhaltet Basisumrechnung, Gleichungslösung, Differentiation, Integration und mehr.",
"tools.builtins.lobe-calculator.title": "Rechner",
"tools.builtins.lobe-cloud-sandbox.description": "Python-, JavaScript- und TypeScript-Code in einer isolierten Cloud-Umgebung ausführen. Shell-Befehle ausführen, Dateien verwalten, Inhalte mit Regex durchsuchen und Ergebnisse sicher exportieren.",
"tools.builtins.lobe-cloud-sandbox.readme": "Führen Sie Python-, JavaScript- und TypeScript-Code in einer isolierten Cloud-Umgebung aus. Führen Sie Shell-Befehle aus, verwalten Sie Dateien, durchsuchen Sie Inhalte mit regulären Ausdrücken und exportieren Sie Ergebnisse sicher.",
"tools.builtins.lobe-cloud-sandbox.title": "Cloud-Sandbox",
+ "tools.builtins.lobe-creds.description": "Benutzeranmeldedaten für Authentifizierung, Umgebungsvariablen und API‑Verifikation verwalten – API‑Schlüssel, OAuth‑Tokens und Secrets für Integrationen Dritter handhaben.",
+ "tools.builtins.lobe-creds.title": "Zugangsdaten",
+ "tools.builtins.lobe-cron.description": "Geplante Aufgaben verwalten, die automatisch zu bestimmten Zeiten ausgeführt werden. Wiederkehrende Aufgaben für Ihre Agenten erstellen, aktualisieren, aktivieren/deaktivieren und überwachen.",
+ "tools.builtins.lobe-cron.title": "Geplante Aufgaben",
+ "tools.builtins.lobe-group-agent-builder.description": "Metadaten, Mitglieder und gemeinsame Inhalte für Multi‑Agenten‑Gruppen konfigurieren",
+ "tools.builtins.lobe-group-agent-builder.title": "Gruppen‑Agent‑Builder",
+ "tools.builtins.lobe-group-management.description": "Unterhaltungen von Multi‑Agenten‑Gruppen orchestrieren und verwalten",
+ "tools.builtins.lobe-group-management.title": "Gruppenverwaltung",
"tools.builtins.lobe-gtd.description": "Ziele planen und Fortschritte mit der GTD-Methode verfolgen. Strategische Pläne erstellen, Aufgabenlisten mit Statusverfolgung verwalten und lang laufende asynchrone Aufgaben ausführen.",
"tools.builtins.lobe-gtd.readme": "Planen Sie Ziele und verfolgen Sie Fortschritte mit der GTD-Methodik. Erstellen Sie strategische Pläne, verwalten Sie Aufgabenlisten mit Statusverfolgung und führen Sie lang laufende asynchrone Aufgaben aus.",
"tools.builtins.lobe-gtd.title": "GTD-Werkzeuge",
+ "tools.builtins.lobe-knowledge-base.description": "Hochgeladene Dokumente und Domainwissen per semantischer Vektorsuche durchsuchen – für persistente, wiederverwendbare Referenzen",
+ "tools.builtins.lobe-knowledge-base.title": "Wissensdatenbank",
"tools.builtins.lobe-local-system.description": "Zugriff auf Ihr lokales Dateisystem auf dem Desktop. Dateien lesen, schreiben, durchsuchen und organisieren. Shell-Befehle mit Unterstützung für Hintergrundaufgaben ausführen und Inhalte mit Regex-Mustern durchsuchen.",
"tools.builtins.lobe-local-system.readme": "Greifen Sie auf Ihr lokales Dateisystem auf dem Desktop zu. Lesen, schreiben, durchsuchen und organisieren Sie Dateien. Führen Sie Shell-Befehle mit Unterstützung für Hintergrundaufgaben aus und durchsuchen Sie Inhalte mit regulären Ausdrücken.",
"tools.builtins.lobe-local-system.title": "Lokales System",
+ "tools.builtins.lobe-message.description": "Nachrichten über mehrere Messaging‑Plattformen hinweg senden, lesen, bearbeiten und verwalten – über eine einheitliche Schnittstelle",
+ "tools.builtins.lobe-message.readme": "Plattformübergreifendes Messaging‑Tool mit Unterstützung für Discord, Telegram, Slack, Google Chat und IRC. Bietet einheitliche APIs für Nachrichtenoperationen, Reaktionen, Pins, Threads, Kanalverwaltung und plattformspezifische Funktionen wie Umfragen.",
+ "tools.builtins.lobe-message.title": "Nachricht",
"tools.builtins.lobe-notebook.description": "Erstellen und verwalten Sie persistente Dokumente innerhalb von Konversationsthemen. Notizen, Berichte, Artikel und Markdown-Inhalte speichern, die über Sitzungen hinweg zugänglich bleiben.",
"tools.builtins.lobe-notebook.readme": "Erstellen und verwalten Sie persistente Dokumente innerhalb von Konversationsthemen. Speichern Sie Notizen, Berichte, Artikel und Markdown-Inhalte, die über Sitzungen hinweg zugänglich bleiben.",
"tools.builtins.lobe-notebook.title": "Notizbuch",
+ "tools.builtins.lobe-page-agent.description": "Knoten in XML‑strukturierten Dokumenten erstellen, lesen, aktualisieren und löschen",
+ "tools.builtins.lobe-page-agent.readme": "Strukturierte Dokumente mit präziser Kontrolle auf Knotenebene erstellen und bearbeiten. Aus Markdown initialisieren, Batch‑Operationen durchführen und Suchen‑und‑Ersetzen über Dokumente hinweg anwenden.",
+ "tools.builtins.lobe-page-agent.title": "Dokument",
+ "tools.builtins.lobe-remote-device.description": "Remote‑Desktop‑Geräteverbindungen entdecken und verwalten",
+ "tools.builtins.lobe-remote-device.readme": "Verbindungen zu Ihren Desktop‑Geräten verwalten. Online‑Geräte auflisten, ein Gerät für Remote‑Operationen aktivieren und den Verbindungsstatus prüfen.",
+ "tools.builtins.lobe-remote-device.title": "Remote‑Gerät",
+ "tools.builtins.lobe-skill-store.description": "Agenten‑Fähigkeiten aus dem LobeHub‑Marktplatz durchsuchen und installieren. Nutzen Sie dies, wenn Sie Funktionen erweitern oder eine bestimmte Fähigkeit installieren möchten.",
+ "tools.builtins.lobe-skill-store.title": "Fähigkeiten‑Store",
+ "tools.builtins.lobe-skills.description": "Wiederverwendbare Fähigkeitenpakete aktivieren und nutzen",
+ "tools.builtins.lobe-skills.title": "Fähigkeiten",
+ "tools.builtins.lobe-task.description": "Aufgaben mit Abhängigkeiten und Review‑Konfiguration erstellen, auflisten, bearbeiten und löschen",
+ "tools.builtins.lobe-task.title": "Aufgabentools",
+ "tools.builtins.lobe-topic-reference.description": "Kontext aus referenzierten Themenunterhaltungen abrufen",
+ "tools.builtins.lobe-topic-reference.title": "Themenreferenz",
+ "tools.builtins.lobe-user-interaction.description": "Benutzern über UI‑Interaktionen Fragen stellen und deren Ergebnisverläufe beobachten",
+ "tools.builtins.lobe-user-interaction.title": "Benutzerinteraktion",
"tools.builtins.lobe-user-memory.description": "Erstellen Sie eine personalisierte Wissensdatenbank über sich selbst. Präferenzen merken, Aktivitäten und Erfahrungen verfolgen, Identitätsinformationen speichern und relevanten Kontext in zukünftigen Gesprächen abrufen.",
"tools.builtins.lobe-user-memory.readme": "Erstellen Sie eine personalisierte Wissensdatenbank über sich selbst. Merken Sie sich Vorlieben, verfolgen Sie Aktivitäten und Erfahrungen, speichern Sie Identitätsinformationen und erinnern Sie sich an relevante Kontexte in zukünftigen Gesprächen.",
"tools.builtins.lobe-user-memory.title": "Gedächtnis",
+ "tools.builtins.lobe-web-browsing.description": "Web durchsuchen, um aktuelle Informationen zu finden, und Webseiten crawlen, um Inhalte zu extrahieren. Unterstützt mehrere Suchmaschinen, Kategorien und Zeiträume.",
+ "tools.builtins.lobe-web-browsing.readme": "Web nach aktuellen Informationen durchsuchen und Webseiten crawlen, um Inhalte zu extrahieren. Unterstützt mehrere Suchmaschinen, Kategorien und Zeiträume für umfassende Recherche.",
+ "tools.builtins.lobe-web-browsing.title": "Web‑Browsing",
+ "tools.builtins.lobe-web-onboarding.description": "Den Web‑Onboarding‑Prozess mit einer kontrollierten Agenten‑Laufzeit steuern",
+ "tools.builtins.lobe-web-onboarding.title": "Web‑Onboarding",
+ "tools.builtins.lobehub.description": "Die LobeHub‑Plattform per CLI verwalten – Wissensdatenbanken, Speicher, Agenten, Dateien, Suche, Generierung und mehr.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Nicht installiert",
+ "tools.builtins.task.description": "Aufgabenverwaltung und ‑ausführung – Aufgaben per CLI erstellen, verfolgen, überprüfen und abschließen.",
+ "tools.builtins.task.title": "Aufgabe",
"tools.builtins.uninstall": "Deinstallieren",
"tools.builtins.uninstallConfirm.desc": "Möchten Sie {{name}} wirklich deinstallieren? Diese Fähigkeit wird vom aktuellen Agenten entfernt.",
"tools.builtins.uninstallConfirm.title": "{{name}} deinstallieren",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "{{name}} trennen?",
"tools.lobehubSkill.disconnected": "Getrennt",
"tools.lobehubSkill.error": "Fehler",
+ "tools.lobehubSkill.providers.github.description": "GitHub ist eine Plattform für Versionskontrolle und Zusammenarbeit, die es Entwicklern ermöglicht, Code-Repositories zu hosten, zu prüfen und zu verwalten.",
+ "tools.lobehubSkill.providers.github.readme": "Mit GitHub verbinden, um auf Ihre Repositories zuzugreifen, Issues zu erstellen und zu verwalten, Pull Requests zu prüfen und an Code zusammenzuarbeiten – alles in natürlicher Sprache mit Ihrem KI‑Assistenten.",
"tools.lobehubSkill.providers.linear.description": "Linear ist ein modernes Tool zur Aufgabenverfolgung und Projektverwaltung, das für leistungsstarke Teams entwickelt wurde, um bessere Software schneller zu entwickeln.",
"tools.lobehubSkill.providers.linear.readme": "Nutzen Sie die Funktionen von Linear direkt in Ihrem KI-Assistenten. Issues erstellen und aktualisieren, Sprints verwalten, Projektfortschritte verfolgen und Ihren Entwicklungsworkflow per Konversation optimieren.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Kalender ist ein integriertes Planungstool in Microsoft Outlook, mit dem Nutzer Termine erstellen, Meetings organisieren und ihre Zeit effektiv verwalten können.",
"tools.lobehubSkill.providers.microsoft.readme": "Integrieren Sie Outlook Kalender, um Ihre Termine nahtlos anzuzeigen, zu erstellen und zu verwalten. Meetings planen, Verfügbarkeiten prüfen, Erinnerungen setzen und Ihre Zeit per natürlicher Sprache koordinieren.",
"tools.lobehubSkill.providers.twitter.description": "X (ehemals Twitter) ist eine Social-Media-Plattform für Echtzeit-Updates, Nachrichten und Interaktion mit Ihrem Publikum über Beiträge, Antworten und Direktnachrichten.",
"tools.lobehubSkill.providers.twitter.readme": "Verbinden Sie sich mit X (Twitter), um Tweets zu posten, Ihre Timeline zu verwalten und mit Ihrem Publikum zu interagieren. Inhalte erstellen, Beiträge planen, Erwähnungen überwachen und Ihre Social-Media-Präsenz per Konversation ausbauen.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel ist eine Cloud‑Plattform für Frontend‑Entwickler und bietet Hosting sowie serverlose Funktionen, um Webanwendungen mühelos bereitzustellen.",
+ "tools.lobehubSkill.providers.vercel.readme": "Mit Vercel verbinden, um Bereitstellungen zu verwalten, Projektstatus zu überwachen und Ihre Infrastruktur zu steuern. Anwendungen deployen, Build‑Logs prüfen, Umgebungsvariablen verwalten und Projekte per Konversations‑KI skalieren.",
"tools.notInstalled": "Nicht installiert",
"tools.notInstalledWarning": "Diese Fähigkeit ist derzeit nicht installiert, was die Funktionalität des Agenten beeinträchtigen kann.",
"tools.plugins.enabled": "Aktiviert: {{num}}",
diff --git a/locales/de-DE/subscription.json b/locales/de-DE/subscription.json
index b80eb235ae..9148ccc18f 100644
--- a/locales/de-DE/subscription.json
+++ b/locales/de-DE/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Upgrade auf",
"credits.topUp.upgradeSuffix": "und spare ${{savings}}",
"credits.topUp.validityInfo": "{{months}} Monate gültig",
+ "crossPlatform.desc": "Dieses Abonnement wurde über die mobile App erworben und kann hier nicht geändert werden. Bitte verwalten Sie Ihr Abonnement auf Ihrem mobilen Gerät.",
+ "crossPlatform.manageOnMobile": "Auf mobilem Gerät verwalten",
+ "crossPlatform.title": "Plattformübergreifendes Abonnement",
"currentPlan.cancelAlert": "Das Abonnement wird nach dem {{canceledAt}} gekündigt. Du kannst es bis dahin unter „Abonnement verwalten“ wiederherstellen.",
"currentPlan.downgradeAlert": "Wird nach dem {{downgradedAt}} auf {{plan}} herabgestuft.",
"currentPlan.management": "Abonnement verwalten",
diff --git a/locales/de-DE/video.json b/locales/de-DE/video.json
index f088b2ee12..cec4b0d111 100644
--- a/locales/de-DE/video.json
+++ b/locales/de-DE/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Startbild",
"config.prompt.placeholder": "Beschreiben Sie das Video, das Sie erstellen möchten",
"config.prompt.placeholderWithRef": "Beschreiben Sie die Szene, die Sie mit dem Bild erstellen möchten",
+ "config.promptExtend.label": "Prompt-Erweiterung",
"config.referenceImage.label": "Referenzbild",
"config.resolution.label": "Auflösung",
"config.seed.label": "Seed",
"config.seed.random": "Zufällig",
"config.size.label": "Größe",
+ "config.watermark.label": "Wasserzeichen",
+ "config.webSearch.label": "Websuche",
"generation.actions.copyError": "Fehlermeldung kopieren",
"generation.actions.errorCopied": "Fehlermeldung in die Zwischenablage kopiert",
"generation.actions.errorCopyFailed": "Fehlermeldung konnte nicht kopiert werden",
diff --git a/locales/en-US/agent.json b/locales/en-US/agent.json
index a0157348a4..1b15cc36b4 100644
--- a/locales/en-US/agent.json
+++ b/locales/en-US/agent.json
@@ -77,6 +77,8 @@
"channel.publicKeyPlaceholder": "Required for interaction verification",
"channel.qq.appIdHint": "Your QQ Bot App ID from QQ Open Platform",
"channel.qq.description": "Connect this assistant to QQ for group chats and direct messages.",
+ "channel.qq.webhookMigrationDesc": "WebSocket mode provides real-time event delivery and automatic reconnection without needing a callback URL. To migrate, create a new bot on QQ Open Platform without configuring a callback URL, then switch the Connection Mode to WebSocket in Advanced Settings.",
+ "channel.qq.webhookMigrationTitle": "Consider migrating to WebSocket mode",
"channel.removeChannel": "Remove Channel",
"channel.removeFailed": "Failed to remove channel",
"channel.removed": "Channel removed",
diff --git a/locales/en-US/chat.json b/locales/en-US/chat.json
index 79a51015dc..e6baf86be0 100644
--- a/locales/en-US/chat.json
+++ b/locales/en-US/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Group deleted successfully",
"confirmRemoveSessionItemAlert": "You are about to delete this agent. Once deleted, it cannot be retrieved. Please confirm your action.",
"confirmRemoveSessionSuccess": "Agent removed successfully",
+ "createModal.createBlank": "Create Blank",
+ "createModal.groupPlaceholder": "Describe what this group should do...",
+ "createModal.groupTitle": "What should your group do?",
+ "createModal.placeholder": "Describe what your agent should do...",
+ "createModal.title": "What should your agent do?",
"defaultAgent": "Default Agent",
"defaultGroupChat": "Group",
"defaultList": "Default List",
@@ -129,7 +134,7 @@
"input.addUser": "Add a user message",
"input.disclaimer": "Agents can make mistakes. Use your judgment for critical info.",
"input.errorMsg": "Send failed: {{errorMsg}}. Retry, or send again later.",
- "input.more": "more",
+ "input.more": "More",
"input.send": "Send",
"input.sendWithCmdEnter": "Press to send",
"input.sendWithEnter": "Press to send",
@@ -229,7 +234,7 @@
"operation.contextCompression": "Context too long, compressing history...",
"operation.execAgentRuntime": "Preparing response",
"operation.execClientTask": "Executing task",
- "operation.execServerAgentRuntime": "Preparing response (switching tasks or closing the page won't stop)",
+ "operation.execServerAgentRuntime": "Running… You can switch tasks or close the page — the task will keep going.",
"operation.sendMessage": "Sending message",
"owner": "Group owner",
"pageCopilot.title": "Page Agent",
@@ -383,6 +388,7 @@
"task.status.fetchingDetails": "Fetching details...",
"task.status.initializing": "Initializing task...",
"task.subtask": "Subtask",
+ "task.title": "Tasks",
"thread.divider": "Subtopic",
"thread.threadMessageCount": "{{messageCount}} messages",
"thread.title": "Subtopic",
@@ -430,9 +436,11 @@
"toolAuth.title": "Authorize Skills for this Agent",
"topic.checkOpenNewTopic": "Start a new topic?",
"topic.checkSaveCurrentMessages": "Do you want to save the current conversation as a topic?",
+ "topic.defaultTitle": "Untitled Topic",
"topic.openNewTopic": "Open New Topic",
"topic.recent": "Recent Topics",
"topic.saveCurrentMessages": "Save current session as topic",
+ "topic.viewAll": "View All Topics",
"translate.action": "Translate",
"translate.clear": "Clear Translation",
"tts.action": "Text-to-Speech",
@@ -457,6 +465,80 @@
"viewMode.fullWidth": "Full Width",
"viewMode.normal": "Standard",
"viewMode.wideScreen": "Widescreen",
+ "workflow.failedSuffix": "(failed)",
+ "workflow.thoughtForDuration": "Thought for {{duration}}",
+ "workflow.toolDisplayName.activateDevice": "Activated device",
+ "workflow.toolDisplayName.activateSkill": "Activated a skill",
+ "workflow.toolDisplayName.activateTools": "Activated tools",
+ "workflow.toolDisplayName.addActivityMemory": "Saved memory",
+ "workflow.toolDisplayName.addContextMemory": "Saved memory",
+ "workflow.toolDisplayName.addExperienceMemory": "Saved memory",
+ "workflow.toolDisplayName.addIdentityMemory": "Saved memory",
+ "workflow.toolDisplayName.addPreferenceMemory": "Saved memory",
+ "workflow.toolDisplayName.calculate": "Calculated",
+ "workflow.toolDisplayName.callAgent": "Called an agent",
+ "workflow.toolDisplayName.clearTodos": "Cleared todos",
+ "workflow.toolDisplayName.copyDocument": "Copied a document",
+ "workflow.toolDisplayName.crawlMultiPages": "Crawled pages",
+ "workflow.toolDisplayName.crawlSinglePage": "Crawled a page",
+ "workflow.toolDisplayName.createAgent": "Created an agent",
+ "workflow.toolDisplayName.createDocument": "Created a document",
+ "workflow.toolDisplayName.createPlan": "Created a plan",
+ "workflow.toolDisplayName.createTodos": "Created todos",
+ "workflow.toolDisplayName.deleteAgent": "Deleted an agent",
+ "workflow.toolDisplayName.deleteDocument": "Deleted a document",
+ "workflow.toolDisplayName.editDocument": "Edited a document",
+ "workflow.toolDisplayName.editLocalFile": "Edited a file",
+ "workflow.toolDisplayName.editTitle": "Edited title",
+ "workflow.toolDisplayName.evaluate": "Evaluated expression",
+ "workflow.toolDisplayName.execScript": "Executed a script",
+ "workflow.toolDisplayName.execTask": "Executed a task",
+ "workflow.toolDisplayName.execTasks": "Executed tasks",
+ "workflow.toolDisplayName.execute": "Executed calculation",
+ "workflow.toolDisplayName.executeCode": "Executed code",
+ "workflow.toolDisplayName.finishOnboarding": "Finished onboarding",
+ "workflow.toolDisplayName.getCommandOutput": "Read command output",
+ "workflow.toolDisplayName.getDocument": "Read a document",
+ "workflow.toolDisplayName.getOnboardingState": "Checked onboarding state",
+ "workflow.toolDisplayName.getPageContent": "Read Page content",
+ "workflow.toolDisplayName.getTopicContext": "Read topic context",
+ "workflow.toolDisplayName.globLocalFiles": "Searched files",
+ "workflow.toolDisplayName.grepContent": "Searched content",
+ "workflow.toolDisplayName.importFromMarket": "Imported from market",
+ "workflow.toolDisplayName.importSkill": "Imported a skill",
+ "workflow.toolDisplayName.initPage": "Initialized Page",
+ "workflow.toolDisplayName.killCommand": "Stopped a command",
+ "workflow.toolDisplayName.listDocuments": "Listed documents",
+ "workflow.toolDisplayName.listLocalFiles": "Listed files",
+ "workflow.toolDisplayName.listOnlineDevices": "Listed devices",
+ "workflow.toolDisplayName.modifyNodes": "Modified Page",
+ "workflow.toolDisplayName.moveLocalFiles": "Moved files",
+ "workflow.toolDisplayName.readDocument": "Read a document",
+ "workflow.toolDisplayName.readDocumentByFilename": "Read a document",
+ "workflow.toolDisplayName.readKnowledge": "Read knowledge",
+ "workflow.toolDisplayName.readLocalFile": "Read a file",
+ "workflow.toolDisplayName.removeDocument": "Removed a document",
+ "workflow.toolDisplayName.removeIdentityMemory": "Removed memory",
+ "workflow.toolDisplayName.renameDocument": "Renamed a document",
+ "workflow.toolDisplayName.renameLocalFile": "Renamed a file",
+ "workflow.toolDisplayName.replaceText": "Replaced text",
+ "workflow.toolDisplayName.runCommand": "Ran a command",
+ "workflow.toolDisplayName.search": "Searched the web",
+ "workflow.toolDisplayName.searchAgent": "Searched agents",
+ "workflow.toolDisplayName.searchKnowledgeBase": "Searched knowledge base",
+ "workflow.toolDisplayName.searchLocalFiles": "Searched files",
+ "workflow.toolDisplayName.searchSkill": "Searched skills",
+ "workflow.toolDisplayName.searchUserMemory": "Searched memory",
+ "workflow.toolDisplayName.solve": "Solved equation",
+ "workflow.toolDisplayName.updateAgent": "Updated an agent",
+ "workflow.toolDisplayName.updateDocument": "Updated a document",
+ "workflow.toolDisplayName.updateIdentityMemory": "Updated memory",
+ "workflow.toolDisplayName.updateLoadRule": "Updated load rule",
+ "workflow.toolDisplayName.updatePlan": "Updated plan",
+ "workflow.toolDisplayName.updateTodos": "Updated todos",
+ "workflow.toolDisplayName.upsertDocumentByFilename": "Updated a document",
+ "workflow.toolDisplayName.writeLocalFile": "Wrote a file",
+ "workflow.working": "Working...",
"you": "You",
"zenMode": "Zen Mode"
}
diff --git a/locales/en-US/common.json b/locales/en-US/common.json
index 4c8c8a487e..8f95bc1505 100644
--- a/locales/en-US/common.json
+++ b/locales/en-US/common.json
@@ -342,11 +342,20 @@
"mail.business": "Business Cooperation",
"mail.support": "Email Support",
"more": "More",
- "navPanel.agent": "Agent",
+ "navPanel.agent": "Agents",
+ "navPanel.customizeSidebar": "Customize sidebar",
"navPanel.displayItems": "Display Items",
+ "navPanel.hidden": "Hidden",
+ "navPanel.hideSection": "Hide section",
"navPanel.library": "Library",
+ "navPanel.moveDown": "Move down",
+ "navPanel.moveUp": "Move up",
+ "navPanel.pinned": "Pinned",
"navPanel.searchAgent": "Search Agent...",
+ "navPanel.searchRecent": "Search Recent...",
"navPanel.searchResultEmpty": "No search results found",
+ "navPanel.show": "Show",
+ "navPanel.visible": "Visible",
"new": "New",
"noContent": "No content",
"oauth": "SSO Login",
@@ -367,6 +376,7 @@
"promptTransform.actions.translate": "Translate",
"promptTransform.status.rewrite": "Expanding details...",
"promptTransform.status.translate": "Translating...",
+ "recents": "Recents",
"regenerate": "Regenerate",
"releaseNotes": "Version Details",
"rename": "Rename",
@@ -405,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Community",
+ "tab.create": "Create",
"tab.discover": "Discover",
"tab.eval": "Eval Lab",
"tab.files": "Files",
diff --git a/locales/en-US/image.json b/locales/en-US/image.json
index e0f0a83594..17e8b5923c 100644
--- a/locales/en-US/image.json
+++ b/locales/en-US/image.json
@@ -12,7 +12,7 @@
"config.model.label": "Model",
"config.prompt.placeholder": "Describe what you want to generate",
"config.prompt.placeholderWithRef": "Describe how you want to adjust the image",
- "config.promptExtend.label": "Extended Prompt",
+ "config.promptExtend.label": "Prompt Extend",
"config.quality.label": "Image Quality",
"config.quality.options.hd": "High Definition",
"config.quality.options.standard": "Standard",
diff --git a/locales/en-US/models.json b/locales/en-US/models.json
index 308ad51dda..dd7ad48def 100644
--- a/locales/en-US/models.json
+++ b/locales/en-US/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "A top-performing model in China, surpassing major overseas models on Chinese tasks like knowledge, long-form text, and creative generation. It also features industry-leading multimodal capabilities with strong results on authoritative benchmarks.",
"Baichuan4.description": "Top domestic performance, surpassing leading overseas models on Chinese tasks like encyclopedic knowledge, long text, and creative generation. Also offers industry-leading multimodal capabilities and strong benchmark results.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS is a family of open-source LLMs from ByteDance Seed, designed for strong long-context handling, reasoning, agent, and general abilities. Seed-OSS-36B-Instruct is a 36B instruction-tuned model with native ultra-long context for processing large documents or codebases. It is optimized for reasoning, code generation, and agent tasks (tool use) while retaining strong general ability. A key feature is \"Thinking Budget,\" allowing flexible reasoning length to improve efficiency.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR is a vision-language model from DeepSeek AI focused on OCR and \"context optical compression.\" It explores compressing context from images, efficiently processes documents, and converts them to structured text (e.g., Markdown). It accurately recognizes text in images, suited for document digitization, text extraction, and structured processing.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, the larger and smarter model in the DeepSeek suite, is distilled into the Llama 70B architecture. Benchmarks and human evals show it is smarter than the base Llama 70B, especially on math and fact-precision tasks.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "A DeepSeek-R1 distilled model based on Qwen2.5-Math-1.5B. Reinforcement learning and cold-start data optimize reasoning performance, setting new multi-task benchmarks for open models.",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill models are fine-tuned from open-source models using sample data generated by DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Provider: sophnet. DeepSeek V3 Fast is the high-TPS version of DeepSeek V3 0324, full-precision (non-quantized) with stronger code and math and faster responses.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast is the high-TPS fast variant of DeepSeek V3.1. Hybrid thinking mode: via chat templates, one model supports both thinking and non-thinking. Smarter tool use: post-training boosts tool and agent task performance.",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 thinking mode: a new hybrid reasoning model with thinking and non-thinking modes, more efficient than DeepSeek-R1-0528. Post-training optimizations significantly improve agent tool use and agent task performance.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 introduces sparse attention mechanism, aiming to improve training and inference efficiency when processing long texts, priced lower than deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 is a MoE model developed by DeepSeek. It surpasses other open models like Qwen2.5-72B and Llama-3.1-405B on many benchmarks and is competitive with leading closed models such as GPT-4o and Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite offers ultra-fast responses and better value, with flexible options across scenarios. Supports 128K context for inference and fine-tuning.",
"Doubao-lite-32k.description": "Doubao-lite offers ultra-fast responses and better value, with flexible options across scenarios. Supports 32K context for inference and fine-tuning.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: High-performance model for reasoning, coding, and agent tasks.",
"GLM-4.6.description": "GLM-4.6: Previous generation model.",
"GLM-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, enhanced for Agentic Coding scenarios with improved coding capabilities, long-term task planning, and tool collaboration.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Optimized version of GLM-5 with faster inference for coding tasks.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo is a foundation model deeply optimized for agentic scenarios. It has been specifically optimized for core requirements of agent tasks from the training phase, enhancing key capabilities such as tool invocation, command following, and long-chain execution. It is ideal for building high-performance agent assistants.",
"GLM-5.1.description": "GLM-5.1 is Zhipu's latest flagship model, an enhanced iteration of GLM-5 with improved agentic engineering capabilities for complex systems engineering and long-horizon tasks.",
- "GLM-5.description": "GLM-5 is Zhipu's next-generation flagship foundation model, purpose-built for Agentic Engineering. It delivers reliable productivity in complex systems engineering and long-horizon agentic tasks. In coding and agent capabilities, GLM-5 achieves state-of-the-art performance among open-source models.",
+ "GLM-5.description": "GLM-5 is Zhipu’s next-generation flagship foundation model, purpose-built for Agentic Engineering. It delivers reliable productivity in complex systems engineering and long-horizon agentic tasks. In coding and agent capabilities, GLM-5 achieves state-of-the-art performance among open-source models. In real-world programming scenarios, its user experience approaches that of Claude Opus 4.5. It excels at complex systems engineering and long-horizon agent tasks, making it an ideal foundation model for general-purpose agent assistants.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) is an innovative model for diverse domains and complex tasks.",
"HY-Image-V3.0.description": "Powerful original-image feature extraction and detail preservation capabilities, delivering richer visual texture and producing high-accuracy, well-composed, production-grade visuals.",
"HelloMeme.description": "HelloMeme is an AI tool that generates memes, GIFs, or short videos from the images or motions you provide. It requires no drawing or coding skills—just a reference image—to produce fun, attractive, and stylistically consistent content.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter is a tuning-free personalized character generation model released by Tencent AI in 2025, aiming for high-fidelity, cross-scenario consistent character generation. It can model a character from a single reference image and flexibly transfer it across styles, actions, and backgrounds.",
"InternVL2-8B.description": "InternVL2-8B is a powerful vision-language model supporting multimodal image-text processing, accurately recognizing image content and generating relevant descriptions or answers.",
"InternVL2.5-26B.description": "InternVL2.5-26B is a powerful vision-language model supporting multimodal image-text processing, accurately recognizing image content and generating relevant descriptions or answers.",
+ "KAT-Coder-Air-V1.description": "A lightweight version within the KAT-Coder series. Specifically designed for Agentic Coding, it comprehensively covers programming tasks and scenarios. Leveraging large-scale agent-based reinforcement learning, it enables emergent intelligent behaviors and significantly outperforms comparable models in coding performance.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B is the RL innovation experimental version in the KAT-Coder series, achieving a remarkable performance of 74.6% on the SWE-Bench verified benchmark, setting a new record for open-source models. It focuses on Agentic Coding and currently only supports the SWE-Agent scaffold, but can also be used for simple conversations.",
+ "KAT-Coder-Pro-V1.description": "Designed for Agentic Coding, it comprehensively covers programming tasks and scenarios, achieving intelligent behavior emergence through large-scale reinforcement learning, significantly outperforming similar models in code writing performance.",
+ "KAT-Coder-Pro-V2.description": "The latest high-performance model from the Kuaishou Kwaipilot team, designed for complex enterprise projects and SaaS integration. It excels in code-related scenarios and is compatible with various types of agent frameworks (Claude Code, OpenCode, KiloCode), natively supports OpenClaw, and is optimized specifically for front-end page aesthetics.",
+ "Kimi-K2.5.description": "Kimi K2.5 is the most capable Kimi model, delivering open-source SOTA in agent tasks, coding, and vision understanding. It supports multimodal inputs and both thinking and non-thinking modes.",
"Kolors.description": "Kolors is a text-to-image model developed by the Kuaishou Kolors team. Trained with billions of parameters, it has notable advantages in visual quality, Chinese semantic understanding, and text rendering.",
"Kwai-Kolors/Kolors.description": "Kolors is a large-scale latent-diffusion text-to-image model by the Kuaishou Kolors team. Trained on billions of text-image pairs, it excels in visual quality, complex semantic accuracy, and Chinese/English text rendering, with strong Chinese content understanding and generation.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) is an open-source 32B model for software engineering tasks. It achieves a 62.4% solve rate on SWE-Bench Verified, ranking 5th among open models. It is optimized through mid-training, SFT, and RL for code completion, bug fixing, and code review.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Cutting-edge small language model with strong language understanding, excellent reasoning, and text generation.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 is the most advanced multilingual open-source Llama model, delivering near-405B performance at very low cost. It is Transformer-based and improved with SFT and RLHF for usefulness and safety. The instruction-tuned version is optimized for multilingual chat and beats many open and closed chat models on industry benchmarks. Knowledge cutoff: Dec 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is a large MoE model with efficient expert activation for strong reasoning performance.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro is specifically designed for high-intensity agent workflows in real-world scenarios. It features over 1 trillion total parameters (42B activated parameters), adopts an innovative hybrid attention architecture, and supports an ultra-long context length of up to 1 million tokens. Built on a powerful foundational model, we continuously scale computational resources across a broader range of agent scenarios, further expanding the action space of intelligence and achieving significant generalization—from coding to real-world task execution (“claw”).",
"MiniMax-Hailuo-02.description": "The next-generation video generation model, MiniMax Hailuo 02, has been officially released, supporting 1080P resolution and 10-second video generation.",
"MiniMax-Hailuo-2.3-Fast.description": "Brand-new video generation model with comprehensive upgrades in body motion, physical realism, and instruction following.",
"MiniMax-Hailuo-2.3.description": "Brand-new video generation model with comprehensive upgrades in body motion, physical realism, and instruction following.",
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
- "MiniMax-M2.1-Lightning.description": "Powerful multilingual programming capabilities with faster and more efficient inference.",
"MiniMax-M2.1-highspeed.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience. Faster and more efficient.",
"MiniMax-M2.1.description": "MiniMax-M2.1 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Same performance as M2.5 with faster inference.",
"MiniMax-M2.5.description": "MiniMax-M2.5 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Same performance as M2.7 with significantly faster inference.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Beginning the journey of recursive self-improvement, top real-world engineering capabilities.",
+ "MiniMax-M2.7.description": "First self-evolving model with top-tier coding and agentic performance (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Previous generation model.",
"MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is an open-weights large-scale hybrid-attention reasoning model with 456B total parameters and ~45.9B active per token. It natively supports 1M context and uses Flash Attention to cut FLOPs by 75% on 100K-token generation vs DeepSeek R1. With an MoE architecture plus CISPO and hybrid-attention RL training, it achieves leading performance on long-input reasoning and real software engineering tasks.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is the newest and most powerful Kimi K2. It is a top-tier MoE model with 1T total and 32B active parameters. Key features include stronger agentic coding intelligence with significant gains on benchmarks and real-world agent tasks, plus improved frontend coding aesthetics and usability.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is the Turbo variant optimized for reasoning speed and throughput while retaining K2 Thinking’s multi-step reasoning and tool use. It is an MoE model with ~1T total parameters, native 256K context, and stable large-scale tool calling for production scenarios with stricter latency and concurrency needs.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 is an open-source native multimodal agent model, built on Kimi-K2-Base, trained on approximately 1.5 trillion mixed vision and text tokens. The model adopts an MoE architecture with 1T total parameters and 32B active parameters, supporting a 256K context window, seamlessly integrating vision and language understanding capabilities.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 is a next-generation flagship model designed for agent engineering, using a Mixture of Experts (MoE) architecture with 754B parameters. It significantly enhances programming capabilities, achieving leading results on SWE-Bench Pro, and substantially outperforms its predecessor on benchmarks like NL2Repo and Terminal-Bench 2.0. Designed for long-duration agent tasks, it handles ambiguous questions with better judgment, decomposes complex tasks, executes experiments, analyzes results, and continuously optimizes through hundreds of iterations and thousands of tool calls.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 is Zhipu's new generation flagship model with 355B total parameters and 32B active parameters, fully upgraded in general dialogue, reasoning, and agent capabilities. GLM-4.7 enhances Interleaved Thinking and introduces Preserved Thinking and Turn-level Thinking.",
"Pro/zai-org/glm-5.description": "GLM-5 is Zhipu's next-generation large language model, focusing on complex system engineering and long-duration Agent tasks. The model parameters have been expanded to 744B (40B active) and integrate DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improving reasoning.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 is optimized for advanced reasoning and instruction-following, using MoE to keep reasoning efficient at scale.",
"Qwen3-235B.description": "Qwen3-235B-A22B is a MoE model that introduces a hybrid reasoning mode, letting users switch seamlessly between thinking and non-thinking. It supports understanding and reasoning across 119 languages and dialects and has strong tool-calling capabilities, competing with mainstream models like DeepSeek R1, OpenAI o1, o3-mini, Grok 3, and Google Gemini 2.5 Pro across benchmarks in general ability, code and math, multilingual capability, and knowledge reasoning.",
"Qwen3-32B.description": "Qwen3-32B is a dense model that introduces a hybrid reasoning mode, letting users switch between thinking and non-thinking. With architecture improvements, more data, and better training, it performs on par with Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus supports text, image, and video input. Its performance on pure text tasks is comparable to Qwen3 Max, with better performance and lower cost. Its multimodal capabilities are significantly improved compared to the Qwen3 VL series.",
"S2V-01.description": "The foundational reference-to-video model of the 01 series.",
"SenseChat-128K.description": "Base V4 with 128K context, strong in long-text understanding and generation.",
"SenseChat-32K.description": "Base V4 with 32K context, flexible for many scenarios.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
- "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
- "claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's most intelligent model for building agents and coding.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic’s most intelligent model for building agents and coding.",
"claude-opus-4.5.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining top-tier intelligence with scalable performance for complex, high-quality reasoning tasks.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 is Anthropic’s most intelligent model for building agents and coding.",
"claude-opus-4.6.description": "Claude Opus 4.6 is Anthropic’s most intelligent model for building agents and coding.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic's most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic's best combination of speed and intelligence.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic’s best combination of speed and intelligence.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 is Anthropic’s best combination of speed and intelligence.",
"claude-sonnet-4.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step reasoning that users can see. API users can finely control how long the model thinks.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought capabilities.",
- "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
+ "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
"ernie-x1.1.description": "ERNIE X1.1 is a thinking-model preview for evaluation and testing.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
- "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
- "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
+ "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
+ "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
- "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
+ "flux-dev.description": "Open-source R&D image generation model, efficiently optimized for non-commercial innovation research.",
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
"flux-kontext-pro.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
- "flux-merged.description": "FLUX.1 [merged] combines the deep features explored in \"DEV\" with the high-speed advantages of \"Schnell\", extending performance limits and broadening applications.",
"flux-pro-1.1-ultra.description": "Ultra-high-resolution image generation with 4MP output, producing crisp images in 10 seconds.",
"flux-pro-1.1.description": "Upgraded professional-grade image generation model with excellent image quality and precise prompt adherence.",
"flux-pro.description": "Top-tier commercial image generation model with unmatched image quality and diverse outputs.",
- "flux-schnell.description": "FLUX.1 [schnell] is the most advanced open-source few-step model, surpassing similar competitors and even strong non-distilled models like Midjourney v6.0 and DALL-E 3 (HD). It is finely tuned to preserve pretraining diversity, significantly improving visual quality, instruction following, size/aspect variation, font handling, and output diversity.",
"flux.1-schnell.description": "FLUX.1-schnell is a high-performance image generation model for fast multi-style outputs.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) provides stable, tunable performance for complex tasks.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) provides strong multimodal support for complex tasks.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model that also supports multimodal dialogue.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s image generation model and also supports multimodal chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview is Google's most cost-efficient multimodal model, optimized for high-volume agentic tasks, translation, and data processing.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview improves on Gemini 3 Pro with enhanced reasoning capabilities and adds medium thinking level support.",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Our most powerful, advanced model, designed for complex enterprise tasks with outstanding performance.",
"jamba-mini.description": "The most efficient model in its class, balancing speed and quality with a smaller footprint.",
"jina-deepsearch-v1.description": "DeepSearch combines web search, reading, and reasoning for thorough investigations. Think of it as an agent that takes your research task, performs broad searches with multiple iterations, and only then produces an answer. The process involves continuous research, reasoning, and multi-angle problem solving, fundamentally different from standard LLMs that answer from pretraining data or traditional RAG systems that rely on one-shot surface search.",
- "k2p5.description": "Kimi K2.5 is Kimi's most versatile model to date, featuring a native multimodal architecture that supports both vision and text inputs, 'thinking' and 'non-thinking' modes, and both conversational and agent tasks.",
"kimi-k2-0711-preview.description": "kimi-k2 is an MoE foundation model with strong coding and agent capabilities (1T total params, 32B active), outperforming other mainstream open models across reasoning, programming, math, and agent benchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offers a 256k context window, stronger agentic coding, better front-end code quality, and improved context understanding.",
"kimi-k2-instruct.description": "Kimi K2 Instruct is Kimi’s official reasoning model with long context for code, QA, and more.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ is a reasoning model in the Qwen family. Compared with standard instruction-tuned models, it brings thinking and reasoning abilities that significantly improve downstream performance, especially on hard problems. QwQ-32B is a mid-sized reasoning model that competes well with top reasoning models like DeepSeek-R1 and o1-mini.",
"qwq_32b.description": "Mid-sized reasoning model in the Qwen family. Compared with standard instruction-tuned models, QwQ’s thinking and reasoning abilities significantly boost downstream performance, especially on hard problems.",
"r1-1776.description": "R1-1776 is a post-trained variant of DeepSeek R1 designed to provide uncensored, unbiased factual information.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance supports text-to-video, image-to-video (first frame, first+last frame), and audio generation synchronized with visuals.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus features web-retrieval-augmented generation for real-time information, enhanced complex prompt interpretation, and improved reference consistency for professional visual creation.",
"solar-mini-ja.description": "Solar Mini (Ja) extends Solar Mini with a focus on Japanese while maintaining efficient, strong performance in English and Korean.",
"solar-mini.description": "Solar Mini is a compact LLM that outperforms GPT-3.5, with strong multilingual capability supporting English and Korean, offering an efficient small-footprint solution.",
"solar-pro.description": "Solar Pro is a high-intelligence LLM from Upstage, focused on instruction following on a single GPU, with IFEval scores above 80. It currently supports English; the full release was planned for November 2024 with expanded language support and longer context.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 is our new powerful media generation model, generating videos with synced audio. It can create richly detailed, dynamic clips from natural language or images.",
"spark-x.description": "X2 Capabilities Overview: 1. Introduces dynamic adjustment of reasoning mode, controlled via the `thinking` field. 2. Expanded context length: 64K input tokens and 128K output tokens. 3. Supports Function Call functionality.",
"stable-diffusion-3-medium.description": "The latest text-to-image model from Stability AI. This version significantly improves image quality, text understanding, and style diversity, interpreting complex natural-language prompts more accurately and generating more precise, diverse images.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applies adversarial diffusion distillation (ADD) to stable-diffusion-3.5-large for faster speed.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is an 800M-parameter MMDiT text-to-image model with excellent quality and prompt alignment, supporting 1-megapixel images and efficient runs on consumer hardware.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 is initialized from the v1.2 checkpoint and fine-tuned for 595k steps on \"laion-aesthetics v2 5+\" at 512x512 resolution, reducing text conditioning by 10% to improve classifier-free guidance sampling.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo focuses on high-quality image generation with strong detail rendering and scene fidelity.",
"stable-diffusion-xl-base-1.0.description": "An open-source text-to-image model from Stability AI with industry-leading creative image generation. It has strong instruction understanding and supports reverse prompt definitions for precise generation.",
- "stable-diffusion-xl.description": "stable-diffusion-xl brings major improvements over v1.5 and matches top open text-to-image results. Improvements include a 3x larger UNet backbone, a refinement module for better image quality, and more efficient training techniques.",
"step-1-128k.description": "Balances performance and cost for general scenarios.",
"step-1-256k.description": "Extra-long context handling, ideal for long-document analysis.",
"step-1-32k.description": "Supports mid-length conversations for a wide range of scenarios.",
diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json
index 4af374aabb..06c0be0c69 100644
--- a/locales/en-US/providers.json
+++ b/locales/en-US/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
"kimicodingplan.description": "Kimi Code from Moonshot AI provides access to Kimi models including K2.5 for coding tasks.",
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
- "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
"longcat.description": "LongCat is a series of generative AI large models independently developed by Meituan. It is designed to enhance internal enterprise productivity and enable innovative applications through an efficient computational architecture and strong multimodal capabilities.",
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan provides access to MiniMax models including M2.7 for coding tasks via a fixed-fee subscription.",
diff --git a/locales/en-US/subscription.json b/locales/en-US/subscription.json
index 2af2a274d1..9ea72b49bf 100644
--- a/locales/en-US/subscription.json
+++ b/locales/en-US/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Upgrade to",
"credits.topUp.upgradeSuffix": "to save ${{savings}}",
"credits.topUp.validityInfo": "{{months}} months validity",
+ "crossPlatform.desc": "This subscription was purchased through the mobile app and cannot be modified here. Please manage your subscription on your mobile device.",
+ "crossPlatform.manageOnMobile": "Manage on mobile device",
+ "crossPlatform.title": "Cross-Platform Subscription",
"currentPlan.cancelAlert": "Subscription will be cancelled after {{canceledAt}}. You can still restore it in \"Manage Subscription\" before then",
"currentPlan.downgradeAlert": "Will be downgraded to {{plan}} after {{downgradedAt}}.",
"currentPlan.management": "Manage Subscription",
diff --git a/locales/es-ES/agent.json b/locales/es-ES/agent.json
index 56a382f248..024186e450 100644
--- a/locales/es-ES/agent.json
+++ b/locales/es-ES/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot conectado exitosamente",
"channel.connecting": "Conectando...",
"channel.connectionConfig": "Configuración de Conexión",
+ "channel.connectionMode": "Modo de conexión",
+ "channel.connectionModeHint": "Se recomienda WebSocket para los bots nuevos. Use Webhook si su bot ya tiene una URL de callback configurada en la Plataforma Abierta de QQ.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Copiado al portapapeles",
"channel.copy": "Copiar",
"channel.credentials": "Credenciales",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Por favor, copia esta URL y pégala en el campo {{fieldName}} en el Portal de Desarrolladores de {{name}}.",
"channel.exportConfig": "Exportar configuración",
"channel.feishu.description": "Conecta este asistente a Feishu para chats privados y grupales.",
+ "channel.feishu.webhookMigrationDesc": "El modo WebSocket ofrece entrega de eventos en tiempo real sin necesidad de una URL de callback pública. Para migrar, cambie el Modo de Conexión a WebSocket en Configuración Avanzada. No se necesita ninguna configuración adicional en la Plataforma Abierta de Feishu/Lark.",
+ "channel.feishu.webhookMigrationTitle": "Considere migrar al modo WebSocket",
"channel.historyLimit": "Límite de Mensajes en el Historial",
"channel.historyLimitHint": "Número predeterminado de mensajes para recuperar al leer el historial del canal",
"channel.importConfig": "Importar configuración",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Requerida para la verificación de interacciones",
"channel.qq.appIdHint": "Tu ID de aplicación de bot de QQ desde la Plataforma Abierta de QQ",
"channel.qq.description": "Conecta este asistente a QQ para chats grupales y mensajes directos.",
+ "channel.qq.webhookMigrationDesc": "El modo WebSocket ofrece entrega de eventos en tiempo real y reconexión automática sin necesidad de una URL de callback. Para migrar, cree un nuevo bot en la Plataforma Abierta de QQ sin configurar una URL de callback y luego cambie el Modo de Conexión a WebSocket en Configuración Avanzada.",
+ "channel.qq.webhookMigrationTitle": "Considere migrar al modo WebSocket",
"channel.removeChannel": "Eliminar Canal",
"channel.removeFailed": "Error al eliminar el canal",
"channel.removed": "Canal eliminado",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Secreto de firma",
"channel.signingSecretHint": "Usado para verificar solicitudes de webhook.",
"channel.slack.appIdHint": "Tu ID de aplicación de Slack desde el panel de API de Slack (comienza con A).",
+ "channel.slack.appToken": "Token a nivel de aplicación",
+ "channel.slack.appTokenHint": "Requerido para el Socket Mode (WebSocket). Genere un token a nivel de aplicación (xapp-...) en Información Básica dentro de la configuración de su aplicación de Slack.",
"channel.slack.description": "Conecta este asistente a Slack para conversaciones en canales y mensajes directos.",
+ "channel.slack.webhookMigrationDesc": "El Socket Mode ofrece entrega de eventos en tiempo real mediante WebSocket sin exponer un endpoint HTTP público. Para migrar, active el Socket Mode en la configuración de su aplicación de Slack, genere un Token a nivel de aplicación y luego cambie el Modo de Conexión a WebSocket en Configuración Avanzada.",
+ "channel.slack.webhookMigrationTitle": "Considere migrar al Socket Mode (WebSocket)",
"channel.telegram.description": "Conecta este asistente a Telegram para chats privados y grupales.",
"channel.testConnection": "Probar Conexión",
"channel.testFailed": "Prueba de conexión fallida",
diff --git a/locales/es-ES/chat.json b/locales/es-ES/chat.json
index 329e409add..7f6f4d3c05 100644
--- a/locales/es-ES/chat.json
+++ b/locales/es-ES/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Grupo eliminado con éxito",
"confirmRemoveSessionItemAlert": "Estás a punto de eliminar este agente. Una vez eliminado, no se podrá recuperar. Por favor, confirma tu acción.",
"confirmRemoveSessionSuccess": "Agente eliminado con éxito",
+ "createModal.createBlank": "Crear en blanco",
+ "createModal.groupPlaceholder": "Describe lo que debería hacer este grupo...",
+ "createModal.groupTitle": "¿Qué debería hacer tu grupo?",
+ "createModal.placeholder": "Describe lo que debería hacer tu agente...",
+ "createModal.title": "¿Qué debería hacer tu agente?",
"defaultAgent": "Agente predeterminado",
"defaultGroupChat": "Grupo",
"defaultList": "Lista predeterminada",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Contexto demasiado largo, comprimiendo historial...",
"operation.execAgentRuntime": "Preparando respuesta",
"operation.execClientTask": "Ejecutando tarea",
+ "operation.execServerAgentRuntime": "Ejecutando… Puedes cambiar de tarea o cerrar la página: la tarea seguirá en marcha.",
"operation.sendMessage": "Enviando mensaje",
"owner": "Propietario del grupo",
"pageCopilot.title": "Agente de página",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Obteniendo detalles...",
"task.status.initializing": "Inicializando tarea...",
"task.subtask": "Subtarea",
+ "task.title": "Tareas",
"thread.divider": "Subtema",
"thread.threadMessageCount": "{{messageCount}} mensajes",
"thread.title": "Subtema",
@@ -429,9 +436,11 @@
"toolAuth.title": "Autorizar habilidades para este agente",
"topic.checkOpenNewTopic": "¿Iniciar un nuevo tema?",
"topic.checkSaveCurrentMessages": "¿Deseas guardar la conversación actual como un tema?",
+ "topic.defaultTitle": "Tema sin título",
"topic.openNewTopic": "Abrir nuevo tema",
"topic.recent": "Temas recientes",
"topic.saveCurrentMessages": "Guardar sesión actual como tema",
+ "topic.viewAll": "Ver todos los temas",
"translate.action": "Traducir",
"translate.clear": "Borrar traducción",
"tts.action": "Texto a voz",
diff --git a/locales/es-ES/common.json b/locales/es-ES/common.json
index 9f0f5ee7bc..ba389cd39c 100644
--- a/locales/es-ES/common.json
+++ b/locales/es-ES/common.json
@@ -343,10 +343,19 @@
"mail.support": "Soporte por correo",
"more": "Más",
"navPanel.agent": "Agente",
+ "navPanel.customizeSidebar": "Personalizar barra lateral",
"navPanel.displayItems": "Elementos visibles",
+ "navPanel.hidden": "Oculto",
+ "navPanel.hideSection": "Ocultar sección",
"navPanel.library": "Biblioteca",
+ "navPanel.moveDown": "Mover hacia abajo",
+ "navPanel.moveUp": "Mover hacia arriba",
+ "navPanel.pinned": "Fijado",
"navPanel.searchAgent": "Buscar agente...",
+ "navPanel.searchRecent": "Buscar recientes...",
"navPanel.searchResultEmpty": "No se encontraron resultados",
+ "navPanel.show": "Mostrar",
+ "navPanel.visible": "Visible",
"new": "Nuevo",
"noContent": "Sin contenido",
"oauth": "Inicio de sesión SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Apóyanos",
"productHunt.description": "Apóyanos en Product Hunt. ¡Tu apoyo significa mucho para nosotros!",
"productHunt.title": "¡Estamos en Product Hunt!",
+ "promptTransform.action": "Refinar idea",
+ "promptTransform.actions.rewrite": "Ampliar detalles",
+ "promptTransform.actions.translate": "Traducir",
+ "promptTransform.status.rewrite": "Ampliando detalles...",
+ "promptTransform.status.translate": "Traduciendo...",
+ "recents": "Recientes",
"regenerate": "Regenerar",
"releaseNotes": "Detalles de la versión",
"rename": "Renombrar",
@@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Comunidad",
+ "tab.create": "Crear",
"tab.discover": "Descubrir",
"tab.eval": "Laboratorio de Evaluación",
"tab.files": "Archivos",
diff --git a/locales/es-ES/image.json b/locales/es-ES/image.json
index c91c950030..0d3f9fbcc5 100644
--- a/locales/es-ES/image.json
+++ b/locales/es-ES/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Modelo",
"config.prompt.placeholder": "Describe lo que deseas generar",
"config.prompt.placeholderWithRef": "Describe cómo quieres ajustar la imagen",
+ "config.promptExtend.label": "Extensión de indicaciones",
"config.quality.label": "Calidad de imagen",
"config.quality.options.hd": "Alta definición",
"config.quality.options.standard": "Estándar",
@@ -24,6 +25,8 @@
"config.size.label": "Tamaño",
"config.steps.label": "Pasos",
"config.title": "Configuración",
+ "config.watermark.label": "Marca de agua",
+ "config.webSearch.label": "Búsqueda web",
"config.width.label": "Anchura",
"generation.actions.applySeed": "Aplicar semilla",
"generation.actions.copyError": "Copiar mensaje de error",
diff --git a/locales/es-ES/labs.json b/locales/es-ES/labs.json
index f3eacde3ec..58ccae5e1b 100644
--- a/locales/es-ES/labs.json
+++ b/locales/es-ES/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Agrupa los mensajes del agente y los resultados de sus herramientas para mostrarlos juntos",
"features.assistantMessageGroup.title": "Agrupación de Mensajes del Agente",
+ "features.gatewayMode.desc": "Ejecuta las tareas del agente en el servidor a través del WebSocket de Gateway en lugar de hacerlo localmente. Permite una ejecución más rápida y reduce el uso de recursos del cliente.",
+ "features.gatewayMode.title": "Ejecución del agente del lado del servidor (Gateway)",
"features.groupChat.desc": "Activa la coordinación de chat grupal con múltiples agentes.",
"features.groupChat.title": "Chat Grupal (Multiagente)",
"features.inputMarkdown.desc": "Renderiza Markdown en el área de entrada en tiempo real (texto en negrita, bloques de código, tablas, etc.).",
diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json
index fbb2485bea..3a716c5358 100644
--- a/locales/es-ES/models.json
+++ b/locales/es-ES/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Modelo de alto rendimiento en China, que supera a modelos internacionales en tareas en chino como conocimiento, texto largo y generación creativa. También cuenta con capacidades multimodales líderes en la industria con resultados sólidos en pruebas de referencia autorizadas.",
"Baichuan4.description": "Rendimiento nacional líder, superando a modelos internacionales en tareas en chino como conocimiento enciclopédico, texto largo y generación creativa. También ofrece capacidades multimodales líderes en la industria y resultados sólidos en pruebas de referencia.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS es una familia de modelos LLM de código abierto de ByteDance Seed, diseñados para manejar contextos largos, razonamiento, agentes y habilidades generales. Seed-OSS-36B-Instruct es un modelo de 36B ajustado por instrucciones con contexto ultra largo nativo para procesar documentos o bases de código extensas. Está optimizado para razonamiento, generación de código y tareas de agente (uso de herramientas), manteniendo una gran capacidad general. Una característica clave es el \"Presupuesto de Pensamiento\", que permite una longitud de razonamiento flexible para mejorar la eficiencia.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR es un modelo visión‑lenguaje de DeepSeek AI centrado en OCR y en la “compresión óptica de contexto”. Explora la compresión de contexto a partir de imágenes, procesa documentos de forma eficiente y los convierte en texto estructurado (por ejemplo, Markdown). Reconoce texto en imágenes con alta precisión, ideal para la digitalización de documentos, extracción de texto y procesamiento estructurado.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, el modelo más grande e inteligente de la suite DeepSeek, ha sido destilado en la arquitectura Llama 70B. Las pruebas de referencia y evaluaciones humanas muestran que es más inteligente que el Llama 70B base, especialmente en tareas de matemáticas y precisión factual.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Modelo destilado de DeepSeek-R1 basado en Qwen2.5-Math-1.5B. El aprendizaje por refuerzo y los datos de arranque en frío optimizan el rendimiento en razonamiento, estableciendo nuevos estándares de referencia multitarea para modelos abiertos.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Los modelos DeepSeek-R1-Distill están ajustados a partir de modelos de código abierto utilizando datos de muestra generados por DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Proveedor: sophnet. DeepSeek V3 Fast es la versión de alta velocidad de DeepSeek V3 0324, de precisión completa (sin cuantización), con mejor rendimiento en código y matemáticas y respuestas más rápidas.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast es la variante rápida de alta velocidad de DeepSeek V3.1. Modo de pensamiento híbrido: mediante plantillas de chat, un solo modelo admite modos de pensamiento y no pensamiento. Uso de herramientas más inteligente: el postentrenamiento mejora el rendimiento en tareas de herramientas y agentes.",
"DeepSeek-V3.1-Think.description": "Modo de pensamiento de DeepSeek-V3.1: un nuevo modelo de razonamiento híbrido con modos de pensamiento y no pensamiento, más eficiente que DeepSeek-R1-0528. Las optimizaciones posteriores al entrenamiento mejoran significativamente el uso de herramientas de agente y el rendimiento en tareas de agente.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 incorpora un mecanismo de atención dispersa para mejorar la eficiencia de entrenamiento e inferencia al procesar textos largos, con un precio inferior al de deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE desarrollado por DeepSeek. Supera a otros modelos abiertos como Qwen2.5-72B y Llama-3.1-405B en muchas pruebas de referencia y compite con modelos cerrados líderes como GPT-4o y Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite ofrece respuestas ultra rápidas y mejor relación calidad-precio, con opciones flexibles para distintos escenarios. Admite contexto de 128K para inferencia y ajuste fino.",
"Doubao-lite-32k.description": "Doubao-lite ofrece respuestas ultra rápidas y mejor relación calidad-precio, con opciones flexibles para distintos escenarios. Admite contexto de 32K para inferencia y ajuste fino.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Modelo de alto rendimiento para razonamiento, programación y tareas de agentes.",
"GLM-4.6.description": "GLM-4.6: Modelo de la generación anterior.",
"GLM-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, mejorado para escenarios de codificación agentiva con capacidades de programación avanzadas, planificación de tareas a largo plazo y colaboración con herramientas.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Versión optimizada de GLM-5 con inferencia más rápida para tareas de programación.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo es un modelo base profundamente optimizado para escenarios agentivos. Ha sido específicamente ajustado desde la fase de entrenamiento para cubrir los requisitos fundamentales de las tareas de agentes, mejorando capacidades clave como la invocación de herramientas, el seguimiento de instrucciones y la ejecución de cadenas largas. Es ideal para construir asistentes agentivos de alto rendimiento.",
"GLM-5.1.description": "GLM-5.1 es el último modelo insignia de Zhipu, una iteración mejorada del GLM-5 con capacidades avanzadas de ingeniería agéntica para sistemas complejos y tareas de largo alcance.",
- "GLM-5.description": "GLM-5 es el modelo base insignia de próxima generación de Zhipu, diseñado específicamente para Ingeniería Agentiva. Ofrece productividad confiable en sistemas de ingeniería complejos y tareas agentivas de largo alcance. En capacidades de programación y agentes, GLM-5 logra un rendimiento de vanguardia entre los modelos de código abierto.",
+ "GLM-5.description": "GLM-5 es el modelo base insignia de nueva generación de Zhipu, diseñado específicamente para la Ingeniería Agentiva. Ofrece productividad fiable en ingeniería de sistemas complejos y tareas agentivas de largo horizonte. En capacidades de programación y agentes, GLM-5 alcanza un rendimiento líder entre los modelos de código abierto. En escenarios reales de programación, su experiencia de uso se acerca a la de Claude Opus 4.5. Destaca en ingeniería de sistemas avanzados y tareas agentivas prolongadas, siendo un modelo base ideal para asistentes agentivos de propósito general.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) es un modelo innovador para dominios diversos y tareas complejas.",
"HY-Image-V3.0.description": "Potentes capacidades de extracción de características de la imagen original y preservación de detalles, ofreciendo una textura visual más rica y produciendo imágenes de alta precisión, bien compuestas y de calidad profesional.",
"HelloMeme.description": "HelloMeme es una herramienta de IA que genera memes, GIFs o videos cortos a partir de imágenes o movimientos proporcionados. No requiere habilidades de dibujo ni programación: solo una imagen de referencia para crear contenido divertido, atractivo y estilísticamente coherente.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter es un modelo de generación de personajes personalizados sin necesidad de ajuste, lanzado por Tencent AI en 2025. Permite generar personajes con alta fidelidad y consistencia entre escenarios. Puede modelar un personaje a partir de una sola imagen de referencia y transferirlo con flexibilidad entre estilos, acciones y fondos.",
"InternVL2-8B.description": "InternVL2-8B es un potente modelo visión-lenguaje que admite procesamiento multimodal imagen-texto, reconociendo con precisión el contenido visual y generando descripciones o respuestas relevantes.",
"InternVL2.5-26B.description": "InternVL2.5-26B es un potente modelo visión-lenguaje que admite procesamiento multimodal imagen-texto, reconociendo con precisión el contenido visual y generando descripciones o respuestas relevantes.",
+ "KAT-Coder-Air-V1.description": "Una versión ligera dentro de la serie KAT-Coder. Diseñada específicamente para Agentic Coding, cubre de forma completa tareas y escenarios de programación. Aprovecha el aprendizaje por refuerzo a gran escala basado en agentes, permitiendo comportamientos inteligentes emergentes y superando ampliamente a modelos comparables en rendimiento de programación.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B es la versión experimental con innovaciones de aprendizaje por refuerzo dentro de la serie KAT-Coder, logrando un rendimiento sobresaliente del 74.6% en el benchmark verificado SWE-Bench, estableciendo un nuevo récord para modelos de código abierto. Está centrado en Agentic Coding y actualmente solo es compatible con el andamiaje SWE-Agent, aunque también puede usarse para conversaciones simples.",
+ "KAT-Coder-Pro-V1.description": "Diseñado para Agentic Coding, cubre de forma completa tareas y escenarios de programación, logrando comportamientos inteligentes emergentes mediante aprendizaje por refuerzo a gran escala, superando notablemente a modelos similares en rendimiento de escritura de código.",
+ "KAT-Coder-Pro-V2.description": "El modelo de alto rendimiento más reciente del equipo Kuaishou Kwaipilot, diseñado para proyectos empresariales complejos e integración SaaS. Destaca en escenarios relacionados con programación y es compatible con varios tipos de marcos agentivos (Claude Code, OpenCode, KiloCode), con soporte nativo para OpenClaw y optimización específica para estética de interfaces front‑end.",
+ "Kimi-K2.5.description": "Kimi K2.5 es el modelo más potente de Kimi, con rendimiento SOTA de código abierto en tareas agentivas, programación y comprensión visual. Soporta entradas multimodales y modos con y sin razonamiento.",
"Kolors.description": "Kolors es un modelo de texto a imagen desarrollado por el equipo Kolors de Kuaishou. Entrenado con miles de millones de parámetros, destaca por su calidad visual, comprensión semántica en chino y renderizado de texto.",
"Kwai-Kolors/Kolors.description": "Kolors es un modelo de difusión latente a gran escala de texto a imagen del equipo Kolors de Kuaishou. Entrenado con miles de millones de pares texto-imagen, sobresale en calidad visual, precisión semántica compleja y renderizado de texto en chino/inglés, con sólida comprensión y generación de contenido en chino.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) es un modelo de código abierto de 32B para tareas de ingeniería de software. Logra una tasa de resolución del 62.4% en SWE-Bench Verified, ocupando el 5.º lugar entre los modelos abiertos. Está optimizado mediante entrenamiento intermedio, SFT y RL para completar código, corregir errores y revisar código.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modelo de lenguaje pequeño de última generación con sólida comprensión del lenguaje, excelente razonamiento y generación de texto.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 es el modelo Llama multilingüe de código abierto más avanzado, con rendimiento cercano al de modelos de 405B a un costo muy bajo. Basado en Transformer y mejorado con SFT y RLHF para utilidad y seguridad. La versión ajustada por instrucciones está optimizada para chat multilingüe y supera a muchos modelos abiertos y cerrados en benchmarks de la industria. Fecha de corte de conocimiento: diciembre de 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick es un modelo MoE grande con activación eficiente de expertos para un rendimiento sólido en razonamiento.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro está diseñado específicamente para flujos de trabajo agentivos de alta intensidad en escenarios reales. Cuenta con más de 1 billón de parámetros totales (42B activados), adopta una arquitectura híbrida de atención innovadora y soporta una longitud de contexto extremadamente larga de hasta 1 millón de tokens. Construido sobre un potente modelo base, ampliamos continuamente los recursos computacionales para un rango más amplio de escenarios agentivos, expandiendo el espacio de acción de la inteligencia y logrando una fuerte generalización—desde programación hasta ejecución de tareas reales (“claw”).",
"MiniMax-Hailuo-02.description": "El modelo de generación de video de próxima generación, MiniMax Hailuo 02, ha sido lanzado oficialmente, soportando resolución 1080P y generación de videos de 10 segundos.",
"MiniMax-Hailuo-2.3-Fast.description": "Nuevo modelo de generación de video con mejoras integrales en movimiento corporal, realismo físico y seguimiento de instrucciones.",
"MiniMax-Hailuo-2.3.description": "Nuevo modelo de generación de video con mejoras integrales en movimiento corporal, realismo físico y seguimiento de instrucciones.",
"MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
"MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
- "MiniMax-M2.1-Lightning.description": "Potentes capacidades de programación multilingüe con inferencia más rápida y eficiente.",
"MiniMax-M2.1-highspeed.description": "Potentes capacidades de programación multilingüe, con una experiencia de programación completamente mejorada. Más rápido y eficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 es un modelo insignia de código abierto de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son sus capacidades de programación multilingüe y su habilidad para resolver tareas complejas como un Agente.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Mismo rendimiento que M2.5 con inferencia más rápida.",
"MiniMax-M2.5.description": "MiniMax-M2.5 es un modelo insignia de código abierto de gran tamaño de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son las capacidades de programación multilingüe y la habilidad para resolver tareas complejas como un Agente.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Mismo rendimiento que M2.7 con inferencia significativamente más rápida.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Comenzando el camino hacia la mejora recursiva, capacidades de ingeniería de primer nivel en el mundo real.",
+ "MiniMax-M2.7.description": "Primer modelo autoevolutivo con rendimiento de primer nivel en programación y tareas agentivas (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Modelo de la generación anterior.",
"MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 es un modelo de razonamiento híbrido de atención a gran escala con pesos abiertos, con un total de 456 mil millones de parámetros y ~45.9 mil millones activos por token. Admite de forma nativa un contexto de 1 millón y utiliza Flash Attention para reducir los FLOPs en un 75% en generación de 100K tokens frente a DeepSeek R1. Con una arquitectura MoE más CISPO y entrenamiento RL de atención híbrida, logra un rendimiento líder en razonamiento de entradas largas y tareas reales de ingeniería de software.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo MoE de primer nivel con 1 billón de parámetros totales y 32 mil millones activos. Sus características clave incluyen mayor inteligencia en programación con agentes, mejoras significativas en pruebas de referencia y tareas reales de agentes, además de una estética y usabilidad mejoradas en programación frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo es la variante Turbo optimizada para velocidad de razonamiento y rendimiento, manteniendo el razonamiento de múltiples pasos y uso de herramientas de K2 Thinking. Es un modelo MoE con aproximadamente 1 billón de parámetros totales, contexto nativo de 256K y llamadas a herramientas estables a gran escala para escenarios de producción con necesidades estrictas de latencia y concurrencia.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 es un modelo agente multimodal nativo de código abierto, basado en Kimi-K2-Base, entrenado con aproximadamente 1.5 billones de tokens mixtos de visión y texto. El modelo adopta una arquitectura MoE con 1T de parámetros totales y 32B de parámetros activos, soportando una ventana de contexto de 256K, integrando de forma fluida capacidades de comprensión visual y lingüística.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 es un modelo insignia de nueva generación diseñado para ingeniería agentiva, utilizando una arquitectura Mixture of Experts (MoE) con 754B parámetros. Mejora significativamente las capacidades de programación, logrando resultados líderes en SWE-Bench Pro y superando ampliamente a su predecesor en benchmarks como NL2Repo y Terminal-Bench 2.0. Diseñado para tareas agentivas de larga duración, maneja preguntas ambiguas con mejor criterio, descompone tareas complejas, ejecuta experimentos, analiza resultados y optimiza continuamente a través de cientos de iteraciones y miles de llamadas a herramientas.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu con un total de 355 mil millones de parámetros y 32 mil millones de parámetros activos, completamente mejorado en diálogo general, razonamiento y capacidades de agentes. GLM-4.7 mejora el Pensamiento Intercalado e introduce Pensamiento Preservado y Pensamiento a Nivel de Turno.",
"Pro/zai-org/glm-5.description": "GLM-5 es el modelo de lenguaje grande de próxima generación de Zhipu, enfocado en ingeniería de sistemas complejos y tareas de Agente de larga duración. Los parámetros del modelo se han ampliado a 744 mil millones (40 mil millones activos) e integran DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 está optimizado para razonamiento avanzado y seguimiento de instrucciones, utilizando MoE para mantener la eficiencia del razonamiento a gran escala.",
"Qwen3-235B.description": "Qwen3-235B-A22B es un modelo MoE que introduce un modo de razonamiento híbrido, permitiendo a los usuarios cambiar sin problemas entre pensamiento y no pensamiento. Admite comprensión y razonamiento en 119 idiomas y dialectos, y tiene sólidas capacidades de llamada a herramientas, compitiendo con modelos como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 y Google Gemini 2.5 Pro en benchmarks de capacidad general, código y matemáticas, capacidad multilingüe y razonamiento de conocimiento.",
"Qwen3-32B.description": "Qwen3-32B es un modelo denso que introduce un modo de razonamiento híbrido, permitiendo a los usuarios cambiar entre pensamiento y no pensamiento. Con mejoras en la arquitectura, más datos y mejor entrenamiento, su rendimiento es comparable al de Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus soporta entrada de texto, imagen y video. Su rendimiento en tareas de solo texto es comparable al de Qwen3 Max, con mejor rendimiento y menor costo. Sus capacidades multimodales mejoran significativamente frente a la serie Qwen3 VL.",
"S2V-01.description": "El modelo base de referencia a video de la serie 01.",
"SenseChat-128K.description": "Base V4 con contexto de 128K, excelente en comprensión y generación de textos largos.",
"SenseChat-32K.description": "Base V4 con contexto de 32K, flexible para múltiples escenarios.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad extraordinaria y razonamiento ampliado.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y capaz de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
- "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más poderoso de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, con excelencia en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
- "claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y codificación.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para crear agentes y programar.",
"claude-opus-4.5.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia de primer nivel con un rendimiento escalable para tareas complejas de razonamiento de alta calidad.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
"claude-opus-4.6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento extendido paso a paso con control detallado para usuarios de API.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede producir respuestas casi instantáneas o razonamientos extendidos paso a paso con proceso visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 ofrece la mejor combinación de velocidad e inteligencia de Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 puede producir respuestas casi instantáneas o razonamientos detallados paso a paso que los usuarios pueden observar. Los usuarios de la API pueden controlar con precisión cuánto tiempo piensa el modelo.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo de razonamiento de próxima generación con capacidades mejoradas de razonamiento complejo y cadenas de pensamiento.",
- "deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. Los puntos de referencia públicos alcanzan niveles de GPT-5, y es el primero en integrar el pensamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
+ "deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo de chat y la sólida capacidad de codificación del modelo coder, con mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las salidas para mayor precisión, con resultados de competencia superiores y razonamiento comparable a Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
"ernie-x1.1.description": "ERNIE X1.1 es un modelo de pensamiento en vista previa para evaluación y pruebas.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, soporta edición y composición de múltiples imágenes. Presenta consistencia mejorada de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado de texto-imagen de alta precisión.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, soporta entradas de texto e imagen para generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed, compatible con entrada de texto e imagen y con generación de imágenes de alta calidad y alto nivel de control. Genera imágenes a partir de indicaciones textuales.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
- "fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen, que soporta ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
- "fal-ai/qwen-image.description": "Un modelo poderoso de generación de imágenes del equipo Qwen con fuerte renderizado de texto en chino y estilos visuales diversos.",
+ "fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen que admite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
+ "fal-ai/qwen-image.description": "Modelo de generación de imágenes potente del equipo Qwen, con excelente renderizado de texto en chino y diversos estilos visuales.",
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
- "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
+ "flux-dev.description": "Modelo de generación de imágenes de I+D de código abierto, optimizado de forma eficiente para investigación innovadora no comercial.",
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
"flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
- "flux-merged.description": "FLUX.1 [merged] combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
"flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
"flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
"flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
- "flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
"flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) ofrece un rendimiento estable y ajustable para tareas complejas.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) proporciona un sólido soporte multimodal para tareas complejas.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
"gemini-3-flash-preview.description": "Gemini 3 Flash es el modelo más inteligente diseñado para la velocidad, combinando inteligencia de vanguardia con una excelente fundamentación en búsquedas.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google que también admite diálogo multimodal.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también soporta chat multimodal.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también admite chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo de generación de imágenes más rápido de Google con soporte de pensamiento, generación conversacional de imágenes y edición.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte de chat multimodal.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo más rápido de Google para generación de imágenes, con soporte de razonamiento, generación conversacional de imágenes y edición.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview es el modelo multimodal más rentable de Google, optimizado para tareas agentivas de alto volumen, traducción y procesamiento de datos.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview mejora las capacidades de razonamiento de Gemini 3 Pro y añade soporte para un nivel de pensamiento medio.",
"gemini-flash-latest.description": "Última versión de Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Nuestro modelo más potente y avanzado, diseñado para tareas empresariales complejas con un rendimiento sobresaliente.",
"jamba-mini.description": "El modelo más eficiente de su clase, equilibrando velocidad y calidad con un tamaño reducido.",
"jina-deepsearch-v1.description": "DeepSearch combina búsqueda web, lectura y razonamiento para investigaciones exhaustivas. Funciona como un agente que toma tu tarea de investigación, realiza búsquedas amplias con múltiples iteraciones y luego produce una respuesta. El proceso implica investigación continua, razonamiento y resolución de problemas desde múltiples ángulos, diferenciándose fundamentalmente de los LLM estándar que responden desde datos preentrenados o sistemas RAG tradicionales que dependen de búsquedas superficiales de una sola vez.",
- "k2p5.description": "Kimi K2.5 es el modelo más versátil de Kimi hasta la fecha, con una arquitectura multimodal nativa que admite tanto entradas de visión como de texto, modos de 'pensamiento' y 'no pensamiento', y tareas tanto conversacionales como de agente.",
"kimi-k2-0711-preview.description": "kimi-k2 es un modelo base MoE con sólidas capacidades de programación y agentes (1T de parámetros totales, 32B activos), superando a otros modelos abiertos en razonamiento, programación, matemáticas y benchmarks de agentes.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview ofrece una ventana de contexto de 256k, codificación agente más sólida, mejor calidad de código frontend y comprensión de contexto mejorada.",
"kimi-k2-instruct.description": "Kimi K2 Instruct es el modelo oficial de razonamiento de Kimi con contexto largo para código, preguntas y respuestas, y más.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas difíciles. QwQ-32B es un modelo de razonamiento de tamaño medio que compite con los mejores modelos como DeepSeek-R1 y o1-mini.",
"qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.",
"r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance soporta texto a video, imagen a video (primer fotograma, primer+último fotograma) y generación de audio sincronizado con visuales.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus presenta generación aumentada con recuperación web para información en tiempo real, interpretación mejorada de indicaciones complejas y consistencia de referencia mejorada para creación visual profesional.",
"solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.",
"solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.",
"solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 es nuestro nuevo modelo poderoso de generación de medios, generando videos con audio sincronizado. Puede crear clips dinámicos y detallados a partir de lenguaje natural o imágenes.",
"spark-x.description": "Resumen de capacidades de X2: 1. Introduce ajuste dinámico del modo de razonamiento, controlado a través del campo `thinking`. 2. Longitud de contexto expandida: 64K tokens de entrada y 128K tokens de salida. 3. Admite funcionalidad de llamada de funciones (Function Call).",
"stable-diffusion-3-medium.description": "El último modelo de texto a imagen de Stability AI. Esta versión mejora significativamente la calidad de imagen, la comprensión del texto y la diversidad de estilos, interpretando indicaciones en lenguaje natural complejas con mayor precisión y generando imágenes más precisas y variadas.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica destilación de difusión adversarial (ADD) a stable-diffusion-3.5-large para mayor velocidad.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large es un modelo de texto a imagen MMDiT con 800 millones de parámetros que ofrece una excelente calidad y alineación con los prompts, compatible con imágenes de 1 megapíxel y ejecución eficiente en hardware de consumo.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 se inicializa desde el checkpoint v1.2 y se afina durante 595k pasos en \"laion-aesthetics v2 5+\" a una resolución de 512x512, reduciendo el condicionamiento de texto en un 10% para mejorar el muestreo sin clasificador.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo se centra en la generación de imágenes de alta calidad con un fuerte nivel de detalle y fidelidad de escena.",
"stable-diffusion-xl-base-1.0.description": "Un modelo de texto a imagen de código abierto de Stability AI con generación creativa de imágenes líder en la industria. Posee una sólida comprensión de instrucciones y admite definiciones inversas de prompts para una generación precisa.",
- "stable-diffusion-xl.description": "stable-diffusion-xl presenta mejoras significativas respecto a la versión v1.5 y alcanza resultados comparables con los mejores modelos de texto a imagen de código abierto. Las mejoras incluyen una red UNet 3 veces más grande, un módulo de refinamiento para mayor calidad de imagen y técnicas de entrenamiento más eficientes.",
"step-1-128k.description": "Equilibra rendimiento y costo para escenarios generales.",
"step-1-256k.description": "Manejo de contexto extra largo, ideal para análisis de documentos extensos.",
"step-1-32k.description": "Admite conversaciones de longitud media para una amplia gama de escenarios.",
diff --git a/locales/es-ES/plugin.json b/locales/es-ES/plugin.json
index d023a6a349..1c76db44b2 100644
--- a/locales/es-ES/plugin.json
+++ b/locales/es-ES/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} parámetros en total",
"arguments.title": "Argumentos",
"builtins.lobe-activator.apiName.activateTools": "Activar Herramientas",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} no encontrado",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtener modelos disponibles",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtener habilidades disponibles",
"builtins.lobe-agent-builder.apiName.getConfig": "Obtener configuración",
diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json
index affafbb68c..b75c255365 100644
--- a/locales/es-ES/providers.json
+++ b/locales/es-ES/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
"kimicodingplan.description": "Kimi Code de Moonshot AI proporciona acceso a los modelos Kimi, incluidos K2.5, para tareas de codificación.",
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
- "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso con Créditos vinculados a los tokens del modelo.",
"longcat.description": "LongCat es una serie de modelos grandes de inteligencia artificial generativa desarrollados de manera independiente por Meituan. Está diseñado para mejorar la productividad interna de la empresa y permitir aplicaciones innovadoras mediante una arquitectura computacional eficiente y sólidas capacidades multimodales.",
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
"minimaxcodingplan.description": "El Plan de Tokens MiniMax proporciona acceso a los modelos MiniMax, incluidos M2.7, para tareas de codificación mediante una suscripción de tarifa fija.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark ofrece IA multilingüe potente en múltiples dominios, habilitando innovaciones en hardware inteligente, salud, finanzas y otros sectores.",
"stepfun.description": "Los modelos Stepfun ofrecen capacidades líderes en razonamiento multimodal y complejo, con comprensión de contexto largo y potente orquestación de búsqueda autónoma.",
"straico.description": "Straico simplifica la integración de la IA al proporcionar un espacio de trabajo unificado que reúne los mejores modelos generativos de texto, imagen y audio, empoderando a los mercadólogos, emprendedores y entusiastas con acceso fluido a diversas herramientas de IA.",
+ "streamlake.description": "StreamLake es una plataforma empresarial de servicios de modelos y computación en la nube de IA que integra inferencia de modelos de alto rendimiento, personalización de modelos de bajo costo y servicios completamente gestionados, para ayudar a las empresas a centrarse en la innovación de aplicaciones de IA sin preocuparse por la complejidad y el costo de los recursos de computación subyacentes.",
"taichu.description": "Un modelo multimodal de nueva generación de CASIA y el Instituto de IA de Wuhan, que admite preguntas y respuestas multivuelta, redacción, generación de imágenes, comprensión 3D y análisis de señales con mayor cognición y creatividad.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power proporciona preguntas y respuestas de conocimiento de extremo a extremo para empresas y desarrolladores, con servicios modulares como análisis de documentos, segmentación, embeddings y reescritura multivuelta para crear soluciones de IA personalizadas.",
"togetherai.description": "Together AI ofrece rendimiento líder con modelos innovadores, amplia personalización, escalado rápido y despliegue sencillo para necesidades empresariales.",
diff --git a/locales/es-ES/setting.json b/locales/es-ES/setting.json
index 7bf39d6ad0..c3b7b9f6a6 100644
--- a/locales/es-ES/setting.json
+++ b/locales/es-ES/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Herramientas del sistema",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - herramienta rápida para buscar código",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI de automatización de navegadores sin cabeza para agentes de IA",
+ "settingSystemTools.tools.bun.desc": "Bun: un entorno de ejecución de JavaScript y gestor de paquetes rápido",
+ "settingSystemTools.tools.bunx.desc": "bunx: ejecutor de paquetes de Bun para ejecutar paquetes de npm",
"settingSystemTools.tools.fd.desc": "fd - alternativa rápida y fácil de usar a find",
"settingSystemTools.tools.find.desc": "find de Unix - comando estándar para búsqueda de archivos",
"settingSystemTools.tools.grep.desc": "GNU grep - herramienta estándar para búsqueda de texto",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI: gestiona y conecta con los servicios de LobeHub",
"settingSystemTools.tools.mdfind.desc": "Búsqueda Spotlight de macOS (búsqueda indexada rápida)",
"settingSystemTools.tools.node.desc": "Node.js - entorno de ejecución JavaScript para JS/TS",
"settingSystemTools.tools.npm.desc": "npm - gestor de paquetes Node.js para instalar dependencias",
+ "settingSystemTools.tools.pnpm.desc": "pnpm: un gestor de paquetes rápido y eficiente en el uso de espacio en disco",
"settingSystemTools.tools.python.desc": "Python - entorno de ejecución del lenguaje de programación",
"settingSystemTools.tools.rg.desc": "ripgrep - herramienta de búsqueda de texto extremadamente rápida",
+ "settingSystemTools.tools.uv.desc": "uv: un gestor de paquetes de Python extremadamente rápido",
"settingTTS.openai.sttModel": "Modelo de Reconocimiento de Voz de OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Modelo de Texto a Voz de OpenAI",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modelo",
"systemAgent.inputCompletion.modelDesc": "Modelo utilizado para sugerencias de autocompletado de entrada (como el texto fantasma de GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agente de Autocompletado de Entrada",
+ "systemAgent.promptRewrite.label": "Modelo",
+ "systemAgent.promptRewrite.modelDesc": "Especifica el modelo utilizado para reescribir indicaciones",
+ "systemAgent.promptRewrite.title": "Agente de Reescritura de Indicaciones",
"systemAgent.queryRewrite.label": "Modelo",
"systemAgent.queryRewrite.modelDesc": "Especifica el modelo usado para optimizar las consultas del usuario",
"systemAgent.queryRewrite.title": "Agente de Reescritura de Consultas",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Sube un archivo local .zip o .skill",
"tab.usage": "Estadísticas de Uso",
"tools.add": "Agregar Habilidad",
+ "tools.builtins.find-skills.description": "Ayuda a los usuarios a descubrir e instalar habilidades de agentes cuando preguntan \"¿cómo hago X?\", \"encuentra una habilidad para X\" o quieren ampliar capacidades",
+ "tools.builtins.find-skills.title": "Buscar Habilidades",
"tools.builtins.groupName": "Integradas",
"tools.builtins.install": "Instalar",
"tools.builtins.installed": "Instalado",
+ "tools.builtins.lobe-activator.description": "Descubre y activa herramientas y habilidades",
+ "tools.builtins.lobe-activator.title": "Activador de Herramientas y Habilidades",
+ "tools.builtins.lobe-agent-browser.description": "CLI de automatización del navegador para agentes de IA. Úsalo cuando las tareas involucren interacción con sitios web o Electron, como navegación, relleno de formularios, clics, capturas de pantalla, extracción de datos, flujos de inicio de sesión y pruebas completas de aplicaciones.",
+ "tools.builtins.lobe-agent-browser.title": "Navegador de Agente",
+ "tools.builtins.lobe-agent-builder.description": "Configura los metadatos del agente, los ajustes del modelo, los plugins y la indicación del sistema",
+ "tools.builtins.lobe-agent-builder.title": "Constructor de Agentes",
+ "tools.builtins.lobe-agent-documents.description": "Gestiona documentos asociados al agente (listar, crear, leer, editar, eliminar, renombrar) y reglas de carga",
+ "tools.builtins.lobe-agent-documents.title": "Documentos",
+ "tools.builtins.lobe-agent-management.description": "Crea, gestiona y orquesta agentes de IA",
+ "tools.builtins.lobe-agent-management.title": "Gestión de Agentes",
"tools.builtins.lobe-artifacts.description": "Genera y previsualiza en vivo componentes de interfaz interactivos, visualizaciones de datos, gráficos, imágenes SVG y aplicaciones web. Crea contenido visual enriquecido con el que los usuarios pueden interactuar directamente.",
"tools.builtins.lobe-artifacts.readme": "Genera y previsualiza en vivo componentes de interfaz interactivos, visualizaciones de datos, gráficos, SVG y aplicaciones web. Crea contenido visual enriquecido con el que los usuarios pueden interactuar directamente.",
"tools.builtins.lobe-artifacts.title": "Artefactos",
+ "tools.builtins.lobe-brief.description": "Reporta progreso, entrega resultados y solicita decisiones del usuario",
+ "tools.builtins.lobe-brief.title": "Herramientas de Informe",
"tools.builtins.lobe-calculator.description": "Realiza cálculos matemáticos, resuelve ecuaciones y trabaja con expresiones simbólicas",
"tools.builtins.lobe-calculator.readme": "Calculadora matemática avanzada que admite aritmética básica, ecuaciones algebraicas, operaciones de cálculo y matemáticas simbólicas. Incluye conversión de bases, resolución de ecuaciones, diferenciación, integración y más.",
"tools.builtins.lobe-calculator.title": "Calculadora",
"tools.builtins.lobe-cloud-sandbox.description": "Ejecuta código en Python, JavaScript y TypeScript en un entorno aislado en la nube. Ejecuta comandos de terminal, gestiona archivos, busca contenido con expresiones regulares y exporta resultados de forma segura.",
"tools.builtins.lobe-cloud-sandbox.readme": "Ejecuta código en Python, JavaScript y TypeScript en un entorno aislado en la nube. Ejecuta comandos de terminal, gestiona archivos, busca contenido con expresiones regulares y exporta resultados de forma segura.",
"tools.builtins.lobe-cloud-sandbox.title": "Sandbox en la Nube",
+ "tools.builtins.lobe-creds.description": "Gestiona credenciales de usuario para autenticación, inyección de variables de entorno y verificación de API — administra claves API, tokens OAuth y secretos para integraciones de terceros.",
+ "tools.builtins.lobe-creds.title": "Credenciales",
+ "tools.builtins.lobe-cron.description": "Gestiona tareas programadas que se ejecutan automáticamente en horarios específicos. Crea, actualiza, habilita/deshabilita y supervisa tareas recurrentes para tus agentes.",
+ "tools.builtins.lobe-cron.title": "Tareas Programadas",
+ "tools.builtins.lobe-group-agent-builder.description": "Configura metadatos del grupo, miembros y contenido compartido para grupos multiagente",
+ "tools.builtins.lobe-group-agent-builder.title": "Constructor de Agentes de Grupo",
+ "tools.builtins.lobe-group-management.description": "Orquesta y gestiona conversaciones de grupos multiagente",
+ "tools.builtins.lobe-group-management.title": "Gestión de Grupos",
"tools.builtins.lobe-gtd.description": "Planifica objetivos y haz seguimiento del progreso utilizando la metodología GTD. Crea planes estratégicos, gestiona listas de tareas con seguimiento de estado y ejecuta tareas asincrónicas de larga duración.",
"tools.builtins.lobe-gtd.readme": "Planifica objetivos y haz seguimiento del progreso utilizando la metodología GTD. Crea planes estratégicos, gestiona listas de tareas con seguimiento de estado y ejecuta tareas asíncronas de larga duración.",
"tools.builtins.lobe-gtd.title": "Herramientas GTD",
+ "tools.builtins.lobe-knowledge-base.description": "Busca documentos cargados y conocimiento de dominio mediante búsqueda semántica vectorial — para referencia persistente y reutilizable",
+ "tools.builtins.lobe-knowledge-base.title": "Base de Conocimiento",
"tools.builtins.lobe-local-system.description": "Accede a tu sistema de archivos local en el escritorio. Lee, escribe, busca y organiza archivos. Ejecuta comandos de terminal con soporte para tareas en segundo plano y busca contenido con patrones regex.",
"tools.builtins.lobe-local-system.readme": "Accede a tu sistema de archivos local desde el escritorio. Lee, escribe, busca y organiza archivos. Ejecuta comandos de terminal con soporte para tareas en segundo plano y busca contenido con patrones regex.",
"tools.builtins.lobe-local-system.title": "Sistema Local",
+ "tools.builtins.lobe-message.description": "Envía, lee, edita y gestiona mensajes a través de múltiples plataformas de mensajería con una interfaz unificada",
+ "tools.builtins.lobe-message.readme": "Herramienta de mensajería multiplataforma compatible con Discord, Telegram, Slack, Google Chat e IRC. Proporciona APIs unificadas para operaciones de mensajes, reacciones, fijados, hilos, gestión de canales y funciones específicas de cada plataforma como encuestas.",
+ "tools.builtins.lobe-message.title": "Mensaje",
"tools.builtins.lobe-notebook.description": "Crea y gestiona documentos persistentes dentro de temas de conversación. Guarda notas, informes, artículos y contenido en markdown accesible entre sesiones.",
"tools.builtins.lobe-notebook.readme": "Crea y gestiona documentos persistentes dentro de temas de conversación. Guarda notas, informes, artículos y contenido en markdown accesible entre sesiones.",
"tools.builtins.lobe-notebook.title": "Cuaderno",
+ "tools.builtins.lobe-page-agent.description": "Crea, lee, actualiza y elimina nodos en documentos estructurados en XML",
+ "tools.builtins.lobe-page-agent.readme": "Crea y edita documentos estructurados con control preciso a nivel de nodo. Inicializa desde Markdown, realiza operaciones masivas de inserción/modificación/eliminación y busca y reemplaza texto en documentos.",
+ "tools.builtins.lobe-page-agent.title": "Documento",
+ "tools.builtins.lobe-remote-device.description": "Descubre y gestiona conexiones de dispositivos de escritorio remotos",
+ "tools.builtins.lobe-remote-device.readme": "Gestiona conexiones con tus dispositivos de escritorio. Lista dispositivos en línea, activa un dispositivo para operaciones remotas y verifica el estado de la conexión.",
+ "tools.builtins.lobe-remote-device.title": "Dispositivo Remoto",
+ "tools.builtins.lobe-skill-store.description": "Explora e instala habilidades de agentes desde el marketplace de LobeHub. Úsalo cuando necesites capacidades ampliadas o quieras instalar una habilidad específica.",
+ "tools.builtins.lobe-skill-store.title": "Tienda de Habilidades",
+ "tools.builtins.lobe-skills.description": "Activa y utiliza paquetes de habilidades reutilizables",
+ "tools.builtins.lobe-skills.title": "Habilidades",
+ "tools.builtins.lobe-task.description": "Crea, lista, edita y elimina tareas con dependencias y configuración de revisión",
+ "tools.builtins.lobe-task.title": "Herramientas de Tareas",
+ "tools.builtins.lobe-topic-reference.description": "Recupera contexto de conversaciones de temas referenciados",
+ "tools.builtins.lobe-topic-reference.title": "Referencia de Temas",
+ "tools.builtins.lobe-user-interaction.description": "Realiza preguntas a los usuarios mediante interacciones de la interfaz y observa los resultados de su ciclo de vida",
+ "tools.builtins.lobe-user-interaction.title": "Interacción con el Usuario",
"tools.builtins.lobe-user-memory.description": "Construye una base de conocimiento personalizada sobre ti. Recuerda preferencias, realiza seguimiento de actividades y experiencias, almacena información de identidad y recupera contexto relevante en futuras conversaciones.",
"tools.builtins.lobe-user-memory.readme": "Construye una base de conocimiento personalizada sobre ti. Recuerda preferencias, registra actividades y experiencias, almacena información de identidad y recupera contexto relevante en futuras conversaciones.",
"tools.builtins.lobe-user-memory.title": "Memoria",
+ "tools.builtins.lobe-web-browsing.description": "Busca en la web información actual y rastrea páginas web para extraer contenido. Compatible con múltiples motores de búsqueda, categorías y rangos de tiempo.",
+ "tools.builtins.lobe-web-browsing.readme": "Busca en la web información actual y rastrea páginas web para extraer contenido. Admite múltiples motores de búsqueda, categorías y rangos de tiempo para una investigación completa.",
+ "tools.builtins.lobe-web-browsing.title": "Navegación Web",
+ "tools.builtins.lobe-web-onboarding.description": "Gestiona el flujo de incorporación web con un entorno de agente controlado",
+ "tools.builtins.lobe-web-onboarding.title": "Incorporación Web",
+ "tools.builtins.lobehub.description": "Gestiona la plataforma LobeHub mediante CLI: bases de conocimiento, memoria, agentes, archivos, búsqueda, generación y más.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "No instalado",
+ "tools.builtins.task.description": "Gestión y ejecución de tareas: crea, supervisa, revisa y completa tareas mediante CLI.",
+ "tools.builtins.task.title": "Tarea",
"tools.builtins.uninstall": "Desinstalar",
"tools.builtins.uninstallConfirm.desc": "¿Estás seguro de que deseas desinstalar {{name}}? Esta habilidad se eliminará del agente actual.",
"tools.builtins.uninstallConfirm.title": "Desinstalar {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "¿Desconectar {{name}}?",
"tools.lobehubSkill.disconnected": "Desconectado",
"tools.lobehubSkill.error": "Error",
+ "tools.lobehubSkill.providers.github.description": "GitHub es una plataforma para control de versiones y colaboración que permite a los desarrolladores alojar, revisar y gestionar repositorios de código.",
+ "tools.lobehubSkill.providers.github.readme": "Conéctate a GitHub para acceder a tus repositorios, crear y gestionar issues, revisar pull requests y colaborar en código, todo mediante conversación natural con tu asistente de IA.",
"tools.lobehubSkill.providers.linear.description": "Linear es una herramienta moderna de seguimiento de incidencias y gestión de proyectos diseñada para equipos de alto rendimiento que desean desarrollar software mejor y más rápido",
"tools.lobehubSkill.providers.linear.readme": "Lleva el poder de Linear directamente a tu asistente de IA. Crea y actualiza incidencias, gestiona sprints, sigue el progreso de proyectos y optimiza tu flujo de desarrollo mediante conversación natural.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar es una herramienta de programación integrada en Microsoft Outlook que permite a los usuarios crear citas, organizar reuniones y gestionar su tiempo y eventos de forma eficaz.",
"tools.lobehubSkill.providers.microsoft.readme": "Integra con Outlook Calendar para ver, crear y gestionar tus eventos sin complicaciones. Programa reuniones, consulta disponibilidad, establece recordatorios y organiza tu tiempo mediante comandos en lenguaje natural.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) es una plataforma de redes sociales para compartir actualizaciones en tiempo real, noticias y conectar con tu audiencia mediante publicaciones, respuestas y mensajes directos.",
"tools.lobehubSkill.providers.twitter.readme": "Conéctate con X (Twitter) para publicar tuits, gestionar tu cronología e interactuar con tu audiencia. Crea contenido, programa publicaciones, monitorea menciones y fortalece tu presencia en redes sociales mediante IA conversacional.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel es una plataforma en la nube para desarrolladores frontend que ofrece alojamiento y funciones serverless para desplegar aplicaciones web fácilmente.",
+ "tools.lobehubSkill.providers.vercel.readme": "Conéctate a Vercel para gestionar tus implementaciones, supervisar el estado de tus proyectos y controlar tu infraestructura. Despliega aplicaciones, revisa registros de compilación, gestiona variables de entorno y escala tus proyectos mediante IA conversacional.",
"tools.notInstalled": "No Instalado",
"tools.notInstalledWarning": "Esta habilidad no está instalada actualmente, lo que puede afectar la funcionalidad del agente.",
"tools.plugins.enabled": "Habilitadas: {{num}}",
diff --git a/locales/es-ES/subscription.json b/locales/es-ES/subscription.json
index 1ce4d80614..6c02030dc0 100644
--- a/locales/es-ES/subscription.json
+++ b/locales/es-ES/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Mejorar a",
"credits.topUp.upgradeSuffix": "para ahorrar ${{savings}}",
"credits.topUp.validityInfo": "Validez de {{months}} meses",
+ "crossPlatform.desc": "Esta suscripción fue adquirida a través de la aplicación móvil y no se puede modificar aquí. Por favor, gestiona tu suscripción en tu dispositivo móvil.",
+ "crossPlatform.manageOnMobile": "Gestionar en el dispositivo móvil",
+ "crossPlatform.title": "Suscripción Multiplataforma",
"currentPlan.cancelAlert": "La suscripción se cancelará después del {{canceledAt}}. Aún puedes restaurarla en \"Gestionar Suscripción\" antes de esa fecha",
"currentPlan.downgradeAlert": "Se degradará a {{plan}} después del {{downgradedAt}}.",
"currentPlan.management": "Gestionar Suscripción",
diff --git a/locales/es-ES/video.json b/locales/es-ES/video.json
index 776f2473ea..2d19893a1a 100644
--- a/locales/es-ES/video.json
+++ b/locales/es-ES/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Fotograma inicial",
"config.prompt.placeholder": "Describe el vídeo que deseas generar",
"config.prompt.placeholderWithRef": "Describe la escena que deseas generar con la imagen",
+ "config.promptExtend.label": "Extensión de indicaciones",
"config.referenceImage.label": "Imagen de referencia",
"config.resolution.label": "Resolución",
"config.seed.label": "Semilla",
"config.seed.random": "Aleatorio",
"config.size.label": "Tamaño",
+ "config.watermark.label": "Marca de agua",
+ "config.webSearch.label": "Búsqueda web",
"generation.actions.copyError": "Copiar mensaje de error",
"generation.actions.errorCopied": "Mensaje de error copiado al portapapeles",
"generation.actions.errorCopyFailed": "No se pudo copiar el mensaje de error",
diff --git a/locales/fa-IR/agent.json b/locales/fa-IR/agent.json
index 4fd82c5b08..c5b57a1499 100644
--- a/locales/fa-IR/agent.json
+++ b/locales/fa-IR/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "ربات با موفقیت متصل شد",
"channel.connecting": "در حال اتصال...",
"channel.connectionConfig": "پیکربندی اتصال",
+ "channel.connectionMode": "حالت اتصال",
+ "channel.connectionModeHint": "وبسوکت برای رباتهای جدید توصیه میشود. اگر ربات شما از قبل یک نشانی callback در پلتفرم QQ Open دارد، از وبهوک استفاده کنید.",
+ "channel.connectionModeWebSocket": "وبسوکت",
+ "channel.connectionModeWebhook": "وبهوک",
"channel.copied": "به کلیپبورد کپی شد",
"channel.copy": "کپی",
"channel.credentials": "اعتبارنامهها",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "لطفاً این آدرس را کپی کرده و در قسمت {{fieldName}} در پورتال توسعهدهنده {{name}} وارد کنید.",
"channel.exportConfig": "صادرات تنظیمات",
"channel.feishu.description": "این دستیار را به Feishu برای چتهای خصوصی و گروهی متصل کنید.",
+ "channel.feishu.webhookMigrationDesc": "حالت وبسوکت بدون نیاز به یک نشانی callback عمومی، تحویل آنی رویدادها را فراهم میکند. برای مهاجرت، در تنظیمات پیشرفته حالت اتصال را به وبسوکت تغییر دهید. هیچ تنظیم اضافهای در پلتفرم Feishu/Lark لازم نیست.",
+ "channel.feishu.webhookMigrationTitle": "مهاجرت به حالت وبسوکت را در نظر بگیرید",
"channel.historyLimit": "محدودیت پیامهای تاریخچه",
"channel.historyLimitHint": "تعداد پیشفرض پیامهایی که هنگام خواندن تاریخچه کانال دریافت میشوند",
"channel.importConfig": "وارد کردن تنظیمات",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "برای تأیید تعامل مورد نیاز است",
"channel.qq.appIdHint": "شناسه برنامه ربات QQ شما از پلتفرم باز QQ",
"channel.qq.description": "این دستیار را به QQ متصل کنید برای چتهای گروهی و پیامهای مستقیم.",
+ "channel.qq.webhookMigrationDesc": "حالت وبسوکت بدون نیاز به نشانی callback، تحویل آنی رویدادها و اتصال مجدد خودکار را فراهم میکند. برای مهاجرت، یک ربات جدید در پلتفرم QQ Open بدون پیکربندی نشانی callback ایجاد کرده و سپس در تنظیمات پیشرفته حالت اتصال را به وبسوکت تغییر دهید.",
+ "channel.qq.webhookMigrationTitle": "مهاجرت به حالت وبسوکت را در نظر بگیرید",
"channel.removeChannel": "حذف کانال",
"channel.removeFailed": "حذف کانال ناموفق بود",
"channel.removed": "کانال حذف شد",
@@ -93,7 +101,11 @@
"channel.signingSecret": "رمز امضا",
"channel.signingSecretHint": "برای تأیید درخواستهای وبهوک استفاده میشود.",
"channel.slack.appIdHint": "شناسه برنامه Slack شما از داشبورد API Slack (با A شروع میشود).",
+ "channel.slack.appToken": "توکن سطح برنامه",
+ "channel.slack.appTokenHint": "برای حالت Socket (وبسوکت) الزامی است. یک توکن سطح برنامه (xapp-...) در بخش اطلاعات پایه در تنظیمات برنامه Slack خود ایجاد کنید.",
"channel.slack.description": "این دستیار را به Slack متصل کنید برای مکالمات کانالی و پیامهای مستقیم.",
+ "channel.slack.webhookMigrationDesc": "حالت Socket بدون نیاز به یک نقطه پایانی HTTP عمومی، تحویل آنی رویدادها را از طریق وبسوکت فراهم میکند. برای مهاجرت، حالت Socket را در تنظیمات برنامه Slack فعال کنید، یک توکن سطح برنامه ایجاد کنید، سپس در تنظیمات پیشرفته حالت اتصال را به وبسوکت تغییر دهید.",
+ "channel.slack.webhookMigrationTitle": "مهاجرت به حالت Socket (وبسوکت) را در نظر بگیرید",
"channel.telegram.description": "این دستیار را به Telegram برای چتهای خصوصی و گروهی متصل کنید.",
"channel.testConnection": "آزمایش اتصال",
"channel.testFailed": "آزمایش اتصال ناموفق بود",
diff --git a/locales/fa-IR/chat.json b/locales/fa-IR/chat.json
index 4f148d2e3a..f69e44ca97 100644
--- a/locales/fa-IR/chat.json
+++ b/locales/fa-IR/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "گروه با موفقیت حذف شد",
"confirmRemoveSessionItemAlert": "در حال حذف این عامل هستید. پس از حذف، قابل بازیابی نیست. لطفاً اقدام خود را تأیید کنید.",
"confirmRemoveSessionSuccess": "عامل با موفقیت حذف شد",
+ "createModal.createBlank": "ایجاد مورد خالی",
+ "createModal.groupPlaceholder": "توضیح دهید این گروه چه کاری باید انجام دهد...",
+ "createModal.groupTitle": "گروه شما باید چه کاری انجام دهد؟",
+ "createModal.placeholder": "توضیح دهید عامل شما چه کاری باید انجام دهد...",
+ "createModal.title": "عامل شما باید چه کاری انجام دهد؟",
"defaultAgent": "عامل پیشفرض",
"defaultGroupChat": "گروه",
"defaultList": "فهرست پیشفرض",
@@ -229,6 +234,7 @@
"operation.contextCompression": "متن بیش از حد طولانی است، در حال فشردهسازی تاریخچه...",
"operation.execAgentRuntime": "در حال آمادهسازی پاسخ",
"operation.execClientTask": "در حال اجرای وظیفه",
+ "operation.execServerAgentRuntime": "در حال اجرا… میتوانید کار را عوض کنید یا صفحه را ببندید — وظیفه همچنان ادامه خواهد داشت.",
"operation.sendMessage": "در حال ارسال پیام",
"owner": "مالک گروه",
"pageCopilot.title": "نماینده صفحه",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "در حال دریافت جزئیات...",
"task.status.initializing": "در حال آغاز وظیفه...",
"task.subtask": "زیرکار",
+ "task.title": "وظایف",
"thread.divider": "زیرموضوع",
"thread.threadMessageCount": "{{messageCount}} پیام",
"thread.title": "زیرموضوع",
@@ -429,9 +436,11 @@
"toolAuth.title": "مجازسازی مهارتها برای این نماینده",
"topic.checkOpenNewTopic": "موضوع جدیدی آغاز شود؟",
"topic.checkSaveCurrentMessages": "آیا میخواهید گفتگوی فعلی را بهعنوان یک موضوع ذخیره کنید؟",
+ "topic.defaultTitle": "موضوع بدون عنوان",
"topic.openNewTopic": "باز کردن موضوع جدید",
"topic.recent": "موضوعات اخیر",
"topic.saveCurrentMessages": "ذخیره گفتگوی فعلی بهعنوان موضوع",
+ "topic.viewAll": "نمایش همه موضوعات",
"translate.action": "ترجمه",
"translate.clear": "پاک کردن ترجمه",
"tts.action": "تبدیل متن به گفتار",
diff --git a/locales/fa-IR/common.json b/locales/fa-IR/common.json
index 9366746864..b9f2799060 100644
--- a/locales/fa-IR/common.json
+++ b/locales/fa-IR/common.json
@@ -343,10 +343,19 @@
"mail.support": "پشتیبانی ایمیلی",
"more": "بیشتر",
"navPanel.agent": "نماینده",
+ "navPanel.customizeSidebar": "سفارشیسازی نوار کناری",
"navPanel.displayItems": "موارد نمایشی",
+ "navPanel.hidden": "پنهان",
+ "navPanel.hideSection": "پنهان کردن بخش",
"navPanel.library": "کتابخانه",
+ "navPanel.moveDown": "انتقال به پایین",
+ "navPanel.moveUp": "انتقال به بالا",
+ "navPanel.pinned": "سنشده",
"navPanel.searchAgent": "جستجوی نماینده...",
+ "navPanel.searchRecent": "جستوجوی موارد اخیر...",
"navPanel.searchResultEmpty": "نتیجهای یافت نشد",
+ "navPanel.show": "نمایش",
+ "navPanel.visible": "نمایان",
"new": "جدید",
"noContent": "محتوایی وجود ندارد",
"oauth": "ورود با SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "از ما حمایت کنید",
"productHunt.description": "در Product Hunt از ما حمایت کنید. حمایت شما برای ما بسیار ارزشمند است!",
"productHunt.title": "ما در Product Hunt هستیم!",
+ "promptTransform.action": "بهبود ایده",
+ "promptTransform.actions.rewrite": "گسترش جزئیات",
+ "promptTransform.actions.translate": "ترجمه",
+ "promptTransform.status.rewrite": "در حال گسترش جزئیات...",
+ "promptTransform.status.translate": "در حال ترجمه...",
+ "recents": "موارد اخیر",
"regenerate": "تولید مجدد",
"releaseNotes": "جزئیات نسخه",
"rename": "تغییر نام",
@@ -400,6 +415,7 @@
"tab.audio": "صوت",
"tab.chat": "گفتوگو",
"tab.community": "جامعه",
+ "tab.create": "ایجاد",
"tab.discover": "کشف",
"tab.eval": "آزمایشگاه ارزیابی",
"tab.files": "فایلها",
diff --git a/locales/fa-IR/image.json b/locales/fa-IR/image.json
index 985a8d55cb..2d3be3f8d6 100644
--- a/locales/fa-IR/image.json
+++ b/locales/fa-IR/image.json
@@ -12,6 +12,7 @@
"config.model.label": "مدل",
"config.prompt.placeholder": "توصیف کنید که چه چیزی میخواهید تولید شود",
"config.prompt.placeholderWithRef": "توضیح دهید که چگونه میخواهید تصویر را تنظیم کنید",
+ "config.promptExtend.label": "گسترش پرامپت",
"config.quality.label": "کیفیت تصویر",
"config.quality.options.hd": "وضوح بالا",
"config.quality.options.standard": "استاندارد",
@@ -24,6 +25,8 @@
"config.size.label": "اندازه",
"config.steps.label": "مراحل",
"config.title": "پیکربندی",
+ "config.watermark.label": "واترمارک",
+ "config.webSearch.label": "جستجوی وب",
"config.width.label": "عرض",
"generation.actions.applySeed": "اعمال بذر",
"generation.actions.copyError": "کپی پیام خطا",
diff --git a/locales/fa-IR/labs.json b/locales/fa-IR/labs.json
index 04c3c81f5f..11376ef372 100644
--- a/locales/fa-IR/labs.json
+++ b/locales/fa-IR/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "نمایش گروهی پیامهای عامل و نتایج ابزارهای فراخوانیشده بهصورت یکجا",
"features.assistantMessageGroup.title": "گروهبندی پیامهای عامل",
+ "features.gatewayMode.desc": "اجرای وظایف ایجنت روی سرور از طریق وبسوکت Gateway بهجای اجرای محلی. این کار سرعت اجرا را افزایش داده و مصرف منابع در دستگاه کاربر را کاهش میدهد.",
+ "features.gatewayMode.title": "اجرای ایجنت در سمت سرور (Gateway)",
"features.groupChat.desc": "فعالسازی هماهنگی گفتوگوی گروهی چندعاملی.",
"features.groupChat.title": "گفتوگوی گروهی (چندعاملی)",
"features.inputMarkdown.desc": "نمایش زنده Markdown در ناحیه ورودی (متن پررنگ، بلوکهای کد، جدولها و غیره).",
diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json
index cadf258cea..8864c1606b 100644
--- a/locales/fa-IR/models.json
+++ b/locales/fa-IR/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "مدلی پیشرو در چین که در وظایف زبان چینی مانند دانش، متون بلند و تولید خلاقانه از مدلهای مطرح خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندوجهی پیشرفته با نتایج قوی در آزمونهای معتبر است.",
"Baichuan4.description": "عملکرد برتر داخلی که در وظایف زبان چینی مانند دانش دایرهالمعارفی، متون بلند و تولید خلاقانه از مدلهای مطرح خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندوجهی پیشرفته و نتایج قوی در آزمونهای معیار است.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS مجموعهای از مدلهای متنباز LLM از ByteDance Seed است که برای مدیریت زمینههای بلند، استدلال، عاملها و تواناییهای عمومی طراحی شدهاند. Seed-OSS-36B-Instruct یک مدل ۳۶ میلیارد پارامتری با تنظیمات دستوری است که بهطور بومی از زمینههای بسیار بلند برای پردازش اسناد یا پایگاههای کد پشتیبانی میکند. این مدل برای استدلال، تولید کد و وظایف عامل (استفاده از ابزار) بهینهسازی شده و در عین حال توانایی عمومی قوی خود را حفظ کرده است. ویژگی کلیدی آن «بودجه تفکر» است که امکان تنظیم طول استدلال برای افزایش کارایی را فراهم میسازد.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR یک مدل زبان-بینایی از DeepSeek AI است که بر OCR و «فشردهسازی نوریِ بافت» تمرکز دارد. این مدل روشهایی را برای فشردهسازی محتوای تصویری بررسی کرده، اسناد را بهصورت کارآمد پردازش میکند و آنها را به متنی ساختیافته (مانند Markdown) تبدیل مینماید. این مدل در شناسایی متن داخل تصاویر دقت بالایی دارد و برای دیجیتالیسازی اسناد، استخراج متن و پردازش ساختیافته بسیار مناسب است.",
"DeepSeek-R1-Distill-Llama-70B.description": "مدل DeepSeek R1 که بزرگتر و هوشمندتر است، در معماری Llama 70B تقطیر شده است. آزمونهای معیار و ارزیابیهای انسانی نشان میدهند که این مدل از نسخه پایه Llama 70B هوشمندتر است، بهویژه در وظایف ریاضی و دقت اطلاعات.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "مدلی تقطیرشده از DeepSeek-R1 بر پایه Qwen2.5-Math-1.5B. با استفاده از یادگیری تقویتی و دادههای شروع سرد، عملکرد استدلال را بهینه کرده و معیارهای جدیدی برای مدلهای متنباز در وظایف چندگانه تعیین کرده است.",
"DeepSeek-R1-Distill-Qwen-14B.description": "مدلهای DeepSeek-R1-Distill از مدلهای متنباز با استفاده از دادههای نمونه تولیدشده توسط DeepSeek-R1 بهصورت دقیق تنظیم شدهاند.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "ارائهدهنده: sophnet. DeepSeek V3 Fast نسخه با نرخ پردازش بالا از DeepSeek V3 0324 است که با دقت کامل (بدون کوانتیزهسازی) عملکرد قویتری در کدنویسی و ریاضی دارد و پاسخهای سریعتری ارائه میدهد.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast نسخه سریع با نرخ پردازش بالا از DeepSeek V3.1 است. حالت تفکر ترکیبی: از طریق قالبهای چت، یک مدل از هر دو حالت تفکر و غیرتفکر پشتیبانی میکند. استفاده هوشمندانهتر از ابزار: پسآموزش عملکرد وظایف ابزار و عامل را بهبود میبخشد.",
"DeepSeek-V3.1-Think.description": "حالت تفکر DeepSeek-V3.1: یک مدل استدلال ترکیبی جدید با حالتهای تفکر و غیرتفکر که کارآمدتر از DeepSeek-R1-0528 است. بهینهسازیهای پسآموزش عملکرد استفاده از ابزار عامل و وظایف عامل را بهطور قابلتوجهی بهبود میبخشد.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 یک سازوکار توجه تنک معرفی میکند که با هدف بهبود کارایی آموزش و استنتاج در پردازش متون طولانی طراحی شده و نسبت به deepseek-v3.1 با قیمت پایینتری ارائه میشود.",
"DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE توسعهیافته توسط DeepSeek است. این مدل در بسیاری از آزمونهای معیار از مدلهای متنباز دیگر مانند Qwen2.5-72B و Llama-3.1-405B پیشی میگیرد و با مدلهای بسته پیشرو مانند GPT-4o و Claude 3.5 Sonnet رقابت میکند.",
"Doubao-lite-128k.description": "Doubao-lite پاسخهای فوقالعاده سریع و ارزش بالاتری ارائه میدهد و گزینههای انعطافپذیری را در سناریوهای مختلف فراهم میسازد. از زمینه ۱۲۸ هزار توکن برای استنتاج و تنظیم دقیق پشتیبانی میکند.",
"Doubao-lite-32k.description": "Doubao-lite پاسخهای فوقالعاده سریع و ارزش بالاتری ارائه میدهد و گزینههای انعطافپذیری را در سناریوهای مختلف فراهم میسازد. از زمینه ۳۲ هزار توکن برای استنتاج و تنظیم دقیق پشتیبانی میکند.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: مدل با عملکرد بالا برای استدلال، کدنویسی و وظایف عامل.",
"GLM-4.6.description": "GLM-4.6: مدل نسل قبلی.",
"GLM-4.7.description": "GLM-4.7 جدیدترین مدل پرچمدار Zhipu است که برای سناریوهای کدنویسی عامل بهبود یافته است و قابلیتهای کدنویسی، برنامهریزی وظایف بلندمدت و همکاری ابزار را ارتقا داده است.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: نسخه بهینهسازی شده GLM-5 با استنتاج سریعتر برای وظایف کدنویسی.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo یک مدل پایه است که برای سناریوهای عاملیتمحور بهینهسازی عمیق شده است. این مدل از مرحلهٔ آموزش برای نیازهای اصلی کارهای عاملها بهینه شده و قابلیتهایی مانند فراخوانی ابزار، پیروی از دستورات و اجرای زنجیرهای طولانی را تقویت کرده است. این مدل برای ساخت دستیارهای عامل با کارایی بالا ایدهآل است.",
"GLM-5.1.description": "GLM-5.1 جدیدترین مدل پرچمدار Zhipu است، نسخهای پیشرفتهتر از GLM-5 با قابلیتهای مهندسی عامل بهبود یافته برای مهندسی سیستمهای پیچیده و وظایف بلندمدت.",
- "GLM-5.description": "GLM-5 مدل پرچمدار نسل بعدی Zhipu است که برای مهندسی عامل طراحی شده است. این مدل بهرهوری قابل اعتمادی را در مهندسی سیستمهای پیچیده و وظایف عامل بلندمدت ارائه میدهد. در قابلیتهای کدنویسی و عامل، GLM-5 عملکرد پیشرفتهای در میان مدلهای متنباز دارد.",
+ "GLM-5.description": "GLM-5 مدل پرچمدار نسل بعدی Zhipu و ویژهٔ مهندسی Agentic است. این مدل بهرهوری قابلاعتمادی را در مهندسی سامانههای پیچیده و وظایف بلندمدت عاملانه ارائه میدهد. در حوزهٔ کدنویسی و قابلیتهای عاملی، GLM-5 عملکردی در سطح پیشرفتهترین مدلهای متنباز دارد. در سناریوهای واقعی برنامهنویسی، تجربهٔ کاربری آن به Claude Opus 4.5 نزدیک میشود. این مدل در مهندسی سامانههای پیچیده و وظایف عاملانهٔ بلندمدت برتری دارد و گزینهای مناسب برای ساخت دستیارهای عامل عمومی است.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) مدلی نوآورانه برای حوزههای متنوع و وظایف پیچیده است.",
"HY-Image-V3.0.description": "قابلیتهای قدرتمند استخراج ویژگیهای تصویر اصلی و حفظ جزئیات، ارائه بافت بصری غنیتر و تولید تصاویر با دقت بالا، ترکیببندی مناسب و کیفیت تولید حرفهای.",
"HelloMeme.description": "HelloMeme یک ابزار هوش مصنوعی برای تولید میم، گیف یا ویدیوهای کوتاه از تصاویر یا حرکاتی است که ارائه میدهید. بدون نیاز به مهارت طراحی یا کدنویسی، تنها با یک تصویر مرجع، محتوایی سرگرمکننده، جذاب و از نظر سبک هماهنگ تولید میکند.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter مدلی برای تولید شخصیت شخصیسازیشده بدون نیاز به تنظیم است که توسط Tencent AI در سال ۲۰۲۵ عرضه شده است. این مدل با هدف تولید شخصیتهایی با دقت بالا و سازگاری در سناریوهای مختلف طراحی شده و میتواند تنها با یک تصویر مرجع، شخصیت را مدلسازی کرده و آن را در سبکها، حرکات و پسزمینههای مختلف منتقل کند.",
"InternVL2-8B.description": "InternVL2-8B یک مدل قدرتمند بینایی-زبان است که از پردازش چندوجهی تصویر-متن پشتیبانی میکند و محتوای تصویر را با دقت شناسایی کرده و توضیحات یا پاسخهای مرتبط تولید میکند.",
"InternVL2.5-26B.description": "InternVL2.5-26B یک مدل قدرتمند بینایی-زبان است که از پردازش چندوجهی تصویر-متن پشتیبانی میکند و محتوای تصویر را با دقت شناسایی کرده و توضیحات یا پاسخهای مرتبط تولید میکند.",
+ "KAT-Coder-Air-V1.description": "نسخهای سبک از سری KAT-Coder که بهطور ویژه برای Agentic Coding طراحی شده است. این مدل طیف کامل وظایف و سناریوهای برنامهنویسی را پوشش میدهد و با بهرهگیری از یادگیری تقویتی مبتنی بر عاملهای گسترده، رفتارهای هوشمند نوظهور را ممکن میسازد و عملکردی فراتر از مدلهای مشابه در کدنویسی ارائه میدهد.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B نسخهٔ تجربی نوآوری مبتنی بر RL در سری KAT-Coder است که عملکرد چشمگیر 74.6٪ را در بنچمارک SWE-Bench verified به دست آورده و رکورد جدیدی برای مدلهای متنباز ثبت کرده است. این مدل بر Agentic Coding متمرکز است و در حال حاضر تنها از چارچوب SWE-Agent پشتیبانی میکند، اما برای مکالمات ساده نیز قابل استفاده است.",
+ "KAT-Coder-Pro-V1.description": "طراحیشده برای Agentic Coding، این مدل طیف کامل کارها و سناریوهای برنامهنویسی را پوشش میدهد و از طریق یادگیری تقویتی گسترده به ظهور رفتارهای هوشمند دست مییابد و نسبت به مدلهای مشابه در عملکرد کدنویسی بهطور قابلتوجهی بهتر عمل میکند.",
+ "KAT-Coder-Pro-V2.description": "جدیدترین مدل پرفورمنسبالای تیم Kuaishou Kwaipilot که برای پروژههای پیچیدهٔ سازمانی و یکپارچهسازی SaaS طراحی شده است. این مدل در سناریوهای مرتبط با کدنویسی برتری دارد، با انواع چارچوبهای عامل (Claude Code، OpenCode، KiloCode) سازگار است، بهطور بومی از OpenClaw پشتیبانی میکند و برای زیباییشناسی صفحات فرانتاند بهینهسازی شده است.",
+ "Kimi-K2.5.description": "Kimi K2.5 قدرتمندترین مدل Kimi است که در کارهای عاملی، کدنویسی و درک بصری عملکردی در سطح SOTA ارائه میدهد. این مدل از ورودی چندوجهی و حالتهای تفکری و غیرفتکری پشتیبانی میکند.",
"Kolors.description": "Kolors یک مدل تبدیل متن به تصویر است که توسط تیم Kolors در Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی چینی و رندر متن عملکرد برجستهای دارد.",
"Kwai-Kolors/Kolors.description": "Kolors یک مدل بزرگ تبدیل متن به تصویر با انتشار نهفته است که توسط تیم Kolors در Kuaishou توسعه یافته است. این مدل با میلیاردها جفت متن-تصویر آموزش دیده و در کیفیت بصری، دقت معنایی پیچیده و رندر متن چینی/انگلیسی عملکرد عالی دارد و در درک و تولید محتوای چینی بسیار قوی است.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) یک مدل متنباز برای وظایف مهندسی نرمافزار است. این مدل با نرخ حل ۶۲.۴٪ در SWE-Bench Verified، در میان مدلهای متنباز رتبه پنجم را دارد. با آموزش میانی، تنظیم با نظارت (SFT) و یادگیری تقویتی (RL) برای تکمیل کد، رفع اشکال و بازبینی کد بهینهسازی شده است.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "مدل زبان کوچک پیشرفته با درک زبانی قوی، استدلال عالی و تولید متن باکیفیت.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 پیشرفتهترین مدل چندزبانه متنباز Llama است که عملکردی نزدیک به مدلهای ۴۰۵B با هزینه بسیار پایین ارائه میدهد. این مدل بر پایه ترنسفورمر ساخته شده و با SFT و RLHF برای کاربردپذیری و ایمنی بهبود یافته است. نسخه تنظیمشده برای گفتگوهای چندزبانه بهینه شده و در ارزیابیهای صنعتی بسیاری از مدلهای باز و بسته را پشت سر گذاشته است. تاریخ قطع دانش: دسامبر ۲۰۲۳.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick یک مدل MoE بزرگ با فعالسازی کارآمد متخصصان برای عملکرد استدلالی قوی است.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro بهطور ویژه برای جریانهای کاری عاملی با شدت بالا در سناریوهای واقعی طراحی شده است. این مدل بیش از یک تریلیون پارامتر کل (۴۲ میلیارد پارامتر فعال) دارد، از معماری توجه ترکیبی نوآورانه بهره میبرد و از طول بافت فوقالعاده بلند تا یک میلیون توکن پشتیبانی میکند. با تکیه بر یک مدل پایهٔ قدرتمند، منابع محاسباتی در دامنهٔ وسیعتری از سناریوهای عاملی گسترش یافته و فضای عمل هوش افزایش یافته و توانایی تعمیم از کدنویسی تا اجرای وظایف واقعی («چنگال/claw») بهشکل چشمگیری بهبود یافته است.",
"MiniMax-Hailuo-02.description": "مدل نسل بعدی تولید ویدئو، MiniMax Hailuo 02، به طور رسمی منتشر شده است، با پشتیبانی از وضوح 1080P و تولید ویدئو 10 ثانیهای.",
"MiniMax-Hailuo-2.3-Fast.description": "مدل جدید تولید ویدئو با ارتقاهای جامع در حرکت بدن، واقعگرایی فیزیکی و پیروی از دستورالعملها.",
"MiniMax-Hailuo-2.3.description": "مدل جدید تولید ویدئو با ارتقاهای جامع در حرکت بدن، واقعگرایی فیزیکی و پیروی از دستورالعملها.",
"MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدلهای برتر جهانی.",
"MiniMax-M2-Stable.description": "طراحیشده برای کدنویسی کارآمد و جریانهای کاری عاملمحور، با همزمانی بالاتر برای استفاده تجاری.",
- "MiniMax-M2.1-Lightning.description": "قابلیتهای برنامهنویسی چندزبانه قدرتمند با استنتاج سریعتر و کارآمدتر.",
"MiniMax-M2.1-highspeed.description": "قابلیتهای برنامهنویسی چندزبانه قدرتمند، تجربه برنامهنویسی کاملاً ارتقاء یافته. سریعتر و کارآمدتر.",
"MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل بزرگ متنباز پیشرفته از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن شامل توانایی برنامهنویسی چندزبانه و قابلیت عمل بهعنوان یک عامل هوشمند برای حل مسائل پیچیده است.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: همان عملکرد M2.5 با استنتاج سریعتر.",
"MiniMax-M2.5.description": "MiniMax-M2.5 یک مدل بزرگ متنباز پرچمدار از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن توانایی برنامهنویسی چندزبانه و قابلیت حل وظایف پیچیده به عنوان یک عامل (Agent) است.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: همان عملکرد M2.7 با استنتاج بهطور قابل توجهی سریعتر.",
- "MiniMax-M2.7.description": "MiniMax M2.7: آغاز سفر بهبود خودبازگشتی، قابلیتهای مهندسی واقعی برتر.",
+ "MiniMax-M2.7.description": "نخستین مدل خودتکاملی با عملکرد سطحبالا در کدنویسی و کارهای عاملی (حدود ۶۰ tps).",
"MiniMax-M2.description": "MiniMax M2: مدل نسل قبلی.",
"MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی میکند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه میدهد و تا ۴ میلیون توکن زمینه را پشتیبانی میکند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 یک مدل استدلال توجه ترکیبی با وزنهای باز و 456 میلیارد پارامتر کل و ~45.9 میلیارد پارامتر فعال در هر توکن است. این مدل بهطور بومی از 1 میلیون زمینه پشتیبانی میکند و با استفاده از Flash Attention، FLOPs را در تولید 100 هزار توکن نسبت به DeepSeek R1 تا 75٪ کاهش میدهد. با معماری MoE بهعلاوه CISPO و آموزش RL توجه ترکیبی، عملکرد پیشرو در استدلال ورودی طولانی و وظایف مهندسی نرمافزار واقعی را ارائه میدهد.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل MoE سطح بالا با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال است. ویژگیهای کلیدی شامل هوش کدنویسی عاملمحور قویتر با پیشرفتهای قابل توجه در معیارها و وظایف واقعی عاملها، بهعلاوه زیباییشناسی و قابلیت استفاده بهتر در کدنویسی رابط کاربری است.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo نسخه توربو بهینهشده برای سرعت استدلال و توان عملیاتی است، در حالی که استدلال چندمرحلهای و استفاده از ابزار K2 Thinking را حفظ میکند. این مدل MoE با حدود ۱ تریلیون پارامتر کل، زمینه بومی ۲۵۶ هزار توکن و فراخوانی ابزار در مقیاس بزرگ پایدار برای سناریوهای تولیدی با نیازهای سختگیرانهتر در تأخیر و همزمانی است.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 یک مدل عامل چندوجهی بومی متنباز است که بر پایه Kimi-K2-Base ساخته شده و با حدود ۱.۵ تریلیون توکن ترکیبی بینایی و متنی آموزش دیده است. این مدل از معماری MoE با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال بهره میبرد و از پنجره متنی ۲۵۶ هزار توکن پشتیبانی میکند و درک زبان و تصویر را بهصورت یکپارچه ارائه میدهد.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 یک مدل پرچمدار نسل بعدی برای مهندسی عاملها است که از معماری Mixture of Experts (MoE) با 754 میلیارد پارامتر بهره میبرد. این مدل تواناییهای برنامهنویسی را بهطور چشمگیری ارتقا داده و نتایج پیشرو در SWE-Bench Pro به دست آورده و عملکردی بسیار بهتر از نسل قبلی در بنچمارکهایی مانند NL2Repo و Terminal-Bench 2.0 ارائه میدهد. این مدل برای وظایف عاملی بلندمدت طراحی شده و در برخورد با پرسشهای مبهم قضاوت بهتری دارد، وظایف پیچیده را تجزیه میکند، آزمایشها را اجرا میکند، نتایج را تحلیل میکند و از طریق صدها تکرار و هزاران فراخوان ابزار بهطور مستمر بهینهسازی میشود.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 مدل پرچمدار نسل جدید Zhipu با 355 میلیارد پارامتر کل و 32 میلیارد پارامتر فعال است که بهطور کامل در قابلیتهای گفتگوی عمومی، استدلال و عامل ارتقا یافته است. GLM-4.7 تفکر متداخل را بهبود میبخشد و تفکر حفظشده و تفکر سطح چرخش را معرفی میکند.",
"Pro/zai-org/glm-5.description": "GLM-5 مدل زبان بزرگ نسل بعدی Zhipu است که بر مهندسی سیستمهای پیچیده و وظایف عامل با مدت زمان طولانی تمرکز دارد. پارامترهای مدل به 744 میلیارد (40 میلیارد فعال) گسترش یافته و DeepSeek Sparse Attention را ادغام میکند.",
"QwQ-32B-Preview.description": "Qwen QwQ یک مدل تحقیقاتی آزمایشی است که بر بهبود توانایی استدلال تمرکز دارد.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 برای استدلال پیشرفته و پیروی از دستورالعملها بهینهسازی شده است و با استفاده از معماری MoE، استدلال را در مقیاس بالا بهصورت کارآمد انجام میدهد.",
"Qwen3-235B.description": "Qwen3-235B-A22B یک مدل MoE است که حالت استدلال ترکیبی را معرفی میکند و به کاربران اجازه میدهد بهصورت یکپارچه بین حالتهای تفکر و غیرتفکر جابجا شوند. این مدل از درک و استدلال در ۱۱۹ زبان و گویش پشتیبانی میکند و توانایی بالایی در فراخوانی ابزارها دارد. در آزمونهای توانایی عمومی، کدنویسی و ریاضی، قابلیت چندزبانه و استدلال دانشی با مدلهای پیشرو مانند DeepSeek R1، OpenAI o1، o3-mini، Grok 3 و Google Gemini 2.5 Pro رقابت میکند.",
"Qwen3-32B.description": "Qwen3-32B یک مدل متراکم است که حالت استدلال ترکیبی را معرفی میکند و به کاربران اجازه میدهد بین تفکر و غیرتفکر جابجا شوند. با بهبود معماری، دادههای بیشتر و آموزش بهتر، عملکردی همسطح با Qwen2.5-72B دارد.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus از ورودی متن، تصویر و ویدئو پشتیبانی میکند. عملکرد آن در کارهای متنی خالص با Qwen3 Max قابل مقایسه است اما با هزینه کمتر و عملکرد بهتر. قابلیتهای چندوجهی آن نسبت به سری Qwen3 VL پیشرفت چشمگیری دارد.",
"S2V-01.description": "مدل پایه مرجع به ویدئو سری 01.",
"SenseChat-128K.description": "نسخه پایه V4 با پنجره متنی ۱۲۸ هزار توکن، قوی در درک و تولید متون بلند.",
"SenseChat-32K.description": "نسخه پایه V4 با پنجره متنی ۳۲ هزار توکن، انعطافپذیر برای سناریوهای مختلف.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است، با سرعت فوقالعاده و تفکر گسترده.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که سرعتی فوقالعاده و توانایی استدلال توسعهیافته ارائه میدهد.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت برقآسا و توانایی استدلال پیشرفته ارائه میشود.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است، با عملکرد، هوش، روانی و درک برجسته.",
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است، با عملکرد، هوش، روانی و درک برجسته.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوشمندی، روانی و درک برتری دارد.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوشمندی، روانی و درک متن برتری دارد.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
- "claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عاملها و کدنویسی است.",
"claude-opus-4.5.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برتر را با عملکرد مقیاسپذیر برای وظایف پیچیده و استدلال با کیفیت بالا ترکیب میکند.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-opus-4.6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است، با پاسخهای تقریباً فوری یا تفکر مرحله به مرحله گسترده با کنترل دقیق برای کاربران API.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً آنی یا تفکر گامبهگام طولانی با روند قابل مشاهده تولید کند.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوش Anthropic است.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوشمندی از Anthropic را ارائه میدهد.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 بهترین ترکیب از سرعت و هوش را ارائه میدهد.",
"claude-sonnet-4.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا استدلال گامبهگام طولانیتری که کاربران میتوانند مشاهده کنند، تولید کند. کاربران API میتوانند بهطور دقیق کنترل کنند که مدل چه مدت فکر کند.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 یک مدل استدلال نسل بعدی با قابلیتهای استدلال پیچیدهتر و زنجیرهای از تفکر است.",
- "deepseek-chat.description": "DeepSeek V3.2 تعادل بین استدلال و طول خروجی را برای وظایف روزانه پرسش و پاسخ و عوامل برقرار میکند. معیارهای عمومی به سطح GPT-5 میرسند و اولین مدلی است که تفکر را در استفاده از ابزار ادغام میکند، که منجر به ارزیابیهای عوامل متنباز میشود.",
+ "deepseek-chat.description": "یک مدل متنباز جدید که تواناییهای عمومی و کدنویسی را ترکیب میکند. این مدل قابلیتهای گفتگوی عمومی مدلهای چت و توانایی کدنویسی قدرتمند مدلهای برنامهنویس را حفظ میکند و همترازسازی ترجیحی بهتری دارد. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعملها بهبود یافته است.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخدهی سریعتر ترکیب میکند.",
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قویتری را ارائه میدهد.",
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از دادههای شروع سرد استفاده میکند و در وظایف ریاضی، کدنویسی و استدلال عملکردی همسطح با OpenAI-o1 دارد.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که زنجیرهای از تفکر را قبل از خروجیها برای دقت بالاتر تولید میکند، با نتایج رقابتی برتر و استدلال قابل مقایسه با Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از ارائه پاسخ نهایی، زنجیره فکر تولید میکند تا دقت را افزایش دهد.",
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرونبهصرفه را امکانپذیر میسازد.",
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامهنویسی، تواناییهای فنی، درک زمینه و پردازش متون بلند عملکرد برجستهای دارد.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
"ernie-x1.1.description": "ERNIE X1.1 یک مدل تفکر پیشنمایش برای ارزیابی و آزمایش است.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، ساخته شده توسط تیم Seed ByteDance، از ویرایش و ترکیب چند تصویر پشتیبانی میکند. ویژگیهای بهبود یافته شامل ثبات سوژه، پیروی دقیق از دستورالعملها، درک منطق فضایی، بیان زیباییشناسی، طرحبندی پوستر و طراحی لوگو با رندر دقیق متن-تصویر است.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط ByteDance Seed، از ورودیهای متن و تصویر برای تولید تصویر با کیفیت بالا و قابل کنترل از دستورات پشتیبانی میکند.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی متن و تصویر پشتیبانی میکند و تولید تصویری بسیار باکیفیت و کنترلپذیر ارائه میدهد. این مدل تصاویر را از روی متن ایجاد میکند.",
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
- "fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفهای از تیم Qwen، که از ویرایشهای معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی میکند.",
- "fal-ai/qwen-image.description": "یک مدل تولید تصویر قدرتمند از تیم Qwen با رندر متن چینی قوی و سبکهای بصری متنوع.",
+ "fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفهای از تیم Qwen که از ویرایش معنایی و ظاهری پشتیبانی میکند، متنهای چینی و انگلیسی را با دقت بالا ویرایش میکند و امکان ویرایشهای باکیفیت مانند انتقال سبک و چرخش اشیاء را فراهم میسازد.",
+ "fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر عالی متن چینی و سبکهای بصری متنوع.",
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
- "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
+ "flux-dev.description": "مدل تولید تصویر متنباز برای تحقیق و توسعه، بهطور کارآمد برای پژوهشهای نوآورانهٔ غیرتجاری بهینهسازی شده است.",
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
"flux-kontext-pro.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
- "flux-merged.description": "FLUX.1 [merged] ویژگیهای عمیق کاوش شده در \"DEV\" را با مزایای سرعت بالای \"Schnell\" ترکیب میکند، محدودیتهای عملکرد را گسترش داده و کاربردها را افزایش میدهد.",
"flux-pro-1.1-ultra.description": "تولید تصویر با وضوح فوقالعاده بالا با خروجی ۴ مگاپیکسلی، تولید تصاویر شفاف در ۱۰ ثانیه.",
"flux-pro-1.1.description": "مدل ارتقاءیافته تولید تصویر حرفهای با کیفیت تصویر عالی و پیروی دقیق از دستورات.",
"flux-pro.description": "مدل تولید تصویر تجاری سطح بالا با کیفیت تصویر بینظیر و خروجیهای متنوع.",
- "flux-schnell.description": "FLUX.1 [schnell] پیشرفتهترین مدل متنباز چندمرحلهای است که از رقبای مشابه و حتی مدلهای تقطیرنشده قوی مانند Midjourney v6.0 و DALL-E 3 (HD) پیشی میگیرد. این مدل بهخوبی برای حفظ تنوع پیشآموزش تنظیم شده و کیفیت بصری، پیروی از دستورالعمل، تنوع اندازه/نسبت، مدیریت فونت و تنوع خروجی را بهطور قابل توجهی بهبود میبخشد.",
"flux.1-schnell.description": "FLUX.1-schnell یک مدل تولید تصویر با عملکرد بالا برای خروجیهای سریع و چندسبکی است.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (تنظیمشده) عملکردی پایدار و قابل تنظیم برای وظایف پیچیده ارائه میدهد.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (تنظیمشده) پشتیبانی قوی چندوجهی برای وظایف پیچیده فراهم میکند.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچمدار مدلهای استدلالی گوگل است که از زمینههای طولانی برای انجام وظایف پیچیده پشتیبانی میکند.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحیشده برای سرعت است که هوش پیشرفته را با قابلیت جستوجوی دقیق ترکیب میکند.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتگوی چندوجهی نیز پشتیبانی میکند.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است و همچنین از چت چندوجهی پشتیبانی میکند.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی میکند.",
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنیتر و تعامل عمیقتری را بر پایه استدلال پیشرفته ارائه میدهد.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریعترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویر مکالمهای است.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر در سطح حرفهای را با سرعت Flash و پشتیبانی از چت چندوجهی ارائه میدهد.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریعترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویری مکالمهای است.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview اقتصادیترین مدل چندوجهی گوگل است که برای وظایف عاملمحور با حجم بالا، ترجمه و پردازش دادهها بهینه شده است.",
"gemini-3.1-pro-preview.description": "پیشنمایش Gemini 3.1 Pro قابلیتهای استدلال بهبود یافته را به Gemini 3 Pro اضافه میکند و از سطح تفکر متوسط پشتیبانی میکند.",
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "پیشرفتهترین و قدرتمندترین مدل ما، طراحیشده برای وظایف پیچیده سازمانی با عملکرد برجسته.",
"jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچکتر.",
"jina-deepsearch-v1.description": "DeepSearch جستجوی وب، خواندن و استدلال را برای تحقیقات جامع ترکیب میکند. آن را مانند عاملی تصور کنید که وظیفه تحقیق شما را میگیرد، جستجوهای گستردهای با تکرارهای متعدد انجام میدهد و سپس پاسخ تولید میکند. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است و اساساً با مدلهای زبانی استاندارد یا سیستمهای RAG سنتی متفاوت است.",
- "k2p5.description": "Kimi K2.5 جامعترین مدل Kimi تا به امروز است که دارای معماری چندوجهی بومی است و از ورودیهای تصویری و متنی، حالتهای 'تفکر' و 'غیرتفکر' و وظایف مکالمهای و عامل پشتیبانی میکند.",
"kimi-k2-0711-preview.description": "kimi-k2 یک مدل پایه MoE با قابلیتهای قوی در برنامهنویسی و عاملسازی است (۱ تریلیون پارامتر کل، ۳۲ میلیارد فعال) که در معیارهای استدلال، برنامهنویسی، ریاضی و عامل از سایر مدلهای متنباز پیشی میگیرد.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview دارای پنجره متنی ۲۵۶هزار توکن، برنامهنویسی عاملمحور قویتر، کیفیت بهتر کد فرانتاند و درک بهتر از زمینه است.",
"kimi-k2-instruct.description": "Kimi K2 Instruct مدل رسمی استدلال Kimi با پشتیبانی از زمینه طولانی برای کدنویسی، پرسشوپاسخ و موارد دیگر است.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدلهای تنظیمشده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پاییندستی را بهویژه در مسائل دشوار بهطور قابل توجهی بهبود میبخشد. QwQ-32B یک مدل استدلال میانرده است که با مدلهای برتر مانند DeepSeek-R1 و o1-mini رقابت میکند.",
"qwq_32b.description": "مدل استدلال میانرده در خانواده Qwen. در مقایسه با مدلهای تنظیمشده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پاییندستی را بهویژه در مسائل دشوار بهطور قابل توجهی بهبود میبخشد.",
"r1-1776.description": "R1-1776 نسخه پسآموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بیطرف طراحی شده است.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro توسط ByteDance از تولید متن به ویدئو، تصویر به ویدئو (فریم اول، فریم اول+آخر)، و تولید صدا همگامشده با تصاویر پشتیبانی میکند.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite توسط BytePlus ویژگیهای تولید با بازیابی وب برای اطلاعات بلادرنگ، تفسیر پیچیده دستورات بهبود یافته، و ثبات مرجع بهبود یافته برای ایجاد بصری حرفهای را ارائه میدهد.",
"solar-mini-ja.description": "Solar Mini (ژاپنی) نسخهای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبانهای انگلیسی و کرهای حفظ میکند.",
"solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبانهای انگلیسی و کرهای، راهحلی کارآمد با حجم کم ارائه میدهد.",
"solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعملها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی میکند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گستردهتر و زمینه طولانیتر برنامهریزی شده است.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 مدل قدرتمند جدید تولید رسانهای ما است، که ویدئوهایی با صدای همگامشده تولید میکند. این مدل میتواند کلیپهای پویا و غنی از جزئیات را از زبان طبیعی یا تصاویر ایجاد کند.",
"spark-x.description": "بررسی قابلیتهای X2: 1. معرفی تنظیم پویا حالت استدلال، کنترل شده از طریق فیلد `thinking`. 2. طول زمینه گسترش یافته: 64K توکن ورودی و 128K توکن خروجی. 3. از قابلیت Function Call پشتیبانی میکند.",
"stable-diffusion-3-medium.description": "جدیدترین مدل تبدیل متن به تصویر از Stability AI. این نسخه کیفیت تصویر، درک متن و تنوع سبک را بهطور قابلتوجهی بهبود میبخشد، دستورات زبان طبیعی پیچیده را دقیقتر تفسیر کرده و تصاویر متنوعتری تولید میکند.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo از تکنیک تقطیر انتشار خصمانه (ADD) برای افزایش سرعت در stable-diffusion-3.5-large استفاده میکند.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large یک مدل تبدیل متن به تصویر MMDiT با ۸۰۰ میلیون پارامتر است که کیفیت بالا و تطابق دقیق با دستورات را ارائه میدهد و از تصاویر ۱ مگاپیکسلی و اجرای کارآمد روی سختافزار مصرفی پشتیبانی میکند.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 از نقطه بازیابی v1.2 آغاز شده و به مدت ۵۹۵ هزار مرحله روی مجموعه «laion-aesthetics v2 5+» با وضوح ۵۱۲x۵۱۲ آموزش دیده است. با کاهش ۱۰٪ در شرطبندی متنی، نمونهگیری بدون طبقهبندی را بهبود میبخشد.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo بر تولید تصاویر باکیفیت با رندر دقیق جزئیات و حفظ وفاداری صحنه تمرکز دارد.",
"stable-diffusion-xl-base-1.0.description": "یک مدل متنباز تبدیل متن به تصویر از Stability AI با قابلیتهای خلاقانه پیشرو در صنعت. درک قوی از دستورالعملها دارد و از تعریف معکوس دستورات برای تولید دقیق پشتیبانی میکند.",
- "stable-diffusion-xl.description": "stable-diffusion-xl بهبودهای عمدهای نسبت به نسخه v1.5 دارد و با بهترین نتایج متنباز تبدیل متن به تصویر برابری میکند. بهبودها شامل ستون فقرات UNet سه برابر بزرگتر، ماژول پالایش برای کیفیت بهتر تصویر و تکنیکهای آموزشی کارآمدتر است.",
"step-1-128k.description": "تعادل بین عملکرد و هزینه برای سناریوهای عمومی.",
"step-1-256k.description": "پشتیبانی از زمینههای بسیار طولانی، ایدهآل برای تحلیل اسناد بلند.",
"step-1-32k.description": "پشتیبانی از مکالمات با طول متوسط برای طیف گستردهای از کاربردها.",
diff --git a/locales/fa-IR/plugin.json b/locales/fa-IR/plugin.json
index 71a20c6e08..01847147b8 100644
--- a/locales/fa-IR/plugin.json
+++ b/locales/fa-IR/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} پارامتر در مجموع",
"arguments.title": "آرگومانها",
"builtins.lobe-activator.apiName.activateTools": "فعال کردن ابزارها",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} یافت نشد",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "دریافت مدلهای موجود",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "دریافت مهارتهای موجود",
"builtins.lobe-agent-builder.apiName.getConfig": "دریافت پیکربندی",
diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json
index 83529382c9..de2d8de0fd 100644
--- a/locales/fa-IR/providers.json
+++ b/locales/fa-IR/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
"kimicodingplan.description": "Kimi Code از Moonshot AI دسترسی به مدلهای Kimi شامل K2.5 را برای وظایف کدنویسی فراهم میکند.",
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
- "lobehub.description": "ابر لابهاب از APIهای رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل مرتبط هستند، اندازهگیری میکند.",
"longcat.description": "لانگکت مجموعهای از مدلهای بزرگ هوش مصنوعی تولیدی است که بهطور مستقل توسط میتوآن توسعه داده شده است. این مدلها برای افزایش بهرهوری داخلی شرکت و امکانپذیر کردن کاربردهای نوآورانه از طریق معماری محاسباتی کارآمد و قابلیتهای چندوجهی قدرتمند طراحی شدهاند.",
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
"minimaxcodingplan.description": "طرح توکن MiniMax دسترسی به مدلهای MiniMax شامل M2.7 را برای وظایف کدنویسی از طریق اشتراک با هزینه ثابت فراهم میکند.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark هوش مصنوعی چندزبانه قدرتمندی را در حوزههای مختلف ارائه میدهد و نوآوریهایی در سختافزار هوشمند، سلامت، مالی و سایر صنایع ایجاد میکند.",
"stepfun.description": "مدلهای Stepfun قابلیتهای پیشرفته چندوجهی و استدلال پیچیده را با درک متون بلند و هماهنگی جستجوی خودکار قدرتمند ارائه میدهند.",
"straico.description": "استرایکو یکپارچهسازی هوش مصنوعی را با ارائه یک فضای کاری متحد که مدلهای برتر تولید متن، تصویر و صوت هوش مصنوعی را گرد هم میآورد، ساده میکند و به بازاریابان، کارآفرینان و علاقهمندان دسترسی آسان به ابزارهای متنوع هوش مصنوعی را میدهد.",
+ "streamlake.description": "StreamLake یک پلتفرم خدمات مدل در سطح سازمانی و رایانش ابری هوش مصنوعی است که استنتاج مدل با کارایی بالا، شخصیسازی کمهزینه مدل و خدمات کاملاً مدیریتشده را یکپارچه میکند تا به کسبوکارها کمک کند بدون نگرانی از پیچیدگیها و هزینههای منابع محاسباتی زیربنایی، بر نوآوری در کاربردهای هوش مصنوعی تمرکز کنند.",
"taichu.description": "مدل چندوجهی نسل جدید از CASIA و مؤسسه هوش مصنوعی ووهان که از پرسش و پاسخ چندمرحلهای، نگارش، تولید تصویر، درک سهبعدی و تحلیل سیگنال با شناخت و خلاقیت قوی پشتیبانی میکند.",
"tencentcloud.description": "موتور دانش LLM Atomic Power خدمات پرسش و پاسخ دانشمحور را برای شرکتها و توسعهدهندگان فراهم میکند، با خدمات ماژولار مانند تجزیه اسناد، تقسیمبندی، جاسازی و بازنویسی چندمرحلهای برای ساخت راهکارهای سفارشی هوش مصنوعی.",
"togetherai.description": "Together AI عملکرد پیشرو را با مدلهای نوآورانه، سفارشیسازی گسترده، مقیاسپذیری سریع و استقرار ساده برای نیازهای سازمانی ارائه میدهد.",
diff --git a/locales/fa-IR/setting.json b/locales/fa-IR/setting.json
index 5b1d82121a..b3dc73ca28 100644
--- a/locales/fa-IR/setting.json
+++ b/locales/fa-IR/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "ابزارهای سیستم",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - ابزار سریع برای جستجوی کد",
"settingSystemTools.tools.agentBrowser.desc": "مرورگر عامل - ابزار خط فرمان برای اتوماسیون مرورگر بدون رابط کاربری برای عوامل هوش مصنوعی",
+ "settingSystemTools.tools.bun.desc": "Bun - زماناجرای بسیار سریع جاوااسکریپت و مدیر بستهها",
+ "settingSystemTools.tools.bunx.desc": "bunx - اجراکننده بستههای Bun برای اجرای بستههای npm",
"settingSystemTools.tools.fd.desc": "fd - جایگزینی سریع و کاربرپسند برای find",
"settingSystemTools.tools.find.desc": "دستور find در یونیکس - فرمان استاندارد جستجوی فایل",
"settingSystemTools.tools.grep.desc": "GNU grep - ابزار استاندارد جستجوی متن",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - مدیریت و اتصال به سرویسهای LobeHub",
"settingSystemTools.tools.mdfind.desc": "جستجوی Spotlight در macOS (جستجوی سریع و ایندکسشده)",
"settingSystemTools.tools.node.desc": "Node.js - محیط اجرای JavaScript برای JS/TS",
"settingSystemTools.tools.npm.desc": "npm - مدیر بسته Node.js برای نصب وابستگیها",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - مدیر بستهای سریع و بهینه از نظر فضای دیسک",
"settingSystemTools.tools.python.desc": "Python - محیط اجرای زبان برنامهنویسی",
"settingSystemTools.tools.rg.desc": "ripgrep - ابزار بسیار سریع برای جستجوی متن",
+ "settingSystemTools.tools.uv.desc": "uv - مدیر بستهی پایتون با سرعتی بسیار بالا",
"settingTTS.openai.sttModel": "مدل تبدیل گفتار به متن OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "مدل تبدیل متن به گفتار OpenAI",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "مدل",
"systemAgent.inputCompletion.modelDesc": "مدلی که برای پیشنهادات تکمیل خودکار ورودی استفاده میشود (مانند متن شبح GitHub Copilot)",
"systemAgent.inputCompletion.title": "عامل تکمیل خودکار ورودی",
+ "systemAgent.promptRewrite.label": "مدل",
+ "systemAgent.promptRewrite.modelDesc": "مدلی را که برای بازنویسی پرامپت استفاده میشود مشخص کنید",
+ "systemAgent.promptRewrite.title": "عامل بازنویسی پرامپت",
"systemAgent.queryRewrite.label": "مدل",
"systemAgent.queryRewrite.modelDesc": "مدلی که برای بهینهسازی پرسشهای کاربران استفاده میشود",
"systemAgent.queryRewrite.title": "عامل بازنویسی پرسش کتابخانه",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "یک فایل .zip یا .skill محلی را آپلود کنید",
"tab.usage": "آمار استفاده",
"tools.add": "افزودن مهارت",
+ "tools.builtins.find-skills.description": "به کاربران کمک میکند مهارتهای عامل را هنگام پرسیدن «چگونه X را انجام دهم»، «یک مهارت برای X پیدا کن»، یا هنگام نیاز به گسترش قابلیتها کشف و نصب کنند",
+ "tools.builtins.find-skills.title": "یافتن مهارتها",
"tools.builtins.groupName": "داخلیها",
"tools.builtins.install": "نصب",
"tools.builtins.installed": "نصبشده",
+ "tools.builtins.lobe-activator.description": "کشف و فعالسازی ابزارها و مهارتها",
+ "tools.builtins.lobe-activator.title": "فعالساز ابزارها و مهارتها",
+ "tools.builtins.lobe-agent-browser.description": "رابط خط فرمان برای خودکارسازی مرورگر در عاملهای هوش مصنوعی. مناسب برای وظایف مربوط به تعامل با وبسایت یا Electron مانند ناوبری، پر کردن فرم، کلیک، ثبت اسکرینشات، استخراج داده، جریانهای ورود، و تست کامل برنامه.",
+ "tools.builtins.lobe-agent-browser.title": "مرورگر عامل",
+ "tools.builtins.lobe-agent-builder.description": "پیکربندی فراداده عامل، تنظیمات مدل، افزونهها و پرامپت سیستمی",
+ "tools.builtins.lobe-agent-builder.title": "سازنده عامل",
+ "tools.builtins.lobe-agent-documents.description": "مدیریت اسناد وابسته به عامل (فهرست، ایجاد، خواندن، ویرایش، حذف، تغییر نام) و قوانین بارگذاری",
+ "tools.builtins.lobe-agent-documents.title": "اسناد",
+ "tools.builtins.lobe-agent-management.description": "ایجاد، مدیریت و هماهنگسازی عاملهای هوش مصنوعی",
+ "tools.builtins.lobe-agent-management.title": "مدیریت عامل",
"tools.builtins.lobe-artifacts.description": "تولید و پیشنمایش زنده اجزای تعاملی رابط کاربری، نمودارها، گرافیکهای SVG و برنامههای وب. ایجاد محتوای بصری غنی که کاربران بتوانند مستقیماً با آن تعامل داشته باشند.",
"tools.builtins.lobe-artifacts.readme": "اجزای رابط کاربری تعاملی، نمودارها، گرافیکهای SVG و برنامههای وب را تولید کرده و بهصورت زنده پیشنمایش دهید. محتوای بصری غنی ایجاد کنید که کاربران بتوانند مستقیماً با آن تعامل داشته باشند.",
"tools.builtins.lobe-artifacts.title": "آرتیفکتها",
+ "tools.builtins.lobe-brief.description": "گزارش پیشرفت، ارائه نتایج و درخواست تصمیم از کاربر",
+ "tools.builtins.lobe-brief.title": "ابزارهای مختصر",
"tools.builtins.lobe-calculator.description": "انجام محاسبات ریاضی، حل معادلات و کار با عبارات نمادین",
"tools.builtins.lobe-calculator.readme": "ماشینحساب پیشرفته ریاضی که از عملیات حسابی پایه، معادلات جبری، عملیات حساب دیفرانسیل و انتگرال و ریاضیات نمادین پشتیبانی میکند. شامل تبدیل مبنا، حل معادلات، مشتقگیری، انتگرالگیری و موارد دیگر.",
"tools.builtins.lobe-calculator.title": "ماشینحساب",
"tools.builtins.lobe-cloud-sandbox.description": "اجرای کدهای Python، JavaScript و TypeScript در محیط ابری ایزوله. اجرای دستورات شِل، مدیریت فایلها، جستجوی محتوا با regex و خروجیگیری امن از نتایج.",
"tools.builtins.lobe-cloud-sandbox.readme": "کدهای Python، JavaScript و TypeScript را در محیطی ایزوله در فضای ابری اجرا کنید. دستورات شِل را اجرا کرده، فایلها را مدیریت کنید، با استفاده از regex محتوا را جستجو کرده و نتایج را بهصورت ایمن صادر نمایید.",
"tools.builtins.lobe-cloud-sandbox.title": "محیط آزمایشی ابری",
+ "tools.builtins.lobe-creds.description": "مدیریت اعتبارنامههای کاربر برای احراز هویت، تزریق متغیرهای محیطی و تأیید API — مدیریت کلیدهای API، توکنهای OAuth و اسرار برای یکپارچهسازی سرویسهای ثالث.",
+ "tools.builtins.lobe-creds.title": "اعتبارنامهها",
+ "tools.builtins.lobe-cron.description": "مدیریت وظایف زمانبندی شده که به صورت خودکار در زمانهای مشخص اجرا میشوند. ایجاد، بهروزرسانی، فعال/غیرفعالسازی و پایش وظایف دورهای برای عاملها.",
+ "tools.builtins.lobe-cron.title": "وظایف زمانبندیشده",
+ "tools.builtins.lobe-group-agent-builder.description": "پیکربندی فراداده گروه، اعضا و محتوای مشترک برای گروههای چندعاملی",
+ "tools.builtins.lobe-group-agent-builder.title": "سازنده عامل گروهی",
+ "tools.builtins.lobe-group-management.description": "هماهنگسازی و مدیریت گفتگوهای گروههای چندعاملی",
+ "tools.builtins.lobe-group-management.title": "مدیریت گروه",
"tools.builtins.lobe-gtd.description": "برنامهریزی اهداف و پیگیری پیشرفت با استفاده از روش GTD. ایجاد برنامههای راهبردی، مدیریت فهرست کارها با پیگیری وضعیت و اجرای وظایف طولانی بهصورت ناهمگام.",
"tools.builtins.lobe-gtd.readme": "اهداف خود را با استفاده از روش GTD برنامهریزی کرده و پیشرفت را پیگیری کنید. برنامههای استراتژیک ایجاد کرده، فهرست کارها را با پیگیری وضعیت مدیریت کرده و وظایف طولانی و ناهمزمان را اجرا نمایید.",
"tools.builtins.lobe-gtd.title": "ابزارهای GTD",
+ "tools.builtins.lobe-knowledge-base.description": "جستجوی اسناد بارگذاریشده و دانش حوزهای از طریق جستجوی برداری معنایی — برای مرجع دائمی و قابل استفاده مجدد",
+ "tools.builtins.lobe-knowledge-base.title": "پایگاه دانش",
"tools.builtins.lobe-local-system.description": "دسترسی به سیستم فایل محلی در دسکتاپ. خواندن، نوشتن، جستجو و سازماندهی فایلها. اجرای دستورات شِل با پشتیبانی از وظایف پسزمینه و جستجوی محتوا با الگوهای regex.",
"tools.builtins.lobe-local-system.readme": "به سیستم فایل محلی خود در دسکتاپ دسترسی پیدا کنید. فایلها را بخوانید، بنویسید، جستجو و سازماندهی کنید. دستورات شِل را با پشتیبانی از وظایف پسزمینه اجرا کرده و با الگوهای regex محتوا را جستجو نمایید.",
"tools.builtins.lobe-local-system.title": "سیستم محلی",
+ "tools.builtins.lobe-message.description": "ارسال، خواندن، ویرایش و مدیریت پیامها در چندین پلتفرم پیامرسان با یک رابط یکپارچه",
+ "tools.builtins.lobe-message.readme": "ابزار پیامرسانی میانپلتفرمی با پشتیبانی از Discord، Telegram، Slack، Google Chat و IRC. ارائه APIهای یکپارچه برای عملیات پیام، واکنشها، پین کردن، رشتهها، مدیریت کانال و قابلیتهای اختصاصی پلتفرمها مانند نظرسنجی.",
+ "tools.builtins.lobe-message.title": "پیام",
"tools.builtins.lobe-notebook.description": "ایجاد و مدیریت اسناد ماندگار در موضوعات گفتگو. ذخیره یادداشتها، گزارشها، مقالات و محتوای markdown که در جلسات مختلف قابل دسترسی باقی میمانند.",
"tools.builtins.lobe-notebook.readme": "اسناد ماندگار را در موضوعات گفتگو ایجاد و مدیریت کنید. یادداشتها، گزارشها، مقالات و محتوای markdown را ذخیره کرده و در جلسات مختلف به آنها دسترسی داشته باشید.",
"tools.builtins.lobe-notebook.title": "دفترچه",
+ "tools.builtins.lobe-page-agent.description": "ایجاد، خواندن، بهروزرسانی و حذف گرهها در اسناد با ساختار XML",
+ "tools.builtins.lobe-page-agent.readme": "ایجاد و ویرایش اسناد ساختاریافته با کنترل دقیق در سطح گره. ایجاد اولیه از Markdown، انجام عملیات دستهای درج/ویرایش/حذف و جستجو و جایگزینی متن در سراسر اسناد.",
+ "tools.builtins.lobe-page-agent.title": "سند",
+ "tools.builtins.lobe-remote-device.description": "کشف و مدیریت اتصال به دستگاههای دسکتاپ راهدور",
+ "tools.builtins.lobe-remote-device.readme": "مدیریت اتصال به دستگاههای دسکتاپ شما. فهرست دستگاههای آنلاین، فعالسازی دستگاه برای عملیات راهدور و بررسی وضعیت اتصال.",
+ "tools.builtins.lobe-remote-device.title": "دستگاه راهدور",
+ "tools.builtins.lobe-skill-store.description": "مرور و نصب مهارتهای عامل از بازارچه LobeHub. برای زمانی که نیاز به قابلیتهای بیشتر دارید یا میخواهید مهارت خاصی را نصب کنید.",
+ "tools.builtins.lobe-skill-store.title": "فروشگاه مهارت",
+ "tools.builtins.lobe-skills.description": "فعالسازی و استفاده از بستههای مهارتی قابل استفاده مجدد",
+ "tools.builtins.lobe-skills.title": "مهارتها",
+ "tools.builtins.lobe-task.description": "ایجاد، فهرست، ویرایش و حذف وظایف با وابستگیها و پیکربندی بازبینی",
+ "tools.builtins.lobe-task.title": "ابزارهای وظیفه",
+ "tools.builtins.lobe-topic-reference.description": "بازیابی زمینه از گفتگوهای موضوعی مرجعشده",
+ "tools.builtins.lobe-topic-reference.title": "مرجع موضوع",
+ "tools.builtins.lobe-user-interaction.description": "پرسیدن سؤال از کاربران از طریق تعاملات UI و مشاهده نتایج چرخه عمر آنها",
+ "tools.builtins.lobe-user-interaction.title": "تعامل کاربر",
"tools.builtins.lobe-user-memory.description": "ساخت پایگاه دانش شخصی درباره شما. به خاطر سپردن ترجیحات، پیگیری فعالیتها و تجربیات، ذخیره اطلاعات هویتی و یادآوری زمینههای مرتبط در گفتگوهای آینده.",
"tools.builtins.lobe-user-memory.readme": "پایگاه دانشی شخصی درباره خودتان بسازید. ترجیحات را به خاطر بسپارید، فعالیتها و تجربیات را پیگیری کنید، اطلاعات هویتی را ذخیره کرده و در گفتگوهای آینده زمینه مرتبط را به یاد آورید.",
"tools.builtins.lobe-user-memory.title": "حافظه",
+ "tools.builtins.lobe-web-browsing.description": "جستجوی وب برای اطلاعات بهروز و خزش صفحات وب برای استخراج محتوا. پشتیبانی از چندین موتور جستجو، دستهبندیها و بازههای زمانی.",
+ "tools.builtins.lobe-web-browsing.readme": "جستجوی وب برای اطلاعات بهروز و خزش صفحات وب برای استخراج محتوا. پشتیبانی از چندین موتور جستجو، دستهبندیها و بازههای زمانی برای تحقیقات جامع.",
+ "tools.builtins.lobe-web-browsing.title": "مرور وب",
+ "tools.builtins.lobe-web-onboarding.description": "اجرای جریان راهاندازی وب با یک محیط کنترلشده عامل",
+ "tools.builtins.lobe-web-onboarding.title": "راهاندازی وب",
+ "tools.builtins.lobehub.description": "مدیریت پلتفرم LobeHub از طریق CLI — پایگاههای دانش، حافظه، عاملها، فایلها، جستجو، تولید محتوا و موارد دیگر.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "نصبنشده",
+ "tools.builtins.task.description": "مدیریت و اجرای وظایف — ایجاد، پیگیری، بازبینی و تکمیل وظایف از طریق CLI.",
+ "tools.builtins.task.title": "وظیفه",
"tools.builtins.uninstall": "حذف نصب",
"tools.builtins.uninstallConfirm.desc": "آیا مطمئن هستید که میخواهید {{name}} را حذف نصب کنید؟ این مهارت از عامل فعلی حذف خواهد شد.",
"tools.builtins.uninstallConfirm.title": "حذف نصب {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "قطع اتصال {{name}}؟",
"tools.lobehubSkill.disconnected": "قطع اتصال",
"tools.lobehubSkill.error": "خطا",
+ "tools.lobehubSkill.providers.github.description": "GitHub پلتفرمی برای کنترل نسخه و همکاری است که به توسعهدهندگان امکان میدهد مخازن کد را میزبانی، بازبینی و مدیریت کنند.",
+ "tools.lobehubSkill.providers.github.readme": "به GitHub متصل شوید تا به مخازن خود دسترسی داشته باشید، مسائل ایجاد و مدیریت کنید، Pull Requestها را بازبینی کنید و روی کد همکاری کنید — همه از طریق مکالمه طبیعی با دستیار هوش مصنوعی.",
"tools.lobehubSkill.providers.linear.description": "Linear یک ابزار مدرن پیگیری مسائل و مدیریت پروژه است که برای تیمهای با عملکرد بالا طراحی شده تا نرمافزار بهتری را سریعتر بسازند.",
"tools.lobehubSkill.providers.linear.readme": "قدرت Linear را مستقیماً به دستیار هوش مصنوعی خود بیاورید. مسائل را ایجاد و بهروزرسانی کرده، اسپرینتها را مدیریت کنید، پیشرفت پروژه را پیگیری کرده و جریان کاری توسعه خود را از طریق مکالمه طبیعی بهینه نمایید.",
"tools.lobehubSkill.providers.microsoft.description": "تقویم Outlook یک ابزار زمانبندی یکپارچه در Microsoft Outlook است که به کاربران امکان میدهد قرار ملاقات ایجاد کرده، جلسات را با دیگران سازماندهی کرده و زمان و رویدادهای خود را بهطور مؤثر مدیریت کنند.",
"tools.lobehubSkill.providers.microsoft.readme": "با Outlook Calendar یکپارچه شوید تا رویدادهای خود را مشاهده، ایجاد و مدیریت کنید. جلسات را برنامهریزی کرده، در دسترس بودن را بررسی کنید، یادآورها را تنظیم کرده و زمان خود را از طریق دستورات زبان طبیعی هماهنگ نمایید.",
"tools.lobehubSkill.providers.twitter.description": "X (توییتر) یک پلتفرم رسانه اجتماعی برای بهاشتراکگذاری بهروزرسانیهای لحظهای، اخبار و تعامل با مخاطبان از طریق پستها، پاسخها و پیامهای مستقیم است.",
"tools.lobehubSkill.providers.twitter.readme": "به X (توییتر) متصل شوید تا توییت ارسال کرده، تایملاین خود را مدیریت کرده و با مخاطبان خود تعامل داشته باشید. محتوا ایجاد کرده، پستها را زمانبندی کنید، اشارهها را پایش کرده و حضور خود در شبکههای اجتماعی را از طریق هوش مصنوعی مکالمهای گسترش دهید.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel یک پلتفرم ابری برای توسعهدهندگان فرانتاند است که میزبانی و توابع بدون سرور را برای استقرار آسان برنامههای وب ارائه میدهد.",
+ "tools.lobehubSkill.providers.vercel.readme": "به Vercel متصل شوید تا استقرارها را مدیریت کنید، وضعیت پروژهها را پایش کنید و زیرساخت خود را کنترل کنید. برنامهها را مستقر کنید، لاگهای ساخت را بررسی کنید، متغیرهای محیطی را مدیریت کنید و پروژههای خود را از طریق هوش مصنوعی مکالمهای مقیاس دهید.",
"tools.notInstalled": "نصب نشده",
"tools.notInstalledWarning": "این مهارت در حال حاضر نصب نشده است و ممکن است عملکرد عامل را تحت تأثیر قرار دهد.",
"tools.plugins.enabled": "فعالشده: {{num}}",
diff --git a/locales/fa-IR/subscription.json b/locales/fa-IR/subscription.json
index 2029f7c12d..244c0d26cb 100644
--- a/locales/fa-IR/subscription.json
+++ b/locales/fa-IR/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "ارتقا به",
"credits.topUp.upgradeSuffix": "برای صرفهجویی ${{savings}}",
"credits.topUp.validityInfo": "اعتبار {{months}} ماهه",
+ "crossPlatform.desc": "این اشتراک از طریق اپلیکیشن موبایل خریداری شده است و نمیتوان آن را در اینجا تغییر داد. لطفاً اشتراک خود را در دستگاه موبایل مدیریت کنید.",
+ "crossPlatform.manageOnMobile": "مدیریت در دستگاه موبایل",
+ "crossPlatform.title": "اشتراک چندپلتفرمی",
"currentPlan.cancelAlert": "اشتراک در تاریخ {{canceledAt}} لغو خواهد شد. تا آن زمان میتوانید از طریق «مدیریت اشتراک» آن را بازیابی کنید",
"currentPlan.downgradeAlert": "در تاریخ {{downgradedAt}} به پلن {{plan}} تنزل خواهد یافت.",
"currentPlan.management": "مدیریت اشتراک",
diff --git a/locales/fa-IR/video.json b/locales/fa-IR/video.json
index 661717c02e..7eb21e0288 100644
--- a/locales/fa-IR/video.json
+++ b/locales/fa-IR/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "فریم آغازین",
"config.prompt.placeholder": "ویدیویی که میخواهید تولید شود را توصیف کنید",
"config.prompt.placeholderWithRef": "صحنهای که میخواهید با تصویر ایجاد کنید را توصیف کنید",
+ "config.promptExtend.label": "گسترش پرامپت",
"config.referenceImage.label": "تصویر مرجع",
"config.resolution.label": "وضوح تصویر",
"config.seed.label": "بذر (Seed)",
"config.seed.random": "تصادفی",
"config.size.label": "اندازه",
+ "config.watermark.label": "واترمارک",
+ "config.webSearch.label": "جستجوی وب",
"generation.actions.copyError": "کپی پیام خطا",
"generation.actions.errorCopied": "پیام خطا در کلیپبورد کپی شد",
"generation.actions.errorCopyFailed": "کپی پیام خطا ناموفق بود",
diff --git a/locales/fr-FR/agent.json b/locales/fr-FR/agent.json
index 5a8fde5cc0..bdb655cd62 100644
--- a/locales/fr-FR/agent.json
+++ b/locales/fr-FR/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot connecté avec succès",
"channel.connecting": "Connexion en cours...",
"channel.connectionConfig": "Configuration de la connexion",
+ "channel.connectionMode": "Mode de connexion",
+ "channel.connectionModeHint": "Le mode WebSocket est recommandé pour les nouveaux bots. Utilisez Webhook si votre bot possède déjà une URL de rappel configurée sur la plateforme QQ Open Platform.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Copié dans le presse-papiers",
"channel.copy": "Copier",
"channel.credentials": "Identifiants",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Veuillez copier cette URL et la coller dans le champ {{fieldName}} du portail développeur {{name}}.",
"channel.exportConfig": "Exporter la configuration",
"channel.feishu.description": "Connectez cet assistant à Feishu pour les discussions privées et de groupe.",
+ "channel.feishu.webhookMigrationDesc": "Le mode WebSocket offre une livraison d’événements en temps réel sans nécessiter d’URL de rappel publique. Pour migrer, changez le mode de connexion vers WebSocket dans les paramètres avancés. Aucune configuration supplémentaire n’est requise sur la plateforme Feishu/Lark Open Platform.",
+ "channel.feishu.webhookMigrationTitle": "Envisagez de migrer vers le mode WebSocket",
"channel.historyLimit": "Limite des messages historiques",
"channel.historyLimitHint": "Nombre par défaut de messages à récupérer lors de la lecture de l'historique du canal",
"channel.importConfig": "Importer la configuration",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Requis pour la vérification des interactions",
"channel.qq.appIdHint": "Votre ID d'application Bot QQ de la plateforme QQ Open",
"channel.qq.description": "Connectez cet assistant à QQ pour des discussions de groupe et des messages directs.",
+ "channel.qq.webhookMigrationDesc": "Le mode WebSocket offre une livraison d’événements en temps réel et une reconnexion automatique sans nécessiter d’URL de rappel. Pour migrer, créez un nouveau bot sur la plateforme QQ Open Platform sans configurer d’URL de rappel, puis changez le mode de connexion vers WebSocket dans les paramètres avancés.",
+ "channel.qq.webhookMigrationTitle": "Envisagez de migrer vers le mode WebSocket",
"channel.removeChannel": "Supprimer le canal",
"channel.removeFailed": "Échec de la suppression du canal",
"channel.removed": "Canal supprimé",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Secret de signature",
"channel.signingSecretHint": "Utilisé pour vérifier les requêtes webhook.",
"channel.slack.appIdHint": "Votre ID d'application Slack depuis le tableau de bord API Slack (commence par A).",
+ "channel.slack.appToken": "Jeton au niveau de l’application",
+ "channel.slack.appTokenHint": "Requis pour le Socket Mode (WebSocket). Générez un jeton au niveau de l’application (xapp-...) dans les informations de base des paramètres de votre application Slack.",
"channel.slack.description": "Connectez cet assistant à Slack pour des conversations de canal et des messages directs.",
+ "channel.slack.webhookMigrationDesc": "Le Socket Mode offre une livraison d’événements en temps réel via WebSocket sans exposer de point de terminaison HTTP public. Pour migrer, activez le Socket Mode dans les paramètres de votre application Slack, générez un jeton au niveau de l’application, puis changez le mode de connexion vers WebSocket dans les paramètres avancés.",
+ "channel.slack.webhookMigrationTitle": "Envisagez de migrer vers le Socket Mode (WebSocket)",
"channel.telegram.description": "Connectez cet assistant à Telegram pour les discussions privées et de groupe.",
"channel.testConnection": "Tester la connexion",
"channel.testFailed": "Échec du test de connexion",
diff --git a/locales/fr-FR/chat.json b/locales/fr-FR/chat.json
index 8de2bd54a8..3cccd4fe69 100644
--- a/locales/fr-FR/chat.json
+++ b/locales/fr-FR/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Groupe supprimé avec succès",
"confirmRemoveSessionItemAlert": "Vous êtes sur le point de supprimer cet agent. Une fois supprimé, il ne pourra pas être récupéré. Veuillez confirmer votre action.",
"confirmRemoveSessionSuccess": "Agent supprimé avec succès",
+ "createModal.createBlank": "Créer un modèle vierge",
+ "createModal.groupPlaceholder": "Décrivez ce que ce groupe doit faire...",
+ "createModal.groupTitle": "Que doit faire votre groupe ?",
+ "createModal.placeholder": "Décrivez ce que votre agent doit faire...",
+ "createModal.title": "Que doit faire votre agent ?",
"defaultAgent": "Agent par défaut",
"defaultGroupChat": "Groupe",
"defaultList": "Liste par défaut",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Contexte trop long, compression de l'historique...",
"operation.execAgentRuntime": "Préparation de la réponse",
"operation.execClientTask": "Exécution de la tâche",
+ "operation.execServerAgentRuntime": "Exécution en cours… Vous pouvez changer de tâche ou fermer la page — la tâche continuera.",
"operation.sendMessage": "Envoi du message",
"owner": "Propriétaire du groupe",
"pageCopilot.title": "Agent de page",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Récupération des détails...",
"task.status.initializing": "Initialisation de la tâche...",
"task.subtask": "Sous-tâche",
+ "task.title": "Tâches",
"thread.divider": "Sous-sujet",
"thread.threadMessageCount": "{{messageCount}} messages",
"thread.title": "Sous-sujet",
@@ -429,9 +436,11 @@
"toolAuth.title": "Autoriser les compétences pour cet agent",
"topic.checkOpenNewTopic": "Commencer un nouveau sujet ?",
"topic.checkSaveCurrentMessages": "Souhaitez-vous enregistrer la conversation actuelle comme sujet ?",
+ "topic.defaultTitle": "Sujet sans titre",
"topic.openNewTopic": "Ouvrir un nouveau sujet",
"topic.recent": "Sujets récents",
"topic.saveCurrentMessages": "Enregistrer la session actuelle comme sujet",
+ "topic.viewAll": "Voir tous les sujets",
"translate.action": "Traduire",
"translate.clear": "Effacer la traduction",
"tts.action": "Synthèse vocale",
diff --git a/locales/fr-FR/common.json b/locales/fr-FR/common.json
index 7526dee0b5..ecdc2912d5 100644
--- a/locales/fr-FR/common.json
+++ b/locales/fr-FR/common.json
@@ -343,10 +343,19 @@
"mail.support": "Assistance par e-mail",
"more": "Plus",
"navPanel.agent": "Agent",
+ "navPanel.customizeSidebar": "Personnaliser la barre latérale",
"navPanel.displayItems": "Éléments affichés",
+ "navPanel.hidden": "Masqué",
+ "navPanel.hideSection": "Masquer la section",
"navPanel.library": "Bibliothèque",
+ "navPanel.moveDown": "Déplacer vers le bas",
+ "navPanel.moveUp": "Déplacer vers le haut",
+ "navPanel.pinned": "Épinglé",
"navPanel.searchAgent": "Rechercher un agent...",
+ "navPanel.searchRecent": "Rechercher dans les récents...",
"navPanel.searchResultEmpty": "Aucun résultat trouvé",
+ "navPanel.show": "Afficher",
+ "navPanel.visible": "Visible",
"new": "Nouveau",
"noContent": "Aucun contenu",
"oauth": "Connexion SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Soutenez-nous",
"productHunt.description": "Soutenez-nous sur Product Hunt. Votre soutien compte beaucoup pour nous !",
"productHunt.title": "Nous sommes sur Product Hunt !",
+ "promptTransform.action": "Affiner l’idée",
+ "promptTransform.actions.rewrite": "Développer les détails",
+ "promptTransform.actions.translate": "Traduire",
+ "promptTransform.status.rewrite": "Développement des détails...",
+ "promptTransform.status.translate": "Traduction...",
+ "recents": "Récents",
"regenerate": "Régénérer",
"releaseNotes": "Détails de la version",
"rename": "Renommer",
@@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Discussion",
"tab.community": "Communauté",
+ "tab.create": "Créer",
"tab.discover": "Découvrir",
"tab.eval": "Laboratoire d'évaluation",
"tab.files": "Fichiers",
diff --git a/locales/fr-FR/image.json b/locales/fr-FR/image.json
index c1b8e2ed18..ef0ef6db6e 100644
--- a/locales/fr-FR/image.json
+++ b/locales/fr-FR/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Modèle",
"config.prompt.placeholder": "Décrivez ce que vous souhaitez générer",
"config.prompt.placeholderWithRef": "Décrivez comment vous souhaitez ajuster l'image",
+ "config.promptExtend.label": "Extension de l’invite",
"config.quality.label": "Qualité de l'image",
"config.quality.options.hd": "Haute définition",
"config.quality.options.standard": "Standard",
@@ -24,6 +25,8 @@
"config.size.label": "Taille",
"config.steps.label": "Étapes",
"config.title": "Configuration",
+ "config.watermark.label": "Filigrane",
+ "config.webSearch.label": "Recherche web",
"config.width.label": "Largeur",
"generation.actions.applySeed": "Appliquer la graine",
"generation.actions.copyError": "Copier le message d'erreur",
diff --git a/locales/fr-FR/labs.json b/locales/fr-FR/labs.json
index fe49265da5..cd2417df38 100644
--- a/locales/fr-FR/labs.json
+++ b/locales/fr-FR/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Regroupez les messages de l'agent et les résultats de leurs appels d'outils pour les afficher ensemble",
"features.assistantMessageGroup.title": "Regroupement des messages de l'agent",
+ "features.gatewayMode.desc": "Exécute les tâches de l’agent sur le serveur via un WebSocket Gateway au lieu de les exécuter localement. Permet une exécution plus rapide et réduit l’utilisation des ressources du client.",
+ "features.gatewayMode.title": "Exécution de l’agent côté serveur (Gateway)",
"features.groupChat.desc": "Activez la coordination de discussions de groupe multi-agents.",
"features.groupChat.title": "Discussion de groupe (multi-agents)",
"features.inputMarkdown.desc": "Affichez le Markdown dans la zone de saisie en temps réel (texte en gras, blocs de code, tableaux, etc.).",
diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json
index 2200426ee4..085396216b 100644
--- a/locales/fr-FR/models.json
+++ b/locales/fr-FR/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Un modèle de pointe en Chine, surpassant les principaux modèles étrangers sur les tâches en chinois telles que les connaissances, les textes longs et la génération créative. Il offre également des capacités multimodales de premier plan avec d’excellents résultats sur des benchmarks reconnus.",
"Baichuan4.description": "Performances nationales de premier plan, surpassant les modèles étrangers de référence sur les tâches en chinois telles que les connaissances encyclopédiques, les textes longs et la génération créative. Il propose également des capacités multimodales de pointe et d’excellents résultats aux benchmarks.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS est une famille de modèles LLM open source de ByteDance Seed, conçue pour une gestion efficace des contextes longs, le raisonnement, les agents et les capacités générales. Seed-OSS-36B-Instruct est un modèle de 36 milliards de paramètres affiné pour les instructions, avec un contexte ultra-long natif pour traiter de grands documents ou bases de code. Il est optimisé pour le raisonnement, la génération de code et les tâches d’agent (utilisation d’outils), tout en conservant de solides capacités générales. Une fonctionnalité clé est le \"budget de réflexion\", permettant une longueur de raisonnement flexible pour améliorer l’efficacité.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR est un modèle vision‑langage de DeepSeek AI conçu pour l’OCR et la « compression optique du contexte ». Il explore la compression du contexte issu d’images, traite efficacement les documents et les convertit en texte structuré (par exemple, en Markdown). Il reconnaît avec précision le texte dans les images, idéal pour la numérisation de documents, l’extraction de texte et le traitement structuré.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, le modèle le plus grand et le plus intelligent de la suite DeepSeek, est distillé dans l’architecture Llama 70B. Les benchmarks et les évaluations humaines montrent qu’il est plus performant que le Llama 70B de base, notamment sur les tâches de mathématiques et de précision factuelle.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Un modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-1.5B. L’apprentissage par renforcement et les données de démarrage à froid optimisent les performances de raisonnement, établissant de nouveaux benchmarks multitâches pour les modèles open source.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Les modèles DeepSeek-R1-Distill sont affinés à partir de modèles open source à l’aide d’échantillons générés par DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Fournisseur : sophnet. DeepSeek V3 Fast est la version à haut débit de DeepSeek V3 0324, en précision complète (non quantifiée), avec de meilleures performances en code et mathématiques et des réponses plus rapides.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast est la variante rapide à haut débit de DeepSeek V3.1. Mode de pensée hybride : via des modèles de conversation, un seul modèle prend en charge les modes avec ou sans raisonnement. Utilisation d’outils plus intelligente : le post-entraînement améliore les performances des tâches d’agent et d’outil.",
"DeepSeek-V3.1-Think.description": "Mode de réflexion DeepSeek-V3.1 : un nouveau modèle de raisonnement hybride avec modes de pensée et non-pensée, plus efficace que DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l’utilisation des outils d’agent et les performances des tâches d’agent.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 introduit un mécanisme d’attention clairsemée visant à améliorer l’efficacité de l’entraînement et de l’inférence lors du traitement de longs textes, tout en étant proposé à un coût inférieur à deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE développé par DeepSeek. Il surpasse d’autres modèles open source comme Qwen2.5-72B et Llama-3.1-405B sur de nombreux benchmarks et rivalise avec les modèles fermés de pointe tels que GPT-4o et Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite offre des réponses ultra-rapides et un excellent rapport qualité-prix, avec des options flexibles selon les cas d’usage. Prend en charge un contexte de 128K pour l’inférence et l’ajustement fin.",
"Doubao-lite-32k.description": "Doubao-lite offre des réponses ultra-rapides et un excellent rapport qualité-prix, avec des options flexibles selon les cas d’usage. Prend en charge un contexte de 32K pour l’inférence et l’ajustement fin.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5 : Modèle haute performance pour le raisonnement, le codage et les tâches d'agent.",
"GLM-4.6.description": "GLM-4.6 : Modèle de génération précédente.",
"GLM-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, optimisé pour les scénarios de codage agentique avec des capacités de codage améliorées, une planification des tâches à long terme et une collaboration avec des outils.",
- "GLM-5-Turbo.description": "GLM-5-Turbo : Version optimisée de GLM-5 avec une inférence plus rapide pour les tâches de codage.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo est un modèle fondamental profondément optimisé pour les scénarios agentiques. Il a été spécifiquement optimisé dès la phase d’entraînement pour les exigences essentielles des tâches d’agent, améliorant des capacités clés telles que l’invocation d’outils, l’exécution de commandes et les chaînes d’action longues. Il est idéal pour créer des assistants agents hautes performances.",
"GLM-5.1.description": "GLM-5.1 est le dernier modèle phare de Zhipu, une itération améliorée de GLM-5 avec des capacités d'ingénierie agentique renforcées pour l'ingénierie de systèmes complexes et les tâches à long terme.",
- "GLM-5.description": "GLM-5 est le modèle de base phare de nouvelle génération de Zhipu, conçu pour l'ingénierie agentique. Il offre une productivité fiable dans les systèmes complexes et les tâches agentiques à long terme. En matière de codage et de capacités d'agent, GLM-5 atteint des performances de pointe parmi les modèles open source.",
+ "GLM-5.description": "GLM-5 est le modèle fondamental phare de nouvelle génération de Zhipu, conçu pour l’ingénierie agentique. Il fournit une productivité fiable pour l’ingénierie de systèmes complexes et les tâches agentiques de longue durée. En programmation et en capacités d’agent, GLM-5 atteint des performances de pointe parmi les modèles open source. Dans des contextes de programmation réels, son expérience utilisateur se rapproche de celle de Claude Opus 4.5. Il excelle dans l’ingénierie de systèmes complexes et les tâches agentiques à long horizon, ce qui en fait un modèle fondamental idéal pour des assistants agents polyvalents.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) est un modèle innovant pour des domaines variés et des tâches complexes.",
"HY-Image-V3.0.description": "Capacités puissantes d'extraction des caractéristiques de l'image originale et de préservation des détails, offrant une texture visuelle plus riche et produisant des visuels de haute précision, bien composés et de qualité professionnelle.",
"HelloMeme.description": "HelloMeme est un outil d’IA qui génère des mèmes, GIFs ou courtes vidéos à partir des images ou mouvements que vous fournissez. Aucune compétence en dessin ou en codage n’est requise : une simple image de référence suffit pour créer un contenu amusant, attrayant et stylistiquement cohérent.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter est un modèle de génération de personnages personnalisés sans ajustement, publié par Tencent AI en 2025, visant une génération fidèle et cohérente de personnages à travers différents scénarios. Il peut modéliser un personnage à partir d’une seule image de référence et le transférer de manière flexible entre styles, actions et arrière-plans.",
"InternVL2-8B.description": "InternVL2-8B est un puissant modèle vision-langage prenant en charge le traitement multimodal image-texte, capable de reconnaître précisément le contenu des images et de générer des descriptions ou réponses pertinentes.",
"InternVL2.5-26B.description": "InternVL2.5-26B est un puissant modèle vision-langage prenant en charge le traitement multimodal image-texte, capable de reconnaître précisément le contenu des images et de générer des descriptions ou réponses pertinentes.",
+ "KAT-Coder-Air-V1.description": "Une version allégée de la série KAT-Coder. Spécifiquement conçue pour le codage agentique, elle couvre de manière exhaustive les tâches et scénarios de programmation. Grâce à un apprentissage par renforcement à grande échelle basé sur les agents, elle permet l’émergence de comportements intelligents et surpasse nettement les modèles comparables en performance de codage.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B est la version expérimentale d’innovation RL de la série KAT-Coder, atteignant une performance remarquable de 74,6 % sur le benchmark SWE-Bench verified, établissant un nouveau record pour les modèles open source. Il se concentre sur le codage agentique et ne prend actuellement en charge que le canevas SWE-Agent, tout en pouvant être utilisé pour des conversations simples.",
+ "KAT-Coder-Pro-V1.description": "Conçu pour le codage agentique, il couvre de manière exhaustive les tâches et scénarios de programmation, permettant l’émergence de comportements intelligents grâce à un apprentissage par renforcement à grande échelle et surpassant nettement les modèles similaires en performance de génération de code.",
+ "KAT-Coder-Pro-V2.description": "Le dernier modèle haute performance de l’équipe Kuaishou Kwaipilot, conçu pour les projets d’entreprise complexes et l’intégration SaaS. Il excelle dans les scénarios liés au code et est compatible avec divers types de cadres pour agents (Claude Code, OpenCode, KiloCode), prend en charge nativement OpenClaw et est spécialement optimisé pour l’esthétique des pages front-end.",
+ "Kimi-K2.5.description": "Kimi K2.5 est le modèle Kimi le plus performant, offrant un niveau SOTA open source dans les tâches agentiques, le codage et la compréhension visuelle. Il prend en charge les entrées multimodales et propose des modes avec ou sans raisonnement.",
"Kolors.description": "Kolors est un modèle de génération d’images à partir de texte développé par l’équipe Kolors de Kuaishou. Entraîné avec des milliards de paramètres, il se distingue par sa qualité visuelle, sa compréhension sémantique du chinois et son rendu textuel.",
"Kwai-Kolors/Kolors.description": "Kolors est un modèle de génération d’images à partir de texte à grande échelle basé sur la diffusion latente, développé par l’équipe Kolors de Kuaishou. Entraîné sur des milliards de paires texte-image, il excelle en qualité visuelle, précision sémantique complexe et rendu de texte en chinois/anglais, avec une forte capacité de compréhension et de génération de contenu en chinois.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) est un modèle open source de 32 milliards de paramètres pour les tâches d’ingénierie logicielle. Il atteint un taux de résolution de 62,4 % sur SWE-Bench Verified, se classant 5e parmi les modèles open source. Il est optimisé par entraînement intermédiaire, SFT et RL pour la complétion de code, la correction de bugs et la relecture de code.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modèle linguistique de pointe de petite taille avec une solide compréhension du langage, un excellent raisonnement et une génération de texte efficace.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 est le modèle Llama multilingue open source le plus avancé, offrant des performances proches de celles du modèle 405B à un coût très faible. Basé sur une architecture Transformer, il est amélioré par SFT et RLHF pour l’utilité et la sécurité. La version ajustée par instructions est optimisée pour la conversation multilingue et surpasse de nombreux modèles ouverts et fermés sur les benchmarks industriels. Date de coupure des connaissances : décembre 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick est un grand modèle MoE avec activation efficace des experts pour des performances de raisonnement élevées.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro est spécialement conçu pour les flux de travail agentiques intensifs dans des scénarios réels. Il dispose de plus d’un billion de paramètres au total (dont 42B activés), adopte une architecture d’attention hybride innovante et prend en charge une longueur de contexte ultra-longue allant jusqu’à un million de tokens. Construit sur un puissant modèle fondamental, nous étendons continuellement les ressources informatiques sur un plus large éventail de scénarios agentiques, élargissant encore l’espace d’action de l’intelligence et atteignant une généralisation significative — du codage à l’exécution de tâches réelles (« claw »).",
"MiniMax-Hailuo-02.description": "Le modèle de génération vidéo de nouvelle génération, MiniMax Hailuo 02, a été officiellement lancé, prenant en charge une résolution 1080P et la génération de vidéos de 10 secondes.",
"MiniMax-Hailuo-2.3-Fast.description": "Nouveau modèle de génération vidéo avec des améliorations complètes dans les mouvements corporels, le réalisme physique et le suivi des instructions.",
"MiniMax-Hailuo-2.3.description": "Nouveau modèle de génération vidéo avec des améliorations complètes dans les mouvements corporels, le réalisme physique et le suivi des instructions.",
"MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million d’entrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
"MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail d’agents, avec une plus grande simultanéité pour un usage commercial.",
- "MiniMax-M2.1-Lightning.description": "Capacités de programmation multilingues puissantes avec une inférence plus rapide et plus efficace.",
"MiniMax-M2.1-highspeed.description": "Des capacités de programmation multilingues puissantes, offrant une expérience de programmation entièrement améliorée. Plus rapide et plus efficace.",
"MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle phare open source de MiniMax, conçu pour résoudre des tâches complexes du monde réel. Ses principaux atouts résident dans ses capacités de programmation multilingue et sa faculté à résoudre des problèmes complexes en tant qu'agent.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed : Même performance que M2.5 avec une inférence plus rapide.",
"MiniMax-M2.5.description": "MiniMax-M2.5 est un modèle phare open-source de grande taille développé par MiniMax, axé sur la résolution de tâches complexes du monde réel. Ses principaux atouts sont ses capacités de programmation multilingue et sa capacité à résoudre des tâches complexes en tant qu'Agent.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed : Même performance que M2.7 avec une inférence significativement plus rapide.",
- "MiniMax-M2.7.description": "MiniMax M2.7 : Début du voyage vers l'amélioration récursive de soi, capacités d'ingénierie de pointe dans le monde réel.",
+ "MiniMax-M2.7.description": "Premier modèle auto‑évolutif doté de performances de pointe en codage et en capacités agentiques (~60 tps).",
"MiniMax-M2.description": "MiniMax M2 : Modèle de génération précédente.",
"MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusqu’à 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 est un modèle de raisonnement hybride à grande échelle avec des poids ouverts, comprenant 456 milliards de paramètres totaux et environ 45,9 milliards actifs par token. Il prend en charge nativement un contexte de 1 million et utilise Flash Attention pour réduire les FLOPs de 75 % sur une génération de 100 000 tokens par rapport à DeepSeek R1. Avec une architecture MoE, CISPO et un entraînement RL hybride-attention, il atteint des performances de pointe sur le raisonnement à long terme et les tâches d'ingénierie logicielle réelle.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 est le tout dernier et le plus puissant modèle Kimi K2. Il s'agit d'un modèle MoE de premier plan avec 1T de paramètres totaux et 32B de paramètres actifs. Ses principales caractéristiques incluent une intelligence de codage agentique renforcée avec des gains significatifs sur les benchmarks et les tâches d'agents réels, ainsi qu'une esthétique et une convivialité améliorées pour le codage en interface utilisateur.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo est la variante Turbo optimisée pour la vitesse de raisonnement et le débit, tout en conservant le raisonnement multi-étapes et l'utilisation d'outils de K2 Thinking. Il s'agit d'un modèle MoE avec environ 1T de paramètres totaux, un contexte natif de 256K, et un appel d'outils à grande échelle stable pour des scénarios de production nécessitant une faible latence et une forte concurrence.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 est un agent multimodal natif open source, basé sur Kimi-K2-Base, entraîné sur environ 1,5 billion de jetons mêlant vision et texte. Le modèle adopte une architecture MoE avec 1T de paramètres totaux et 32B de paramètres actifs, prenant en charge une fenêtre de contexte de 256K, intégrant harmonieusement les capacités de compréhension visuelle et linguistique.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 est un modèle phare de nouvelle génération conçu pour l’ingénierie agentique, utilisant une architecture Mixture of Experts (MoE) avec 754B paramètres. Il améliore considérablement les capacités de programmation, atteignant des résultats de premier plan sur SWE-Bench Pro, et surpasse largement son prédécesseur sur des benchmarks comme NL2Repo et Terminal-Bench 2.0. Conçu pour les tâches agentiques longues, il gère mieux les questions ambiguës, décompose les tâches complexes, exécute des expériences, analyse les résultats et optimise continuellement au fil de centaines d’itérations et de milliers d’appels d’outils.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 est le modèle phare de nouvelle génération de Zhipu avec 355 milliards de paramètres totaux et 32 milliards actifs, entièrement amélioré en dialogue général, raisonnement et capacités d'agent. GLM-4.7 améliore la pensée entrelacée et introduit la pensée préservée et la pensée au niveau des tours.",
"Pro/zai-org/glm-5.description": "GLM-5 est le modèle de langage de nouvelle génération de Zhipu, axé sur l'ingénierie de systèmes complexes et les tâches d'Agent de longue durée. Les paramètres du modèle ont été étendus à 744 milliards (40 milliards actifs) et intègrent DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 est optimisé pour le raisonnement avancé et le suivi des instructions, utilisant MoE pour maintenir une efficacité de raisonnement à grande échelle.",
"Qwen3-235B.description": "Qwen3-235B-A22B est un modèle MoE qui introduit un mode de raisonnement hybride, permettant aux utilisateurs de basculer facilement entre réflexion et non-réflexion. Il prend en charge la compréhension et le raisonnement dans 119 langues et dialectes, et dispose de solides capacités d'appel d'outils, rivalisant avec des modèles de référence comme DeepSeek R1, OpenAI o1, o3-mini, Grok 3 et Google Gemini 2.5 Pro sur les benchmarks de capacités générales, code et mathématiques, multilinguisme et raisonnement par connaissances.",
"Qwen3-32B.description": "Qwen3-32B est un modèle dense qui introduit un mode de raisonnement hybride, permettant aux utilisateurs de basculer entre réflexion et non-réflexion. Grâce à des améliorations architecturales, davantage de données et un meilleur entraînement, il offre des performances comparables à Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus prend en charge les entrées texte, image et vidéo. Ses performances sur les tâches purement textuelles sont comparables à celles de Qwen3 Max, avec de meilleurs résultats et un coût réduit. Ses capacités multimodales sont nettement améliorées par rapport à la série Qwen3 VL.",
"S2V-01.description": "Le modèle de base référence-vers-vidéo de la série 01.",
"SenseChat-128K.description": "Base V4 avec un contexte de 128K, excellent pour la compréhension et la génération de textes longs.",
"SenseChat-32K.description": "Base V4 avec un contexte de 32K, flexible pour de nombreux scénarios.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, avec une vitesse fulgurante et une réflexion étendue.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, offrant une vitesse fulgurante et un raisonnement étendu.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, avec une vitesse fulgurante et un raisonnement étendu.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le dernier modèle d'Anthropic, le plus performant pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches hautement complexes, excellant en performance, intelligence, fluidité et compréhension.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, excellant en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
- "claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d'Anthropic pour la création d'agents et le codage.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d’Anthropic pour la création d’agents et le codage.",
"claude-opus-4.5.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant une intelligence de premier ordre avec des performances évolutives pour des tâches complexes et un raisonnement de haute qualité.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 est le modèle le plus intelligent d’Anthropic pour la création d’agents et le codage.",
"claude-opus-4.6.description": "Claude Opus 4.6 est le modèle le plus intelligent d’Anthropic pour la création d’agents et le codage.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d'Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un contrôle précis pour les utilisateurs d'API.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et d'intelligence d'Anthropic.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec processus visible.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent d’Anthropic.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 offre la meilleure combinaison entre vitesse et intelligence.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et d’intelligence d’Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape que les utilisateurs peuvent suivre. Les utilisateurs de l’API peuvent contrôler finement la durée de réflexion du modèle.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle de raisonnement de nouvelle génération avec des capacités renforcées de raisonnement complexe et de chaîne de pensée.",
- "deepseek-chat.description": "DeepSeek V3.2 équilibre le raisonnement et la longueur des sorties pour les tâches quotidiennes de questions-réponses et d'agents. Les benchmarks publics atteignent des niveaux comparables à GPT-5, et il est le premier à intégrer la réflexion dans l'utilisation des outils, menant les évaluations d'agents open source.",
+ "deepseek-chat.description": "Un nouveau modèle open source combinant compétences générales et capacités en codage. Il conserve les qualités de dialogue d’un modèle de chat ainsi que la solidité du modèle de codage, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également l’écriture et le suivi des instructions.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant les sorties pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "Le mode réflexion de DeepSeek V3.2 génère une chaîne de raisonnement avant la réponse finale afin d’améliorer la précision.",
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
"ernie-x1.1.description": "ERNIE X1.1 est un modèle de réflexion en aperçu pour évaluation et test.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension logique spatiale, une expression esthétique, une mise en page d'affiche et une conception de logo avec un rendu texte-image de haute précision.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images hautement contrôlable et de haute qualité à partir d'invites.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d’images de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’images de haute qualité et fortement contrôlable. Il génère des images à partir d’instructions textuelles.",
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
"fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
- "fal-ai/qwen-image-edit.description": "Un modèle d'édition d'image professionnel de l'équipe Qwen, prenant en charge les modifications sémantiques et d'apparence, l'édition précise de texte en chinois/anglais, le transfert de style, la rotation et plus encore.",
- "fal-ai/qwen-image.description": "Un modèle de génération d'image puissant de l'équipe Qwen avec un rendu texte chinois solide et des styles visuels variés.",
+ "fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen qui prend en charge les modifications sémantiques et visuelles, édite précisément le texte chinois et anglais et permet des retouches de haute qualité telles que le transfert de style et la rotation d’objets.",
+ "fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen, avec un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
- "flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
+ "flux-dev.description": "Modèle open source de génération d’images destiné à la R&D, optimisé efficacement pour la recherche d’innovation non commerciale.",
"flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
"flux-kontext-pro.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
- "flux-merged.description": "FLUX.1 [fusionné] combine les fonctionnalités approfondies explorées dans \"DEV\" avec les avantages de haute vitesse de \"Schnell\", repoussant les limites de performance et élargissant les applications.",
"flux-pro-1.1-ultra.description": "Génération d’images ultra haute résolution avec une sortie de 4MP, produisant des images nettes en 10 secondes.",
"flux-pro-1.1.description": "Modèle de génération d’images de niveau professionnel amélioré avec une excellente qualité d’image et un respect précis des invites.",
"flux-pro.description": "Modèle de génération d’images commercial haut de gamme avec une qualité d’image inégalée et des sorties variées.",
- "flux-schnell.description": "FLUX.1 [schnell] est le modèle open source le plus avancé en génération rapide, surpassant les concurrents similaires et même des modèles non distillés puissants comme Midjourney v6.0 et DALL-E 3 (HD). Il est finement ajusté pour préserver la diversité de l’entraînement initial, améliorant considérablement la qualité visuelle, le suivi des instructions, la variation de taille/aspect, la gestion des polices et la diversité des sorties.",
"flux.1-schnell.description": "FLUX.1-schnell est un modèle de génération d’images haute performance pour des sorties rapides et multi-styles.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre des performances stables et ajustables pour les tâches complexes.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) offre un support multimodal puissant pour les tâches complexes.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
"gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google qui prend également en charge le dialogue multimodal.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'image de Google et prend également en charge le chat multimodal.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google et prend également en charge la conversation multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d'images natif le plus rapide de Google avec prise en charge de la réflexion, génération et édition d'images conversationnelles.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image de niveau Pro à une vitesse Flash avec prise en charge du chat multimodal.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d’images natif le plus rapide de Google, avec prise en charge du raisonnement, de la génération d’images conversationnelle et de l’édition.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview est le modèle multimodal le plus économique de Google, optimisé pour les tâches agentiques à haut volume, la traduction et le traitement des données.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview améliore Gemini 3 Pro avec des capacités de raisonnement renforcées et ajoute un support de niveau de réflexion moyen.",
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Notre modèle le plus puissant et avancé, conçu pour les tâches complexes en entreprise avec des performances exceptionnelles.",
"jamba-mini.description": "Le modèle le plus efficace de sa catégorie, alliant rapidité et qualité avec une empreinte réduite.",
"jina-deepsearch-v1.description": "DeepSearch combine la recherche web, la lecture et le raisonnement pour des investigations approfondies. Il agit comme un agent qui prend votre tâche de recherche, effectue des recherches étendues en plusieurs itérations, puis produit une réponse. Le processus implique une recherche continue, un raisonnement et une résolution de problèmes sous plusieurs angles, fondamentalement différent des LLM classiques qui répondent à partir de données préentraînées ou des systèmes RAG traditionnels basés sur une recherche superficielle en une seule étape.",
- "k2p5.description": "Kimi K2.5 est le modèle le plus polyvalent de Kimi à ce jour, doté d'une architecture multimodale native qui prend en charge à la fois les entrées visuelles et textuelles, les modes 'réflexion' et 'non-réflexion', ainsi que les tâches conversationnelles et d'agent.",
"kimi-k2-0711-preview.description": "kimi-k2 est un modèle de base MoE avec de solides capacités en codage et en agents (1T de paramètres totaux, 32B actifs), surpassant les autres modèles open source courants en raisonnement, programmation, mathématiques et benchmarks d’agents.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre une fenêtre de contexte de 256k, un codage agentique renforcé, une meilleure qualité de code front-end et une compréhension contextuelle améliorée.",
"kimi-k2-instruct.description": "Kimi K2 Instruct est le modèle officiel de raisonnement de Kimi, avec un long contexte pour le code, les questions-réponses et plus encore.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ est un modèle de raisonnement de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, il apporte des capacités de réflexion et de raisonnement qui améliorent considérablement les performances en aval, notamment sur les problèmes complexes. QwQ-32B est un modèle de raisonnement de taille moyenne qui rivalise avec les meilleurs modèles comme DeepSeek-R1 et o1-mini.",
"qwq_32b.description": "Modèle de raisonnement de taille moyenne de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, les capacités de réflexion et de raisonnement de QwQ améliorent considérablement les performances en aval, notamment sur les problèmes complexes.",
"r1-1776.description": "R1-1776 est une variante post-entraînée de DeepSeek R1 conçue pour fournir des informations factuelles non censurées et impartiales.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance prend en charge le texte-vers-vidéo, l'image-vers-vidéo (première image, première+dernière image) et la génération audio synchronisée avec les visuels.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite par BytePlus propose une génération augmentée par récupération web pour des informations en temps réel, une interprétation améliorée des invites complexes et une meilleure cohérence des références pour la création visuelle professionnelle.",
"solar-mini-ja.description": "Solar Mini (Ja) étend Solar Mini avec un accent sur le japonais tout en maintenant des performances efficaces et solides en anglais et en coréen.",
"solar-mini.description": "Solar Mini est un modèle LLM compact surpassant GPT-3.5, avec de solides capacités multilingues en anglais et en coréen, offrant une solution efficace à faible empreinte.",
"solar-pro.description": "Solar Pro est un LLM intelligent développé par Upstage, axé sur le suivi d'instructions sur un seul GPU, avec des scores IFEval supérieurs à 80. Il prend actuellement en charge l'anglais ; la version complète est prévue pour novembre 2024 avec un support linguistique élargi et un contexte plus long.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 est notre nouveau modèle puissant de génération multimédia, générant des vidéos avec audio synchronisé. Il peut créer des clips dynamiques et richement détaillés à partir de langage naturel ou d'images.",
"spark-x.description": "Aperçu des capacités X2 : 1. Introduit un ajustement dynamique du mode de raisonnement, contrôlé via le champ `thinking`. 2. Longueur de contexte étendue : 64K jetons d'entrée et 128K jetons de sortie. 3. Prend en charge la fonctionnalité Function Call.",
"stable-diffusion-3-medium.description": "Le dernier modèle texte-vers-image de Stability AI. Cette version améliore considérablement la qualité des images, la compréhension du texte et la diversité des styles, interprétant plus précisément les requêtes en langage naturel complexes.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applique la distillation par diffusion adversariale (ADD) à stable-diffusion-3.5-large pour une vitesse accrue.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large est un modèle texte-vers-image MMDiT de 800M paramètres avec une excellente qualité et un bon alignement des requêtes, prenant en charge des images de 1 mégapixel et fonctionnant efficacement sur du matériel grand public.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 est initialisé à partir du point de contrôle v1.2 et affiné pendant 595k étapes sur \"laion-aesthetics v2 5+\" à une résolution de 512x512, réduisant le conditionnement textuel de 10 % pour améliorer l'échantillonnage sans classificateur.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo se concentre sur la génération d’images haute qualité avec un rendu précis des détails et une grande fidélité des scènes.",
"stable-diffusion-xl-base-1.0.description": "Un modèle texte-vers-image open source de Stability AI avec une génération d'images créative de pointe. Il comprend bien les instructions et prend en charge les définitions de requêtes inversées pour une génération précise.",
- "stable-diffusion-xl.description": "stable-diffusion-xl apporte des améliorations majeures par rapport à la v1.5 et rivalise avec les meilleurs modèles texte-vers-image open source. Les améliorations incluent un UNet 3x plus grand, un module de raffinement pour une meilleure qualité d'image et des techniques d'entraînement plus efficaces.",
"step-1-128k.description": "Équilibre entre performance et coût pour des scénarios généraux.",
"step-1-256k.description": "Gestion de contexte extra-long, idéale pour l’analyse de documents longs.",
"step-1-32k.description": "Prend en charge des conversations de longueur moyenne pour divers scénarios.",
diff --git a/locales/fr-FR/plugin.json b/locales/fr-FR/plugin.json
index 38f7af6b9f..f58cd6f090 100644
--- a/locales/fr-FR/plugin.json
+++ b/locales/fr-FR/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} paramètres au total",
"arguments.title": "Arguments",
"builtins.lobe-activator.apiName.activateTools": "Activer les Outils",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} introuvable(s)",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtenir les modèles disponibles",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtenir les Compétences disponibles",
"builtins.lobe-agent-builder.apiName.getConfig": "Obtenir la configuration",
diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json
index 3ce3504d2b..b8e99e4c77 100644
--- a/locales/fr-FR/providers.json
+++ b/locales/fr-FR/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
"kimicodingplan.description": "Kimi Code de Moonshot AI offre un accès aux modèles Kimi, y compris K2.5, pour des tâches de codage.",
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
- "lobehub.description": "LobeHub Cloud utilise des API officielles pour accéder aux modèles d'IA et mesure l'utilisation avec des Crédits liés aux jetons des modèles.",
"longcat.description": "LongCat est une série de grands modèles d'IA générative développés indépendamment par Meituan. Elle est conçue pour améliorer la productivité interne de l'entreprise et permettre des applications innovantes grâce à une architecture informatique efficace et de puissantes capacités multimodales.",
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
"minimaxcodingplan.description": "Le plan de jetons MiniMax offre un accès aux modèles MiniMax, y compris M2.7, pour des tâches de codage via un abonnement à tarif fixe.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark propose une IA multilingue puissante dans divers domaines, favorisant l’innovation dans le matériel intelligent, la santé, la finance et d’autres secteurs.",
"stepfun.description": "Les modèles Stepfun offrent des capacités de raisonnement complexe et multimodal de pointe, avec une compréhension approfondie du contexte long et une orchestration autonome puissante de la recherche.",
"straico.description": "Straico simplifie l'intégration de l'IA en offrant un espace de travail unifié qui regroupe les meilleurs modèles génératifs d'IA pour le texte, l'image et l'audio, permettant aux marketeurs, entrepreneurs et passionnés d'accéder facilement à une variété d'outils d'IA.",
+ "streamlake.description": "StreamLake est une plateforme de services de modèles et de cloud de calcul IA de niveau entreprise, intégrant une inférence de modèles haute performance, une personnalisation de modèles à faible coût et des services entièrement gérés pour aider les entreprises à se concentrer sur l’innovation des applications d’IA sans se soucier de la complexité ni du coût des ressources de calcul sous-jacentes.",
"taichu.description": "Un modèle multimodal de nouvelle génération développé par le CASIA et l’Institut d’IA de Wuhan, prenant en charge les questions-réponses multi-tours, la rédaction, la génération d’images, la compréhension 3D et l’analyse de signaux avec une cognition et une créativité renforcées.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fournit des réponses aux questions d’entreprise de bout en bout, avec des services modulaires comme l’analyse de documents, le découpage, les embeddings et la réécriture multi-tours pour créer des solutions IA personnalisées.",
"togetherai.description": "Together AI offre des performances de pointe avec des modèles innovants, une personnalisation étendue, une montée en charge rapide et un déploiement simplifié pour les besoins des entreprises.",
diff --git a/locales/fr-FR/setting.json b/locales/fr-FR/setting.json
index 68889b251c..5f3a62c92d 100644
--- a/locales/fr-FR/setting.json
+++ b/locales/fr-FR/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Outils système",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - outil de recherche de code rapide",
"settingSystemTools.tools.agentBrowser.desc": "Agent-navigateur - CLI d'automatisation de navigateur sans interface pour les agents IA",
+ "settingSystemTools.tools.bun.desc": "Bun - environnement d’exécution JavaScript rapide et gestionnaire de packages",
+ "settingSystemTools.tools.bunx.desc": "bunx - exécuteur de packages Bun pour lancer des packages npm",
"settingSystemTools.tools.fd.desc": "fd - alternative rapide et conviviale à find",
"settingSystemTools.tools.find.desc": "find d'Unix - commande standard de recherche de fichiers",
"settingSystemTools.tools.grep.desc": "GNU grep - outil standard de recherche de texte",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - gérer et connecter les services LobeHub",
"settingSystemTools.tools.mdfind.desc": "Recherche Spotlight de macOS (recherche indexée rapide)",
"settingSystemTools.tools.node.desc": "Node.js - environnement d'exécution JavaScript pour JS/TS",
"settingSystemTools.tools.npm.desc": "npm - gestionnaire de paquets Node.js pour installer les dépendances",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - gestionnaire de packages rapide et économique en espace disque",
"settingSystemTools.tools.python.desc": "Python - environnement d'exécution du langage de programmation",
"settingSystemTools.tools.rg.desc": "ripgrep - outil de recherche de texte extrêmement rapide",
+ "settingSystemTools.tools.uv.desc": "uv - gestionnaire de packages Python extrêmement rapide",
"settingTTS.openai.sttModel": "Modèle de reconnaissance vocale OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Modèle de synthèse vocale OpenAI",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modèle",
"systemAgent.inputCompletion.modelDesc": "Modèle utilisé pour les suggestions d'auto-complétion de saisie (comme le texte fantôme de GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agent d'Auto-Complétion de Saisie",
+ "systemAgent.promptRewrite.label": "Modèle",
+ "systemAgent.promptRewrite.modelDesc": "Spécifiez le modèle utilisé pour réécrire les invites",
+ "systemAgent.promptRewrite.title": "Agent de Réécriture d’Invites",
"systemAgent.queryRewrite.label": "Modèle",
"systemAgent.queryRewrite.modelDesc": "Modèle utilisé pour optimiser les requêtes des utilisateurs",
"systemAgent.queryRewrite.title": "Agent de réécriture de requêtes",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Téléchargez un fichier local .zip ou .skill",
"tab.usage": "Statistiques d’utilisation",
"tools.add": "Ajouter une compétence",
+ "tools.builtins.find-skills.description": "Aide les utilisateurs à découvrir et installer des compétences d’agent lorsqu’ils demandent « comment faire X », « trouver une compétence pour X », ou souhaitent étendre les capacités",
+ "tools.builtins.find-skills.title": "Trouver des Compétences",
"tools.builtins.groupName": "Fonctionnalités intégrées",
"tools.builtins.install": "Installer",
"tools.builtins.installed": "Installé",
+ "tools.builtins.lobe-activator.description": "Découvrir et activer des outils et compétences",
+ "tools.builtins.lobe-activator.title": "Activateur d’Outils et Compétences",
+ "tools.builtins.lobe-agent-browser.description": "CLI d’automatisation de navigateur pour agents IA. À utiliser pour les tâches impliquant l’interaction avec des sites web ou Electron : navigation, formulaires, clics, captures d’écran, extraction de données, connexions et tests de bout en bout.",
+ "tools.builtins.lobe-agent-browser.title": "Navigateur d’Agent",
+ "tools.builtins.lobe-agent-builder.description": "Configurer les métadonnées de l’agent, les paramètres du modèle, les plugins et l’invite système",
+ "tools.builtins.lobe-agent-builder.title": "Générateur d’Agent",
+ "tools.builtins.lobe-agent-documents.description": "Gérer les documents propres à l’agent (lister, créer, lire, modifier, supprimer, renommer) et leurs règles de chargement",
+ "tools.builtins.lobe-agent-documents.title": "Documents",
+ "tools.builtins.lobe-agent-management.description": "Créer, gérer et orchestrer des agents IA",
+ "tools.builtins.lobe-agent-management.title": "Gestion d’Agents",
"tools.builtins.lobe-artifacts.description": "Générez et prévisualisez en direct des composants d'interface interactifs, des visualisations de données, des graphiques, des illustrations SVG et des applications web. Créez du contenu visuel riche avec lequel les utilisateurs peuvent interagir directement.",
"tools.builtins.lobe-artifacts.readme": "Générez et prévisualisez en direct des composants d'interface utilisateur interactifs, des visualisations de données, des graphiques, des illustrations SVG et des applications web. Créez du contenu visuel riche avec lequel les utilisateurs peuvent interagir directement.",
"tools.builtins.lobe-artifacts.title": "Artefacts",
+ "tools.builtins.lobe-brief.description": "Rapporter la progression, fournir les résultats et demander des décisions à l’utilisateur",
+ "tools.builtins.lobe-brief.title": "Outils de Brief",
"tools.builtins.lobe-calculator.description": "Effectuez des calculs mathématiques, résolvez des équations et travaillez avec des expressions symboliques",
"tools.builtins.lobe-calculator.readme": "Calculatrice mathématique avancée prenant en charge l'arithmétique de base, les équations algébriques, les opérations de calcul et les mathématiques symboliques. Inclut la conversion de base, la résolution d'équations, la différentiation, l'intégration et plus encore.",
"tools.builtins.lobe-calculator.title": "Calculatrice",
"tools.builtins.lobe-cloud-sandbox.description": "Exécutez du code Python, JavaScript et TypeScript dans un environnement cloud isolé. Lancez des commandes shell, gérez des fichiers, recherchez du contenu avec des expressions régulières et exportez les résultats en toute sécurité.",
"tools.builtins.lobe-cloud-sandbox.readme": "Exécutez du code Python, JavaScript et TypeScript dans un environnement cloud isolé. Lancez des commandes shell, gérez des fichiers, effectuez des recherches avec des expressions régulières et exportez les résultats en toute sécurité.",
"tools.builtins.lobe-cloud-sandbox.title": "Bac à sable cloud",
+ "tools.builtins.lobe-creds.description": "Gérer les identifiants utilisateur pour l’authentification, l’injection de variables d’environnement et la vérification d’API — gérer clés API, jetons OAuth et secrets pour intégrations tierces.",
+ "tools.builtins.lobe-creds.title": "Identifiants",
+ "tools.builtins.lobe-cron.description": "Gérer les tâches programmées exécutées automatiquement à des moments définis. Créer, modifier, activer/désactiver et surveiller les tâches récurrentes des agents.",
+ "tools.builtins.lobe-cron.title": "Tâches Programmées",
+ "tools.builtins.lobe-group-agent-builder.description": "Configurer les métadonnées du groupe, les membres et le contenu partagé pour les groupes multi-agents",
+ "tools.builtins.lobe-group-agent-builder.title": "Générateur de Groupe d’Agents",
+ "tools.builtins.lobe-group-management.description": "Orchestrer et gérer les conversations de groupes multi-agents",
+ "tools.builtins.lobe-group-management.title": "Gestion de Groupe",
"tools.builtins.lobe-gtd.description": "Planifiez des objectifs et suivez les progrès en utilisant la méthode GTD. Créez des plans stratégiques, gérez des listes de tâches avec suivi de statut et exécutez des tâches asynchrones de longue durée.",
"tools.builtins.lobe-gtd.readme": "Planifiez vos objectifs et suivez vos progrès grâce à la méthode GTD. Créez des plans stratégiques, gérez des listes de tâches avec suivi de statut et exécutez des tâches asynchrones de longue durée.",
"tools.builtins.lobe-gtd.title": "Outils GTD",
+ "tools.builtins.lobe-knowledge-base.description": "Rechercher dans les documents importés et la base de connaissances via la recherche vectorielle sémantique — pour une référence persistante et réutilisable",
+ "tools.builtins.lobe-knowledge-base.title": "Base de Connaissances",
"tools.builtins.lobe-local-system.description": "Accédez à votre système de fichiers local sur ordinateur. Lisez, écrivez, recherchez et organisez des fichiers. Exécutez des commandes shell avec prise en charge des tâches en arrière-plan et recherchez du contenu avec des motifs regex.",
"tools.builtins.lobe-local-system.readme": "Accédez à votre système de fichiers local sur ordinateur. Lisez, écrivez, recherchez et organisez vos fichiers. Exécutez des commandes shell avec prise en charge des tâches en arrière-plan et recherchez du contenu avec des motifs regex.",
"tools.builtins.lobe-local-system.title": "Système local",
+ "tools.builtins.lobe-message.description": "Envoyer, lire, modifier et gérer des messages sur plusieurs plateformes de messagerie via une interface unifiée",
+ "tools.builtins.lobe-message.readme": "Outil de messagerie multiplateforme prenant en charge Discord, Telegram, Slack, Google Chat et IRC. Fournit des API unifiées pour les opérations de message, réactions, épingles, fils, gestion de canaux et fonctionnalités spécifiques comme les sondages.",
+ "tools.builtins.lobe-message.title": "Message",
"tools.builtins.lobe-notebook.description": "Créez et gérez des documents persistants dans le cadre de conversations. Enregistrez des notes, rapports, articles et contenus markdown accessibles à tout moment.",
"tools.builtins.lobe-notebook.readme": "Créez et gérez des documents persistants dans le cadre de vos conversations. Enregistrez des notes, rapports, articles et contenus en markdown accessibles à tout moment.",
"tools.builtins.lobe-notebook.title": "Carnet",
+ "tools.builtins.lobe-page-agent.description": "Créer, lire, mettre à jour et supprimer des nœuds dans des documents structurés en XML",
+ "tools.builtins.lobe-page-agent.readme": "Créer et éditer des documents structurés avec un contrôle précis au niveau des nœuds. Initialiser depuis du Markdown, effectuer des opérations d’insertion/modification/suppression en masse et rechercher/remplacer du texte.",
+ "tools.builtins.lobe-page-agent.title": "Document",
+ "tools.builtins.lobe-remote-device.description": "Découvrir et gérer les connexions aux appareils de bureau distants",
+ "tools.builtins.lobe-remote-device.readme": "Gérer les connexions à vos appareils de bureau. Lister les appareils en ligne, en activer un pour les opérations à distance et vérifier l’état de connexion.",
+ "tools.builtins.lobe-remote-device.title": "Appareil Distant",
+ "tools.builtins.lobe-skill-store.description": "Parcourir et installer des compétences d’agent depuis la marketplace LobeHub. À utiliser pour étendre les capacités ou installer une compétence spécifique.",
+ "tools.builtins.lobe-skill-store.title": "Boutique de Compétences",
+ "tools.builtins.lobe-skills.description": "Activer et utiliser des packages de compétences réutilisables",
+ "tools.builtins.lobe-skills.title": "Compétences",
+ "tools.builtins.lobe-task.description": "Créer, lister, modifier et supprimer des tâches avec dépendances et configuration de révision",
+ "tools.builtins.lobe-task.title": "Outils de Tâches",
+ "tools.builtins.lobe-topic-reference.description": "Récupérer le contexte depuis des conversations de sujets référencés",
+ "tools.builtins.lobe-topic-reference.title": "Référence de Sujet",
+ "tools.builtins.lobe-user-interaction.description": "Poser des questions aux utilisateurs via des interactions d’interface et observer leurs résultats",
+ "tools.builtins.lobe-user-interaction.title": "Interaction Utilisateur",
"tools.builtins.lobe-user-memory.description": "Créez une base de connaissances personnalisée à votre sujet. Mémorisez vos préférences, suivez vos activités et expériences, stockez des informations d'identité et retrouvez le contexte pertinent dans de futures conversations.",
"tools.builtins.lobe-user-memory.readme": "Créez une base de connaissances personnalisée à votre sujet. Mémorisez vos préférences, suivez vos activités et expériences, stockez des informations d'identité et retrouvez le contexte pertinent lors de futures conversations.",
"tools.builtins.lobe-user-memory.title": "Mémoire",
+ "tools.builtins.lobe-web-browsing.description": "Rechercher des informations à jour sur le web et explorer des pages pour en extraire du contenu. Prend en charge plusieurs moteurs de recherche, catégories et plages temporelles.",
+ "tools.builtins.lobe-web-browsing.readme": "Rechercher des informations à jour sur le web et explorer des pages pour en extraire du contenu. Prise en charge de plusieurs moteurs de recherche, catégories et plages temporelles pour une recherche complète.",
+ "tools.builtins.lobe-web-browsing.title": "Navigation Web",
+ "tools.builtins.lobe-web-onboarding.description": "Gérer le flux d’onboarding web avec un environnement contrôlé pour l’agent",
+ "tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
+ "tools.builtins.lobehub.description": "Gérer la plateforme LobeHub via CLI — bases de connaissances, mémoire, agents, fichiers, recherche, génération et plus encore.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Non installé",
+ "tools.builtins.task.description": "Gestion et exécution de tâches — créer, suivre, réviser et accomplir des tâches via CLI.",
+ "tools.builtins.task.title": "Tâche",
"tools.builtins.uninstall": "Désinstaller",
"tools.builtins.uninstallConfirm.desc": "Êtes-vous sûr de vouloir désinstaller {{name}} ? Cette compétence sera supprimée de l'agent actuel.",
"tools.builtins.uninstallConfirm.title": "Désinstaller {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Déconnecter {{name}} ?",
"tools.lobehubSkill.disconnected": "Déconnecté",
"tools.lobehubSkill.error": "Erreur",
+ "tools.lobehubSkill.providers.github.description": "GitHub est une plateforme de gestion de versions et de collaboration permettant d’héberger, réviser et gérer des dépôts de code.",
+ "tools.lobehubSkill.providers.github.readme": "Connectez GitHub pour accéder à vos dépôts, créer et gérer des tickets, réviser des pull requests et collaborer sur le code — le tout par conversation naturelle avec votre assistant IA.",
"tools.lobehubSkill.providers.linear.description": "Linear est un outil moderne de suivi des problèmes et de gestion de projet conçu pour les équipes performantes afin de créer de meilleurs logiciels plus rapidement",
"tools.lobehubSkill.providers.linear.readme": "Profitez de la puissance de Linear directement dans votre assistant IA. Créez et mettez à jour des tickets, gérez les sprints, suivez l'avancement des projets et optimisez votre flux de développement — le tout via une conversation naturelle.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar est un outil de planification intégré à Microsoft Outlook qui permet aux utilisateurs de créer des rendez-vous, organiser des réunions et gérer efficacement leur temps et leurs événements.",
"tools.lobehubSkill.providers.microsoft.readme": "Intégrez Outlook Calendar pour consulter, créer et gérer vos événements en toute fluidité. Planifiez des réunions, vérifiez les disponibilités, définissez des rappels et organisez votre emploi du temps via des commandes en langage naturel.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) est une plateforme de médias sociaux permettant de partager des mises à jour en temps réel, des actualités et d’interagir avec votre audience via des publications, des réponses et des messages directs.",
"tools.lobehubSkill.providers.twitter.readme": "Connectez-vous à X (Twitter) pour publier des tweets, gérer votre fil d’actualité et interagir avec votre audience. Créez du contenu, planifiez des publications, surveillez les mentions et développez votre présence sur les réseaux sociaux via l’IA conversationnelle.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel est une plateforme cloud pour les développeurs front-end, offrant hébergement et fonctions serverless pour déployer facilement des applications web.",
+ "tools.lobehubSkill.providers.vercel.readme": "Connectez Vercel pour gérer vos déploiements, surveiller l’état des projets et contrôler votre infrastructure. Déployez des applications, consultez les journaux de build, gérez les variables d’environnement et faites évoluer vos projets via une IA conversationnelle.",
"tools.notInstalled": "Non installé",
"tools.notInstalledWarning": "Cette compétence n’est pas installée actuellement, ce qui peut affecter le fonctionnement de l’agent.",
"tools.plugins.enabled": "Activées : {{num}}",
diff --git a/locales/fr-FR/subscription.json b/locales/fr-FR/subscription.json
index 14171ea654..184313ae31 100644
--- a/locales/fr-FR/subscription.json
+++ b/locales/fr-FR/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Passer à",
"credits.topUp.upgradeSuffix": "pour économiser ${{savings}}",
"credits.topUp.validityInfo": "Validité de {{months}} mois",
+ "crossPlatform.desc": "Cet abonnement a été acheté via l'application mobile et ne peut pas être modifié ici. Veuillez gérer votre abonnement sur votre appareil mobile.",
+ "crossPlatform.manageOnMobile": "Gérer sur l'appareil mobile",
+ "crossPlatform.title": "Abonnement Multi-Plateforme",
"currentPlan.cancelAlert": "L'abonnement sera annulé après le {{canceledAt}}. Vous pouvez encore le réactiver dans « Gérer l'abonnement » d'ici là",
"currentPlan.downgradeAlert": "Sera rétrogradé au forfait {{plan}} après le {{downgradedAt}}.",
"currentPlan.management": "Gérer l'abonnement",
diff --git a/locales/fr-FR/video.json b/locales/fr-FR/video.json
index b005da94f2..9aebb7f77a 100644
--- a/locales/fr-FR/video.json
+++ b/locales/fr-FR/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Image de début",
"config.prompt.placeholder": "Décrivez la vidéo que vous souhaitez générer",
"config.prompt.placeholderWithRef": "Décrivez la scène que vous souhaitez générer avec l'image",
+ "config.promptExtend.label": "Extension de l’invite",
"config.referenceImage.label": "Image de référence",
"config.resolution.label": "Résolution",
"config.seed.label": "Graine",
"config.seed.random": "Aléatoire",
"config.size.label": "Taille",
+ "config.watermark.label": "Filigrane",
+ "config.webSearch.label": "Recherche web",
"generation.actions.copyError": "Copier le message d'erreur",
"generation.actions.errorCopied": "Message d'erreur copié dans le presse-papiers",
"generation.actions.errorCopyFailed": "Échec de la copie du message d'erreur",
diff --git a/locales/it-IT/agent.json b/locales/it-IT/agent.json
index 9c3e7f5278..fb09976fa4 100644
--- a/locales/it-IT/agent.json
+++ b/locales/it-IT/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot connesso con successo",
"channel.connecting": "Connessione in corso...",
"channel.connectionConfig": "Configurazione Connessione",
+ "channel.connectionMode": "Modalità di connessione",
+ "channel.connectionModeHint": "Si consiglia WebSocket per i nuovi bot. Usa Webhook se il tuo bot ha già un URL di callback configurato sulla Piattaforma Open di QQ.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Copiato negli appunti",
"channel.copy": "Copia",
"channel.credentials": "Credenziali",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Copia questo URL e incollalo nel campo {{fieldName}} nel Portale Sviluppatori di {{name}}.",
"channel.exportConfig": "Esporta configurazione",
"channel.feishu.description": "Connetti questo assistente a Feishu per chat private e di gruppo.",
+ "channel.feishu.webhookMigrationDesc": "La modalità WebSocket offre la consegna in tempo reale degli eventi senza la necessità di un URL pubblico di callback. Per eseguire la migrazione, passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate. Non è necessaria alcuna configurazione aggiuntiva sulla Piattaforma Open di Feishu/Lark.",
+ "channel.feishu.webhookMigrationTitle": "Valuta la migrazione alla modalità WebSocket",
"channel.historyLimit": "Limite dei messaggi nella cronologia",
"channel.historyLimitHint": "Numero predefinito di messaggi da recuperare quando si legge la cronologia del canale",
"channel.importConfig": "Importa configurazione",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Richiesta per la verifica delle interazioni",
"channel.qq.appIdHint": "Il tuo ID App Bot QQ dalla Piattaforma Aperta QQ",
"channel.qq.description": "Collega questo assistente a QQ per chat di gruppo e messaggi diretti.",
+ "channel.qq.webhookMigrationDesc": "La modalità WebSocket offre la consegna in tempo reale degli eventi e la riconnessione automatica senza la necessità di un URL di callback. Per eseguire la migrazione, crea un nuovo bot sulla Piattaforma Open di QQ senza configurare un URL di callback, quindi passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate.",
+ "channel.qq.webhookMigrationTitle": "Valuta la migrazione alla modalità WebSocket",
"channel.removeChannel": "Rimuovi Canale",
"channel.removeFailed": "Impossibile rimuovere il canale",
"channel.removed": "Canale rimosso",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Segreto di firma",
"channel.signingSecretHint": "Utilizzato per verificare le richieste webhook.",
"channel.slack.appIdHint": "Il tuo ID app Slack dal dashboard API di Slack (inizia con A).",
+ "channel.slack.appToken": "Token a livello di app",
+ "channel.slack.appTokenHint": "Richiesto per la Socket Mode (WebSocket). Genera un token a livello di app (xapp-...) nella sezione Informazioni di base delle impostazioni della tua app Slack.",
"channel.slack.description": "Connetti questo assistente a Slack per conversazioni nei canali e messaggi diretti.",
+ "channel.slack.webhookMigrationDesc": "La Socket Mode fornisce la consegna in tempo reale degli eventi tramite WebSocket senza esporre un endpoint HTTP pubblico. Per eseguire la migrazione, abilita la Socket Mode nelle impostazioni della tua app Slack, genera un token a livello di app, quindi passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate.",
+ "channel.slack.webhookMigrationTitle": "Valuta la migrazione alla Socket Mode (WebSocket)",
"channel.telegram.description": "Connetti questo assistente a Telegram per chat private e di gruppo.",
"channel.testConnection": "Test Connessione",
"channel.testFailed": "Test di connessione fallito",
diff --git a/locales/it-IT/chat.json b/locales/it-IT/chat.json
index a7bd5d4c9b..b01c06e2e7 100644
--- a/locales/it-IT/chat.json
+++ b/locales/it-IT/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Gruppo eliminato con successo",
"confirmRemoveSessionItemAlert": "Stai per eliminare questo agente. Una volta eliminato, non potrà essere recuperato. Confermi l'operazione?",
"confirmRemoveSessionSuccess": "Agente eliminato con successo",
+ "createModal.createBlank": "Crea vuoto",
+ "createModal.groupPlaceholder": "Descrivi cosa dovrebbe fare questo gruppo...",
+ "createModal.groupTitle": "Cosa dovrebbe fare il tuo gruppo?",
+ "createModal.placeholder": "Descrivi cosa dovrebbe fare il tuo agente...",
+ "createModal.title": "Cosa dovrebbe fare il tuo agente?",
"defaultAgent": "Agente predefinito",
"defaultGroupChat": "Gruppo",
"defaultList": "Elenco predefinito",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Contesto troppo lungo, compressione della cronologia in corso...",
"operation.execAgentRuntime": "Preparazione della risposta",
"operation.execClientTask": "Esecuzione attività",
+ "operation.execServerAgentRuntime": "In esecuzione… Puoi cambiare attività o chiudere la pagina: l’attività continuerà.",
"operation.sendMessage": "Invio del messaggio",
"owner": "Proprietario del gruppo",
"pageCopilot.title": "Agente di pagina",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Recupero dei dettagli in corso...",
"task.status.initializing": "Inizializzazione attività...",
"task.subtask": "Sottocompito",
+ "task.title": "Attività",
"thread.divider": "Sottotema",
"thread.threadMessageCount": "{{messageCount}} messaggi",
"thread.title": "Sottotema",
@@ -429,9 +436,11 @@
"toolAuth.title": "Autorizza le Skill per questo agente",
"topic.checkOpenNewTopic": "Iniziare un nuovo argomento?",
"topic.checkSaveCurrentMessages": "Vuoi salvare la conversazione corrente come argomento?",
+ "topic.defaultTitle": "Argomento senza titolo",
"topic.openNewTopic": "Apri nuovo argomento",
"topic.recent": "Argomenti recenti",
"topic.saveCurrentMessages": "Salva sessione corrente come argomento",
+ "topic.viewAll": "Vedi tutti gli argomenti",
"translate.action": "Traduci",
"translate.clear": "Cancella traduzione",
"tts.action": "Sintesi vocale",
diff --git a/locales/it-IT/common.json b/locales/it-IT/common.json
index bf29504be3..6e760f38a5 100644
--- a/locales/it-IT/common.json
+++ b/locales/it-IT/common.json
@@ -343,10 +343,19 @@
"mail.support": "Supporto via email",
"more": "Altro",
"navPanel.agent": "Agente",
+ "navPanel.customizeSidebar": "Personalizza barra laterale",
"navPanel.displayItems": "Elementi visualizzati",
+ "navPanel.hidden": "Nascosto",
+ "navPanel.hideSection": "Nascondi sezione",
"navPanel.library": "Libreria",
+ "navPanel.moveDown": "Sposta giù",
+ "navPanel.moveUp": "Sposta su",
+ "navPanel.pinned": "In evidenza",
"navPanel.searchAgent": "Cerca agente...",
+ "navPanel.searchRecent": "Cerca recenti...",
"navPanel.searchResultEmpty": "Nessun risultato trovato",
+ "navPanel.show": "Mostra",
+ "navPanel.visible": "Visibile",
"new": "Nuovo",
"noContent": "Nessun contenuto",
"oauth": "Accesso SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Sostienici",
"productHunt.description": "Sostienici su Product Hunt. Il tuo supporto è molto importante per noi!",
"productHunt.title": "Siamo su Product Hunt!",
+ "promptTransform.action": "Affina idea",
+ "promptTransform.actions.rewrite": "Amplia dettagli",
+ "promptTransform.actions.translate": "Traduci",
+ "promptTransform.status.rewrite": "Ampliamento dei dettagli...",
+ "promptTransform.status.translate": "Traduzione in corso...",
+ "recents": "Recenti",
"regenerate": "Rigenera",
"releaseNotes": "Dettagli versione",
"rename": "Rinomina",
@@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Comunità",
+ "tab.create": "Crea",
"tab.discover": "Scopri",
"tab.eval": "Laboratorio di Valutazione",
"tab.files": "File",
diff --git a/locales/it-IT/image.json b/locales/it-IT/image.json
index f9e54be670..f508cfb7db 100644
--- a/locales/it-IT/image.json
+++ b/locales/it-IT/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Modello",
"config.prompt.placeholder": "Descrivi cosa vuoi generare",
"config.prompt.placeholderWithRef": "Descrivi come desideri modificare l'immagine",
+ "config.promptExtend.label": "Estensione Prompt",
"config.quality.label": "Qualità immagine",
"config.quality.options.hd": "Alta definizione",
"config.quality.options.standard": "Standard",
@@ -24,6 +25,8 @@
"config.size.label": "Dimensione",
"config.steps.label": "Passaggi",
"config.title": "Configurazione",
+ "config.watermark.label": "Filigrana",
+ "config.webSearch.label": "Ricerca Web",
"config.width.label": "Larghezza",
"generation.actions.applySeed": "Applica seed",
"generation.actions.copyError": "Copia messaggio di errore",
diff --git a/locales/it-IT/labs.json b/locales/it-IT/labs.json
index 6887629623..8922bfd253 100644
--- a/locales/it-IT/labs.json
+++ b/locales/it-IT/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Raggruppa i messaggi dell'agente e i risultati delle chiamate agli strumenti per una visualizzazione unificata",
"features.assistantMessageGroup.title": "Raggruppamento Messaggi Agente",
+ "features.gatewayMode.desc": "Esegui le attività dell’agente sul server tramite Gateway WebSocket invece di eseguirle in locale. Consente un’esecuzione più rapida e riduce l’utilizzo delle risorse del client.",
+ "features.gatewayMode.title": "Esecuzione dell’Agente Lato Server (Gateway)",
"features.groupChat.desc": "Abilita il coordinamento della chat di gruppo con più agenti.",
"features.groupChat.title": "Chat di Gruppo (Multi-Agente)",
"features.inputMarkdown.desc": "Visualizza in tempo reale il Markdown nell'area di input (testo in grassetto, blocchi di codice, tabelle, ecc.).",
diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json
index 3cfeb6d4dc..813425de07 100644
--- a/locales/it-IT/models.json
+++ b/locales/it-IT/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Modello di punta in Cina, supera i principali modelli esteri nei compiti in lingua cinese come conoscenza, testi lunghi e generazione creativa. Presenta anche capacità multimodali all'avanguardia con risultati eccellenti nei benchmark autorevoli.",
"Baichuan4.description": "Prestazioni nazionali al top, superiori ai principali modelli esteri nei compiti in lingua cinese come conoscenza enciclopedica, testi lunghi e generazione creativa. Offre anche capacità multimodali all'avanguardia e risultati eccellenti nei benchmark.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS è una famiglia di LLM open-source di ByteDance Seed, progettata per una gestione efficace di contesti lunghi, ragionamento, agenti e capacità generali. Seed-OSS-36B-Instruct è un modello da 36B ottimizzato per istruzioni, con contesto ultra-lungo nativo per elaborare documenti o basi di codice estesi. Ottimizzato per ragionamento, generazione di codice e compiti agentici (uso di strumenti), mantiene forti capacità generali. Una caratteristica chiave è il \"Thinking Budget\", che consente una lunghezza di ragionamento flessibile per migliorare l'efficienza.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR è un modello visione-linguaggio sviluppato da DeepSeek AI, focalizzato sull’OCR e sulla “compressione ottica del contesto”. Esplora tecniche per comprimere il contesto proveniente dalle immagini, elabora documenti in modo efficiente e li converte in testo strutturato (ad esempio in Markdown). Riconosce accuratamente il testo nelle immagini ed è ideale per la digitalizzazione dei documenti, l’estrazione del testo e l’elaborazione strutturata.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, il modello più grande e intelligente della suite DeepSeek, è stato distillato nell'architettura Llama 70B. I benchmark e le valutazioni umane dimostrano che è più intelligente del Llama 70B base, in particolare nei compiti di matematica e precisione dei fatti.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Un modello distillato DeepSeek-R1 basato su Qwen2.5-Math-1.5B. L'apprendimento per rinforzo e i dati di avvio a freddo ottimizzano le prestazioni di ragionamento, stabilendo nuovi benchmark multi-task per i modelli open-source.",
"DeepSeek-R1-Distill-Qwen-14B.description": "I modelli DeepSeek-R1-Distill sono ottimizzati a partire da modelli open-source utilizzando dati campione generati da DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Fornitore: sophnet. DeepSeek V3 Fast è la versione ad alta velocità di DeepSeek V3 0324, a precisione completa (non quantizzata), con prestazioni superiori in programmazione e matematica e risposte più rapide.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast è la variante veloce ad alta velocità di DeepSeek V3.1. Modalità di pensiero ibrida: tramite template di chat, un solo modello supporta modalità con e senza pensiero. Uso più intelligente degli strumenti: il post-addestramento migliora le prestazioni nei compiti agentici e nell'uso degli strumenti.",
"DeepSeek-V3.1-Think.description": "Modalità di pensiero DeepSeek-V3.1: un nuovo modello di ragionamento ibrido con modalità di pensiero e non-pensiero, più efficiente di DeepSeek-R1-0528. Le ottimizzazioni post-addestramento migliorano significativamente l'uso degli strumenti agentici e le prestazioni nei compiti agentici.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 introduce un meccanismo di attenzione sparsa, progettato per migliorare l’efficienza dell’addestramento e dell’inferenza nel trattamento di testi lunghi, offrendo un costo inferiore rispetto a deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE sviluppato da DeepSeek. Supera altri modelli open-source come Qwen2.5-72B e Llama-3.1-405B in molti benchmark ed è competitivo con i principali modelli chiusi come GPT-4o e Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite offre risposte ultra-rapide e un ottimo rapporto qualità/prezzo, con opzioni flessibili per diversi scenari. Supporta un contesto di 128K per inferenza e fine-tuning.",
"Doubao-lite-32k.description": "Doubao-lite offre risposte ultra-rapide e un ottimo rapporto qualità/prezzo, con opzioni flessibili per diversi scenari. Supporta un contesto di 32K per inferenza e fine-tuning.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Modello ad alte prestazioni per ragionamento, programmazione e attività agentiche.",
"GLM-4.6.description": "GLM-4.6: Modello della generazione precedente.",
"GLM-4.7.description": "GLM-4.7 è il modello di punta più recente di Zhipu, ottimizzato per scenari di programmazione agentica con capacità di codifica migliorate, pianificazione di compiti a lungo termine e collaborazione con strumenti.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Versione ottimizzata di GLM-5 con inferenza più veloce per attività di programmazione.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo è un modello di base ottimizzato in profondità per scenari agentici. È stato affinato fin dalla fase di addestramento per soddisfare i requisiti fondamentali dei task degli agenti, migliorando capacità chiave come l’invocazione di strumenti, l’esecuzione di comandi e i processi complessi a catena. È ideale per creare assistenti agentici ad alte prestazioni.",
"GLM-5.1.description": "GLM-5.1 è il modello di punta più recente di Zhipu, un'iterazione migliorata di GLM-5 con capacità ingegneristiche agentiche avanzate per l'ingegneria di sistemi complessi e compiti a lungo termine.",
- "GLM-5.description": "GLM-5 è il modello di base di nuova generazione di Zhipu, progettato per l'Ingegneria Agentica. Offre produttività affidabile in sistemi complessi e compiti agentici a lungo termine. Nelle capacità di programmazione e agentiche, GLM-5 raggiunge prestazioni all'avanguardia tra i modelli open-source.",
+ "GLM-5.description": "GLM-5 è il modello di punta di nuova generazione di Zhipu, progettato specificamente per l’Agentic Engineering. Offre produttività affidabile nell’ingegneria di sistemi complessi e nei task agentici a lungo orizzonte. Nelle capacità di coding e nelle funzioni agentiche, GLM-5 raggiunge prestazioni all’avanguardia tra i modelli open-source. Nei contesti di programmazione reali, l’esperienza d’uso si avvicina a quella di Claude Opus 4.5. Eccelle nell’ingegneria di sistemi complessi e nei task agentici estesi, rendendolo un modello base ideale per assistenti agentici generici.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) è un modello innovativo per domini diversificati e compiti complessi.",
"HY-Image-V3.0.description": "Potenti capacità di estrazione delle caratteristiche dell'immagine originale e di conservazione dei dettagli, offrendo una texture visiva più ricca e producendo immagini di alta precisione, ben composte e di qualità professionale.",
"HelloMeme.description": "HelloMeme è uno strumento AI che genera meme, GIF o brevi video a partire da immagini o movimenti forniti. Non richiede abilità di disegno o programmazione: basta un'immagine di riferimento per creare contenuti divertenti, accattivanti e stilisticamente coerenti.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter è un modello di generazione di personaggi personalizzati senza tuning, rilasciato da Tencent AI nel 2025, progettato per una generazione fedele e coerente di personaggi in diversi scenari. Può modellare un personaggio da una singola immagine di riferimento e trasferirlo con flessibilità tra stili, azioni e sfondi.",
"InternVL2-8B.description": "InternVL2-8B è un potente modello visione-linguaggio che supporta l'elaborazione multimodale immagine-testo, riconoscendo accuratamente i contenuti visivi e generando descrizioni o risposte pertinenti.",
"InternVL2.5-26B.description": "InternVL2.5-26B è un potente modello visione-linguaggio che supporta l'elaborazione multimodale immagine-testo, riconoscendo accuratamente i contenuti visivi e generando descrizioni o risposte pertinenti.",
+ "KAT-Coder-Air-V1.description": "Una versione leggera della serie KAT-Coder. Progettata specificamente per l’Agentic Coding, copre in modo completo task e scenari di programmazione. Grazie al reinforcement learning su larga scala basato su agenti, consente l’emergere di comportamenti intelligenti e supera nettamente modelli simili nelle prestazioni di coding.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B è la versione sperimentale orientata alle innovazioni RL della serie KAT-Coder, raggiungendo una notevole prestazione del 74,6% nel benchmark SWE-Bench verified, stabilendo un nuovo record tra i modelli open-source. Si concentra sull’Agentic Coding e attualmente supporta solo lo scaffold SWE-Agent, pur potendo essere utilizzato anche per semplici conversazioni.",
+ "KAT-Coder-Pro-V1.description": "Progettato per l’Agentic Coding, copre in modo completo task e scenari di programmazione, ottenendo comportamenti intelligenti emergenti grazie al reinforcement learning su larga scala e superando significativamente modelli simili nelle prestazioni di scrittura del codice.",
+ "KAT-Coder-Pro-V2.description": "L’ultimo modello ad alte prestazioni del team Kuaishou Kwaipilot, progettato per progetti aziendali complessi e integrazioni SaaS. Eccelle negli scenari legati al codice ed è compatibile con vari framework agent (Claude Code, OpenCode, KiloCode), supporta nativamente OpenClaw ed è ottimizzato specificamente per l’estetica delle pagine front-end.",
+ "Kimi-K2.5.description": "Kimi K2.5 è il modello Kimi più avanzato, con prestazioni SOTA open-source nei task agentici, nel coding e nella comprensione visiva. Supporta input multimodali e sia la modalità con pensiero sia quella senza pensiero.",
"Kolors.description": "Kolors è un modello text-to-image sviluppato dal team Kuaishou Kolors. Addestrato con miliardi di parametri, offre vantaggi notevoli in qualità visiva, comprensione semantica del cinese e resa del testo.",
"Kwai-Kolors/Kolors.description": "Kolors è un modello text-to-image a diffusione latente su larga scala sviluppato dal team Kuaishou Kolors. Addestrato su miliardi di coppie testo-immagine, eccelle in qualità visiva, accuratezza semantica complessa e resa del testo in cinese/inglese, con forte comprensione e generazione di contenuti in cinese.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) è un modello open-source da 32 miliardi di parametri per compiti di ingegneria del software. Raggiunge un tasso di risoluzione del 62,4% su SWE-Bench Verified, classificandosi al 5° posto tra i modelli open. È ottimizzato tramite mid-training, SFT e RL per completamento del codice, correzione di bug e revisione del codice.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modello linguistico compatto all'avanguardia con forte comprensione del linguaggio, eccellente ragionamento e generazione testuale.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 è il modello Llama open-source multilingue più avanzato, con prestazioni vicine a quelle del 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione instruction-tuned è ottimizzata per chat multilingue e supera molti modelli open e closed nei benchmark industriali. Data di cutoff: dicembre 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick è un grande modello MoE con attivazione efficiente degli esperti per prestazioni di ragionamento elevate.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro è progettato specificamente per flussi di lavoro agentici ad alta intensità in scenari reali. Presenta oltre un trilione di parametri totali (42B attivati), adotta una nuova architettura ibrida di attenzione e supporta una lunghezza di contesto ultra-estesa fino a un milione di token. Basato su un modello fondamentale molto potente, espandiamo costantemente le risorse computazionali su un’ampia gamma di scenari agentici, ampliando ulteriormente lo spazio d’azione dell’intelligenza e ottenendo una forte generalizzazione—dal coding all’esecuzione di task reali (“claw”).",
"MiniMax-Hailuo-02.description": "È stato ufficialmente rilasciato il modello di generazione video di nuova generazione MiniMax Hailuo 02, che supporta la risoluzione 1080P e la generazione di video di 10 secondi.",
"MiniMax-Hailuo-2.3-Fast.description": "Nuovo modello di generazione video con aggiornamenti completi nei movimenti del corpo, realismo fisico e aderenza alle istruzioni.",
"MiniMax-Hailuo-2.3.description": "Nuovo modello di generazione video con aggiornamenti completi nei movimenti del corpo, realismo fisico e aderenza alle istruzioni.",
"MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.",
"MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.",
- "MiniMax-M2.1-Lightning.description": "Potenti capacità di programmazione multilingue con inferenza più rapida ed efficiente.",
"MiniMax-M2.1-highspeed.description": "Potenti capacità di programmazione multilingue, esperienza di programmazione completamente aggiornata. Più veloce ed efficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 è un modello open-source di punta di MiniMax, progettato per affrontare compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la risoluzione di compiti complessi come agente.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Stesse prestazioni di M2.5 con inferenza più veloce.",
"MiniMax-M2.5.description": "MiniMax-M2.5 è un modello open-source di punta di MiniMax, focalizzato sulla risoluzione di compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la capacità di risolvere compiti complessi come un Agente.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Stesse prestazioni di M2.7 con inferenza significativamente più veloce.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Inizio del percorso di auto-miglioramento ricorsivo, capacità ingegneristiche di alto livello nel mondo reale.",
+ "MiniMax-M2.7.description": "Primo modello auto-evolutivo con prestazioni di codifica e capacità agentiche di livello superiore (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Modello della generazione precedente.",
"MiniMax-Text-01.description": "MiniMax-01 introduce l'attenzione lineare su larga scala oltre i Transformer classici, con 456B parametri e 45,9B attivati per passaggio. Raggiunge prestazioni di alto livello e supporta fino a 4M token di contesto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 è un modello di ragionamento a grande scala con pesi aperti e attenzione ibrida, con 456 miliardi di parametri totali e ~45,9 miliardi attivi per token. Supporta nativamente un contesto di 1 milione e utilizza Flash Attention per ridurre i FLOP del 75% nella generazione di 100K token rispetto a DeepSeek R1. Con un'architettura MoE più CISPO e addestramento RL con attenzione ibrida, raggiunge prestazioni leader nel ragionamento su input lunghi e compiti di ingegneria software reale.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 è la versione più recente e potente di Kimi K2. È un modello MoE di fascia alta con 1T di parametri totali e 32B attivi. Le caratteristiche principali includono un'intelligenza di codifica agentica più forte con miglioramenti significativi nei benchmark e nei compiti reali da agente, oltre a una migliore estetica e usabilità del codice frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo è la variante Turbo ottimizzata per velocità di ragionamento e throughput, mantenendo il ragionamento multi-step e l'uso di strumenti di K2 Thinking. È un modello MoE con ~1T parametri totali, contesto nativo da 256K e chiamata stabile di strumenti su larga scala per scenari di produzione con requisiti più severi di latenza e concorrenza.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 è un modello agente multimodale nativo open-source, basato su Kimi-K2-Base, addestrato su circa 1,5 trilioni di token misti visivi e testuali. Il modello adotta un'architettura MoE con 1T di parametri totali e 32B attivi, supporta una finestra di contesto di 256K e integra perfettamente le capacità di comprensione visiva e linguistica.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 è un modello di punta di nuova generazione progettato per l’ingegneria agentica, basato su un’architettura Mixture of Experts (MoE) con 754B parametri. Migliora notevolmente le capacità di programmazione, ottenendo risultati leader su SWE-Bench Pro e superando di molto il suo predecessore in benchmark come NL2Repo e Terminal-Bench 2.0. Progettato per task agentici di lunga durata, gestisce meglio domande ambigue, scompone compiti complessi, esegue esperimenti, analizza risultati e ottimizza continuamente attraverso centinaia di iterazioni e migliaia di chiamate strumentali.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 è il modello di punta di nuova generazione di Zhipu con 355 miliardi di parametri totali e 32 miliardi di parametri attivi, completamente aggiornato per dialoghi generali, ragionamento e capacità agentiche. GLM-4.7 migliora il Pensiero Intercalato e introduce il Pensiero Preservato e il Pensiero a Livello di Turno.",
"Pro/zai-org/glm-5.description": "GLM-5 è il modello linguistico di prossima generazione di Zhipu, focalizzato sull'ingegneria di sistemi complessi e sui compiti di lunga durata per Agenti. I parametri del modello sono stati ampliati a 744 miliardi (40 miliardi attivi) e integrano DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 è ottimizzato per ragionamento avanzato e seguire istruzioni, utilizzando MoE per mantenere l'efficienza del ragionamento su larga scala.",
"Qwen3-235B.description": "Qwen3-235B-A22B è un modello MoE che introduce una modalità di ragionamento ibrida, consentendo agli utenti di passare senza interruzioni tra pensiero e non-pensiero. Supporta comprensione e ragionamento in 119 lingue e dialetti e ha forti capacità di utilizzo di strumenti, competendo con modelli di punta come DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro nei benchmark su abilità generali, codice e matematica, capacità multilingue e ragionamento basato sulla conoscenza.",
"Qwen3-32B.description": "Qwen3-32B è un modello denso che introduce una modalità di ragionamento ibrida, consentendo agli utenti di passare tra pensiero e non-pensiero. Grazie a miglioramenti architetturali, più dati e un addestramento migliore, offre prestazioni comparabili a Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus supporta input testuali, immagini e video. Le sue prestazioni nei task puramente testuali sono paragonabili a Qwen3 Max, con prestazioni migliori e costi inferiori. Le sue capacità multimodali sono notevolmente migliorate rispetto alla serie Qwen3 VL.",
"S2V-01.description": "Il modello di base per la generazione di video da riferimenti della serie 01.",
"SenseChat-128K.description": "Base V4 con contesto da 128K, eccellente nella comprensione e generazione di testi lunghi.",
"SenseChat-32K.description": "Base V4 con contesto da 32K, flessibile per molti scenari.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e pensiero esteso.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, caratterizzato da rapidità estrema e ragionamento avanzato.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento estese.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e capace di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
- "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e avanzato di Anthropic per task altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per task altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
- "claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e il coding.",
"claude-opus-4.5.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza di alto livello con prestazioni scalabili per compiti complessi e di alta qualità di ragionamento.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-opus-4.6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offrendo risposte quasi istantanee o pensiero esteso passo dopo passo con controllo dettagliato per gli utenti API.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 è la migliore combinazione di velocità e intelligenza di Anthropic.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 può produrre risposte quasi istantanee o un ragionamento esteso passo dopo passo con processo visibile.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente sviluppato da Anthropic finora.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 offre la migliore combinazione tra velocità e intelligenza.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 è il modello più intelligente mai creato da Anthropic.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 rappresenta la migliore combinazione di velocità e intelligenza di Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 può generare risposte quasi istantanee o ragionamenti estesi passo dopo passo che gli utenti possono seguire. Gli utenti API possono controllare finemente quanto tempo il modello dedica al ragionamento.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catena di pensiero.",
- "deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell'output per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli GPT-5, ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni degli agenti open-source.",
+ "deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di coding. Mantiene il dialogo naturale del modello chat e la forte competenza del modello coder, con un migliore allineamento delle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore precisione, con risultati di competizione di alto livello e ragionamento comparabile a Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di ragionamento prima della risposta finale per migliorarne l’accuratezza.",
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
"ernie-x1.1.description": "ERNIE X1.1 è un'anteprima del modello di pensiero per valutazione e test.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Caratteristiche includono coerenza del soggetto migliorata, aderenza precisa alle istruzioni, comprensione della logica spaziale, espressione estetica, layout di poster e design di loghi con rendering testo-immagine ad alta precisione.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini altamente controllabile e di alta qualità a partire da prompt.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi e offre una generazione di immagini altamente controllabile e di alta qualità. Genera immagini a partire da prompt testuali.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
- "fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e di aspetto, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro.",
- "fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen con una forte capacità di rendering di testo in cinese e stili visivi diversificati.",
+ "fal-ai/qwen-image-edit.description": "Un modello professionale di editing delle immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testo cinese e inglese ed esegue interventi di alta qualità come trasferimento di stile e rotazione di oggetti.",
+ "fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen, con eccellente resa del testo cinese e stili visivi diversificati.",
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
- "flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
+ "flux-dev.description": "Modello open-source per la ricerca e sviluppo nella generazione di immagini, ottimizzato in modo efficiente per la ricerca innovativa non commerciale.",
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
"flux-kontext-pro.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
- "flux-merged.description": "FLUX.1 [merged] combina le caratteristiche profonde esplorate in \"DEV\" con i vantaggi ad alta velocità di \"Schnell\", estendendo i limiti delle prestazioni e ampliando le applicazioni.",
"flux-pro-1.1-ultra.description": "Generazione di immagini ad altissima risoluzione con output da 4MP, producendo immagini nitide in 10 secondi.",
"flux-pro-1.1.description": "Modello aggiornato di generazione di immagini di livello professionale con eccellente qualità visiva e aderenza precisa ai prompt.",
"flux-pro.description": "Modello commerciale di generazione di immagini di fascia alta con qualità visiva impareggiabile e output diversificati.",
- "flux-schnell.description": "FLUX.1 [schnell] è il modello open-source più avanzato a pochi passaggi, superiore a concorrenti simili e persino a modelli non distillati come Midjourney v6.0 e DALL-E 3 (HD). Ottimizzato per preservare la diversità del pretraining, migliora notevolmente la qualità visiva, il rispetto delle istruzioni, la variazione di dimensioni/aspetto, la gestione dei font e la diversità degli output.",
"flux.1-schnell.description": "FLUX.1-schnell è un modello ad alte prestazioni per la generazione di immagini rapide in più stili.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e regolabili per compiti complessi.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) fornisce un forte supporto multimodale per compiti complessi.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
"gemini-3-flash-preview.description": "Gemini 3 Flash è il modello più intelligente progettato per la velocità, che combina intelligenza all'avanguardia con un eccellente ancoraggio alla ricerca.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google che supporta anche il dialogo multimodale.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche la chat multimodale.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google con supporto al pensiero, generazione e modifica di immagini conversazionali.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre qualità di immagine di livello Pro a velocità Flash con supporto per la chat multimodale.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google, con supporto al reasoning, generazione conversazionale di immagini ed editing.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview è il modello multimodale più economico di Google, ottimizzato per compiti agentici ad alto volume, traduzione e elaborazione dati.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview migliora Gemini 3 Pro con capacità di ragionamento avanzate e aggiunge supporto per un livello di pensiero medio.",
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Il nostro modello più potente e avanzato, progettato per compiti aziendali complessi con prestazioni eccezionali.",
"jamba-mini.description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità con un ingombro ridotto.",
"jina-deepsearch-v1.description": "DeepSearch combina ricerca web, lettura e ragionamento per indagini approfondite. Pensalo come un agente che prende il tuo compito di ricerca, esegue ricerche ampie con più iterazioni e solo dopo produce una risposta. Il processo prevede ricerca continua, ragionamento e risoluzione di problemi da più angolazioni, fondamentalmente diverso dai LLM standard che rispondono dai dati di preaddestramento o dai sistemi RAG tradizionali che si basano su una ricerca superficiale one-shot.",
- "k2p5.description": "Kimi K2.5 è il modello più versatile di Kimi fino ad oggi, caratterizzato da un'architettura multimodale nativa che supporta sia input visivi che testuali, modalità 'pensante' e 'non pensante', e sia compiti conversazionali che agenti.",
"kimi-k2-0711-preview.description": "kimi-k2 è un modello base MoE con forti capacità di programmazione e agenti (1T di parametri totali, 32B attivi), che supera altri modelli open-source mainstream nei benchmark di ragionamento, programmazione, matematica e agenti.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre una finestra di contesto da 256k, una programmazione agentica più forte, una qualità del codice front-end migliorata e una comprensione del contesto più profonda.",
"kimi-k2-instruct.description": "Kimi K2 Instruct è il modello ufficiale di ragionamento di Kimi con contesto esteso per codice, domande e risposte e altro.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ è un modello di ragionamento della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, offre capacità di pensiero e ragionamento che migliorano significativamente le prestazioni nei compiti difficili. QwQ-32B è un modello di medie dimensioni che compete con i migliori modelli di ragionamento come DeepSeek-R1 e o1-mini.",
"qwq_32b.description": "Modello di ragionamento di medie dimensioni della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, le capacità di pensiero e ragionamento di QwQ migliorano significativamente le prestazioni nei compiti difficili.",
"r1-1776.description": "R1-1776 è una variante post-addestrata di DeepSeek R1 progettata per fornire informazioni fattuali non censurate e imparziali.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro di ByteDance supporta la generazione da testo a video, immagine a video (primo fotogramma, primo+ultimo fotogramma) e audio sincronizzato con immagini.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite di BytePlus presenta generazione aumentata da recupero web per informazioni in tempo reale, interpretazione di prompt complessi migliorata e coerenza di riferimento migliorata per la creazione visiva professionale.",
"solar-mini-ja.description": "Solar Mini (Ja) estende Solar Mini con un focus sul giapponese, mantenendo prestazioni efficienti e solide in inglese e coreano.",
"solar-mini.description": "Solar Mini è un LLM compatto che supera GPT-3.5, con forte capacità multilingue in inglese e coreano, offrendo una soluzione efficiente e leggera.",
"solar-pro.description": "Solar Pro è un LLM ad alta intelligenza di Upstage, focalizzato sull’esecuzione di istruzioni su una singola GPU, con punteggi IFEval superiori a 80. Attualmente supporta l’inglese; il rilascio completo è previsto per novembre 2024 con supporto linguistico ampliato e contesto più lungo.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 è il nostro nuovo potente modello di generazione multimediale, che genera video con audio sincronizzato. Può creare clip dinamici e riccamente dettagliati da linguaggio naturale o immagini.",
"spark-x.description": "Panoramica delle capacità di X2: 1. Introduce l'adattamento dinamico della modalità di ragionamento, controllato tramite il campo `thinking`. 2. Lunghezza del contesto espansa: 64K token di input e 128K token di output. 3. Supporta la funzionalità Function Call.",
"stable-diffusion-3-medium.description": "L'ultimo modello text-to-image di Stability AI. Questa versione migliora significativamente la qualità delle immagini, la comprensione del testo e la diversità stilistica, interpretando con maggiore precisione prompt complessi in linguaggio naturale e generando immagini più accurate e varie.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applica la distillazione per diffusione avversaria (ADD) a stable-diffusion-3.5-large per una maggiore velocità.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large è un modello text-to-image MMDiT da 800M parametri con qualità eccellente e allineamento ai prompt, supporta immagini da 1 megapixel ed è efficiente su hardware consumer.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 è inizializzato dal checkpoint v1.2 e ottimizzato per 595k step su \"laion-aesthetics v2 5+\" a risoluzione 512x512, riducendo il conditioning testuale del 10% per migliorare il campionamento classifier-free.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo è focalizzato sulla generazione di immagini di alta qualità, con una forte resa dei dettagli e fedeltà della scena.",
"stable-diffusion-xl-base-1.0.description": "Modello open-source text-to-image di Stability AI con generazione creativa di immagini leader nel settore. Ha una forte comprensione delle istruzioni e supporta definizioni inverse dei prompt per generazioni precise.",
- "stable-diffusion-xl.description": "stable-diffusion-xl introduce miglioramenti significativi rispetto alla v1.5 e raggiunge i migliori risultati open-source text-to-image. Include un backbone UNet 3 volte più grande, un modulo di raffinamento per immagini migliori e tecniche di addestramento più efficienti.",
"step-1-128k.description": "Equilibrio tra prestazioni e costi per scenari generali.",
"step-1-256k.description": "Gestione di contesti extra-lunghi, ideale per l’analisi di documenti estesi.",
"step-1-32k.description": "Supporta conversazioni di media lunghezza per un’ampia gamma di scenari.",
diff --git a/locales/it-IT/plugin.json b/locales/it-IT/plugin.json
index 7f4fd2fedd..725b40ebee 100644
--- a/locales/it-IT/plugin.json
+++ b/locales/it-IT/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} parametri in totale",
"arguments.title": "Argomenti",
"builtins.lobe-activator.apiName.activateTools": "Attiva Strumenti",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} non trovati",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Ottieni modelli disponibili",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Ottieni Competenze disponibili",
"builtins.lobe-agent-builder.apiName.getConfig": "Ottieni configurazione",
diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json
index 6adeaa6204..460ffaeb52 100644
--- a/locales/it-IT/providers.json
+++ b/locales/it-IT/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
"kimicodingplan.description": "Kimi Code di Moonshot AI offre accesso ai modelli Kimi, inclusi K2.5, per attività di codifica.",
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
- "lobehub.description": "LobeHub Cloud utilizza API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo con Crediti legati ai token dei modelli.",
"longcat.description": "LongCat è una serie di modelli AI generativi di grandi dimensioni sviluppati indipendentemente da Meituan. È progettato per migliorare la produttività interna dell'azienda e consentire applicazioni innovative attraverso un'architettura computazionale efficiente e potenti capacità multimodali.",
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
"minimaxcodingplan.description": "Il piano di token MiniMax offre accesso ai modelli MiniMax, inclusi M2.7, per attività di codifica tramite un abbonamento a tariffa fissa.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark fornisce AI multilingue potente in vari settori, abilitando innovazioni in hardware intelligente, sanità, finanza e altri verticali.",
"stepfun.description": "I modelli Stepfun offrono capacità multimodali e di ragionamento complesse all'avanguardia, con comprensione di contesti lunghi e potente orchestrazione di ricerca autonoma.",
"straico.description": "Straico semplifica l'integrazione dell'IA offrendo uno spazio di lavoro unificato che riunisce i migliori modelli generativi di IA per testo, immagini e audio, offrendo a marketer, imprenditori e appassionati un accesso senza soluzione di continuità a diversi strumenti di IA.",
+ "streamlake.description": "StreamLake è una piattaforma enterprise di servizi di modelli e cloud di calcolo AI, che integra inferenza di modelli ad alte prestazioni, personalizzazione dei modelli a basso costo e servizi completamente gestiti per aiutare le aziende a concentrarsi sull’innovazione delle applicazioni AI senza doversi preoccupare della complessità e dei costi delle risorse di calcolo sottostanti.",
"taichu.description": "Un modello multimodale di nuova generazione sviluppato da CASIA e Wuhan Institute of AI, che supporta QA multi-turno, scrittura, generazione di immagini, comprensione 3D e analisi di segnali con maggiore cognizione e creatività.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fornisce QA end-to-end per imprese e sviluppatori, con servizi modulari come parsing documenti, suddivisione, embedding e riscrittura multi-turno per creare soluzioni AI personalizzate.",
"togetherai.description": "Together AI offre prestazioni leader con modelli innovativi, ampia personalizzazione, scalabilità rapida e distribuzione semplice per esigenze aziendali.",
diff --git a/locales/it-IT/setting.json b/locales/it-IT/setting.json
index 5ef6785091..a8db5cfbab 100644
--- a/locales/it-IT/setting.json
+++ b/locales/it-IT/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Strumenti di Sistema",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - strumento veloce per la ricerca nel codice",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI per l'automazione del browser senza interfaccia grafica per agenti AI",
+ "settingSystemTools.tools.bun.desc": "Bun - runtime JavaScript e gestore di pacchetti veloce",
+ "settingSystemTools.tools.bunx.desc": "bunx - esecutore di pacchetti Bun per l’esecuzione di pacchetti npm",
"settingSystemTools.tools.fd.desc": "fd - alternativa veloce e intuitiva a find",
"settingSystemTools.tools.find.desc": "find di Unix - comando standard per la ricerca di file",
"settingSystemTools.tools.grep.desc": "GNU grep - strumento standard per la ricerca di testo",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - gestisci e connetti i servizi LobeHub",
"settingSystemTools.tools.mdfind.desc": "Ricerca Spotlight di macOS (ricerca indicizzata veloce)",
"settingSystemTools.tools.node.desc": "Node.js - runtime JavaScript per l'esecuzione di JS/TS",
"settingSystemTools.tools.npm.desc": "npm - gestore di pacchetti Node.js per installare le dipendenze",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - gestore di pacchetti veloce ed efficiente in termini di spazio su disco",
"settingSystemTools.tools.python.desc": "Python - runtime del linguaggio di programmazione",
"settingSystemTools.tools.rg.desc": "ripgrep - strumento estremamente veloce per la ricerca di testo",
+ "settingSystemTools.tools.uv.desc": "uv - gestore di pacchetti Python estremamente veloce",
"settingTTS.openai.sttModel": "Modello OpenAI per Riconoscimento Vocale",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Modello OpenAI per Sintesi Vocale",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modello",
"systemAgent.inputCompletion.modelDesc": "Modello utilizzato per i suggerimenti di completamento automatico dell'input (come il testo fantasma di GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agente di Completamento Automatico dell'Input",
+ "systemAgent.promptRewrite.label": "Modello",
+ "systemAgent.promptRewrite.modelDesc": "Specifica il modello utilizzato per riscrivere i prompt",
+ "systemAgent.promptRewrite.title": "Agente di Riscrittura Prompt",
"systemAgent.queryRewrite.label": "Modello",
"systemAgent.queryRewrite.modelDesc": "Specifica il modello utilizzato per ottimizzare le richieste degli utenti",
"systemAgent.queryRewrite.title": "Agente Riscrittura Richieste Libreria",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Carica un file locale .zip o .skill",
"tab.usage": "Statistiche di Utilizzo",
"tools.add": "Aggiungi Competenza",
+ "tools.builtins.find-skills.description": "Aiuta gli utenti a scoprire e installare competenze dell’agente quando chiedono \"come faccio a X\", \"trova una skill per X\" o vogliono estendere le funzionalità",
+ "tools.builtins.find-skills.title": "Trova Skill",
"tools.builtins.groupName": "Integrati",
"tools.builtins.install": "Installa",
"tools.builtins.installed": "Installato",
+ "tools.builtins.lobe-activator.description": "Scopri e attiva strumenti e skill",
+ "tools.builtins.lobe-activator.title": "Attivatore di Strumenti e Skill",
+ "tools.builtins.lobe-agent-browser.description": "CLI di automazione del browser per agenti AI. Da utilizzare per attività che coinvolgono interazioni con siti web o Electron come navigazione, compilazione di moduli, clic, cattura di screenshot, scraping di dati, flussi di login e test end‑to‑end.",
+ "tools.builtins.lobe-agent-browser.title": "Browser Agente",
+ "tools.builtins.lobe-agent-builder.description": "Configura i metadati dell’agente, le impostazioni del modello, i plugin e il system prompt",
+ "tools.builtins.lobe-agent-builder.title": "Costruttore Agente",
+ "tools.builtins.lobe-agent-documents.description": "Gestisci documenti associati all’agente (elenca, crea, leggi, modifica, rimuovi, rinomina) e le regole di caricamento",
+ "tools.builtins.lobe-agent-documents.title": "Documenti",
+ "tools.builtins.lobe-agent-management.description": "Crea, gestisci e organizza agenti AI",
+ "tools.builtins.lobe-agent-management.title": "Gestione Agente",
"tools.builtins.lobe-artifacts.description": "Genera e visualizza in anteprima componenti UI interattivi, grafici e contenuti web",
"tools.builtins.lobe-artifacts.readme": "Genera e visualizza in anteprima componenti UI interattivi, visualizzazioni di dati, grafici, grafica SVG e applicazioni web. Crea contenuti visivi ricchi con cui gli utenti possono interagire direttamente.",
"tools.builtins.lobe-artifacts.title": "Artefatti",
+ "tools.builtins.lobe-brief.description": "Riporta i progressi, fornisce risultati e richiede decisioni all’utente",
+ "tools.builtins.lobe-brief.title": "Strumenti di Brief",
"tools.builtins.lobe-calculator.description": "Esegui calcoli matematici, risolvi equazioni e lavora con espressioni simboliche",
"tools.builtins.lobe-calculator.readme": "Calcolatrice matematica avanzata che supporta aritmetica di base, equazioni algebriche, operazioni di calcolo e matematica simbolica. Include conversione di basi, risoluzione di equazioni, differenziazione, integrazione e altro.",
"tools.builtins.lobe-calculator.title": "Calcolatrice",
"tools.builtins.lobe-cloud-sandbox.description": "Esegui codice, comandi e gestisci file in un ambiente cloud sicuro",
"tools.builtins.lobe-cloud-sandbox.readme": "Esegui codice Python, JavaScript e TypeScript in un ambiente cloud isolato. Esegui comandi shell, gestisci file, cerca contenuti con espressioni regolari ed esporta i risultati in modo sicuro.",
"tools.builtins.lobe-cloud-sandbox.title": "Sandbox Cloud",
+ "tools.builtins.lobe-creds.description": "Gestisci le credenziali utente per autenticazione, inserimento di variabili d’ambiente e verifica delle API — gestisci API key, token OAuth e segreti per integrazioni di terze parti.",
+ "tools.builtins.lobe-creds.title": "Credenziali",
+ "tools.builtins.lobe-cron.description": "Gestisci attività pianificate che vengono eseguite automaticamente in orari specifici. Crea, aggiorna, abilita/disabilita e monitora attività ricorrenti per i tuoi agenti.",
+ "tools.builtins.lobe-cron.title": "Attività Pianificate",
+ "tools.builtins.lobe-group-agent-builder.description": "Configura i metadati dei gruppi, i membri e i contenuti condivisi per gruppi multi‑agente",
+ "tools.builtins.lobe-group-agent-builder.title": "Costruttore Gruppo Agente",
+ "tools.builtins.lobe-group-management.description": "Organizza e gestisci conversazioni di gruppi multi‑agente",
+ "tools.builtins.lobe-group-management.title": "Gestione Gruppo",
"tools.builtins.lobe-gtd.description": "Pianifica obiettivi e monitora i progressi con il metodo GTD",
"tools.builtins.lobe-gtd.readme": "Pianifica obiettivi e monitora i progressi utilizzando il metodo GTD. Crea piani strategici, gestisci liste di cose da fare con tracciamento dello stato ed esegui attività asincrone di lunga durata.",
"tools.builtins.lobe-gtd.title": "Strumenti GTD",
+ "tools.builtins.lobe-knowledge-base.description": "Cerca documenti caricati e conoscenze di dominio tramite ricerca vettoriale semantica — per riferimenti persistenti e riutilizzabili",
+ "tools.builtins.lobe-knowledge-base.title": "Base di Conoscenza",
"tools.builtins.lobe-local-system.description": "Accedi e gestisci file locali, esegui comandi shell sul tuo desktop",
"tools.builtins.lobe-local-system.readme": "Accedi al file system locale sul desktop. Leggi, scrivi, cerca e organizza file. Esegui comandi shell con supporto per attività in background e cerca contenuti con pattern regex.",
"tools.builtins.lobe-local-system.title": "Sistema Locale",
+ "tools.builtins.lobe-message.description": "Invia, leggi, modifica e gestisci messaggi su più piattaforme tramite un’interfaccia unificata",
+ "tools.builtins.lobe-message.readme": "Strumento di messaggistica multipiattaforma che supporta Discord, Telegram, Slack, Google Chat e IRC. Fornisce API unificate per operazioni sui messaggi, reazioni, pin, thread, gestione dei canali e funzionalità specifiche come i sondaggi.",
+ "tools.builtins.lobe-message.title": "Messaggi",
"tools.builtins.lobe-notebook.description": "Crea e gestisci documenti nel taccuino tematico",
"tools.builtins.lobe-notebook.readme": "Crea e gestisci documenti persistenti all'interno di argomenti di conversazione. Salva note, report, articoli e contenuti markdown accessibili tra le sessioni.",
"tools.builtins.lobe-notebook.title": "Taccuino",
+ "tools.builtins.lobe-page-agent.description": "Crea, leggi, aggiorna ed elimina nodi in documenti strutturati XML",
+ "tools.builtins.lobe-page-agent.readme": "Crea e modifica documenti strutturati con controllo preciso a livello di nodo. Inizializza da Markdown, esegui operazioni in batch di inserimento/modifica/rimozione e trova‑e‑sostituisci testo nei documenti.",
+ "tools.builtins.lobe-page-agent.title": "Documento",
+ "tools.builtins.lobe-remote-device.description": "Scopri e gestisci connessioni a dispositivi desktop remoti",
+ "tools.builtins.lobe-remote-device.readme": "Gestisci le connessioni ai tuoi dispositivi desktop. Elenca i dispositivi online, attiva un dispositivo per operazioni remote e verifica lo stato della connessione.",
+ "tools.builtins.lobe-remote-device.title": "Dispositivo Remoto",
+ "tools.builtins.lobe-skill-store.description": "Esplora e installa skill per agenti dal marketplace LobeHub. Utile quando servono funzionalità estese o si desidera installare una skill specifica.",
+ "tools.builtins.lobe-skill-store.title": "Skill Store",
+ "tools.builtins.lobe-skills.description": "Attiva e utilizza pacchetti di skill riutilizzabili",
+ "tools.builtins.lobe-skills.title": "Skill",
+ "tools.builtins.lobe-task.description": "Crea, elenca, modifica e cancella attività con dipendenze e configurazione di revisione",
+ "tools.builtins.lobe-task.title": "Strumenti di Attività",
+ "tools.builtins.lobe-topic-reference.description": "Recupera contesto da conversazioni su argomenti di riferimento",
+ "tools.builtins.lobe-topic-reference.title": "Riferimento Argomenti",
+ "tools.builtins.lobe-user-interaction.description": "Poni domande agli utenti tramite interazioni UI e osservane gli esiti",
+ "tools.builtins.lobe-user-interaction.title": "Interazione Utente",
"tools.builtins.lobe-user-memory.description": "Ricorda preferenze, attività ed esperienze dell'utente nelle conversazioni",
"tools.builtins.lobe-user-memory.readme": "Costruisci una base di conoscenza personalizzata su di te. Ricorda preferenze, traccia attività ed esperienze, memorizza informazioni sull'identità e richiama contesti rilevanti nelle conversazioni future.",
"tools.builtins.lobe-user-memory.title": "Memoria",
+ "tools.builtins.lobe-web-browsing.description": "Cerca informazioni aggiornate sul web ed esplora pagine per estrarre contenuti. Supporta più motori di ricerca, categorie e intervalli temporali.",
+ "tools.builtins.lobe-web-browsing.readme": "Cerca informazioni aggiornate sul web ed esplora pagine per estrarre contenuti. Supporta diversi motori di ricerca, categorie e intervalli temporali per ricerche approfondite.",
+ "tools.builtins.lobe-web-browsing.title": "Navigazione Web",
+ "tools.builtins.lobe-web-onboarding.description": "Gestisci il flusso di onboarding web con un runtime agente controllato",
+ "tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
+ "tools.builtins.lobehub.description": "Gestisci la piattaforma LobeHub tramite CLI — basi di conoscenza, memoria, agenti, file, ricerca, generazione e altro.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Non installato",
+ "tools.builtins.task.description": "Gestione ed esecuzione di attività — crea, traccia, rivedi e completa attività tramite CLI.",
+ "tools.builtins.task.title": "Attività",
"tools.builtins.uninstall": "Disinstalla",
"tools.builtins.uninstallConfirm.desc": "Sei sicuro di voler disinstallare {{name}}? Questa funzione verrà rimossa dall'agente attuale.",
"tools.builtins.uninstallConfirm.title": "Disinstalla {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Disconnettere {{name}}?",
"tools.lobehubSkill.disconnected": "Disconnesso",
"tools.lobehubSkill.error": "Errore",
+ "tools.lobehubSkill.providers.github.description": "GitHub è una piattaforma per il controllo versione e la collaborazione, che permette agli sviluppatori di ospitare, rivedere e gestire repository di codice.",
+ "tools.lobehubSkill.providers.github.readme": "Connettiti a GitHub per accedere ai tuoi repository, creare e gestire issue, rivedere pull request e collaborare al codice — tutto tramite conversazioni naturali con il tuo assistente AI.",
"tools.lobehubSkill.providers.linear.description": "Linear è uno strumento moderno per il tracciamento dei problemi e la gestione dei progetti, progettato per team ad alte prestazioni che vogliono sviluppare software migliori più velocemente",
"tools.lobehubSkill.providers.linear.readme": "Porta la potenza di Linear direttamente nel tuo assistente IA. Crea e aggiorna issue, gestisci sprint, monitora l'avanzamento dei progetti e ottimizza il flusso di lavoro di sviluppo—tutto tramite conversazioni naturali.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar è uno strumento di pianificazione integrato in Microsoft Outlook che consente agli utenti di creare appuntamenti, organizzare riunioni e gestire efficacemente il proprio tempo.",
"tools.lobehubSkill.providers.microsoft.readme": "Integra con Outlook Calendar per visualizzare, creare e gestire eventi senza interruzioni. Pianifica riunioni, controlla disponibilità, imposta promemoria e coordina il tuo tempo—tutto tramite comandi in linguaggio naturale.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) è una piattaforma di social media per condividere aggiornamenti in tempo reale, notizie e interagire con il tuo pubblico tramite post, risposte e messaggi diretti.",
"tools.lobehubSkill.providers.twitter.readme": "Connettiti a X (Twitter) per pubblicare tweet, gestire la tua timeline e interagire con il tuo pubblico. Crea contenuti, programma post, monitora menzioni e costruisci la tua presenza sui social media tramite IA conversazionale.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel è una piattaforma cloud per sviluppatori frontend, che offre hosting e funzioni serverless per distribuire applicazioni web con facilità.",
+ "tools.lobehubSkill.providers.vercel.readme": "Connettiti a Vercel per gestire le tue distribuzioni, monitorare lo stato dei progetti e controllare l’infrastruttura. Distribuisci applicazioni, controlla i log di build, gestisci variabili d’ambiente e scala i tuoi progetti tramite AI conversazionale.",
"tools.notInstalled": "Non Installato",
"tools.notInstalledWarning": "Questa competenza non è attualmente installata, il che potrebbe influire sulla funzionalità dell'agente.",
"tools.plugins.enabled": "Abilitati: {{num}}",
diff --git a/locales/it-IT/subscription.json b/locales/it-IT/subscription.json
index d5b7d22072..08ae1e6e77 100644
--- a/locales/it-IT/subscription.json
+++ b/locales/it-IT/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Passa a",
"credits.topUp.upgradeSuffix": "per risparmiare ${{savings}}",
"credits.topUp.validityInfo": "Validità di {{months}} mesi",
+ "crossPlatform.desc": "Questo abbonamento è stato acquistato tramite l'app mobile e non può essere modificato qui. Gestisci il tuo abbonamento sul tuo dispositivo mobile.",
+ "crossPlatform.manageOnMobile": "Gestisci sul dispositivo mobile",
+ "crossPlatform.title": "Abbonamento Cross-Platform",
"currentPlan.cancelAlert": "L'abbonamento verrà annullato dopo il {{canceledAt}}. Puoi ancora ripristinarlo in \"Gestisci Abbonamento\" prima di tale data",
"currentPlan.downgradeAlert": "Verrà effettuato il downgrade a {{plan}} dopo il {{downgradedAt}}.",
"currentPlan.management": "Gestisci Abbonamento",
diff --git a/locales/it-IT/video.json b/locales/it-IT/video.json
index 5e00860483..d9b080c41d 100644
--- a/locales/it-IT/video.json
+++ b/locales/it-IT/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Fotogramma Iniziale",
"config.prompt.placeholder": "Descrivi il video che vuoi generare",
"config.prompt.placeholderWithRef": "Descrivi la scena che vuoi generare con l'immagine",
+ "config.promptExtend.label": "Estensione del prompt",
"config.referenceImage.label": "Immagine di Riferimento",
"config.resolution.label": "Risoluzione",
"config.seed.label": "Seed",
"config.seed.random": "Casuale",
"config.size.label": "Dimensione",
+ "config.watermark.label": "Filigrana",
+ "config.webSearch.label": "Ricerca web",
"generation.actions.copyError": "Copia Messaggio di Errore",
"generation.actions.errorCopied": "Messaggio di Errore Copiato negli Appunti",
"generation.actions.errorCopyFailed": "Copia del Messaggio di Errore Fallita",
diff --git a/locales/ja-JP/agent.json b/locales/ja-JP/agent.json
index 5f4b8fd063..c90131cfc6 100644
--- a/locales/ja-JP/agent.json
+++ b/locales/ja-JP/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "ボットが正常に接続されました",
"channel.connecting": "接続中...",
"channel.connectionConfig": "接続設定",
+ "channel.connectionMode": "接続モード",
+ "channel.connectionModeHint": "新しいボットには WebSocket を推奨します。すでに QQ オープンプラットフォームでコールバック URL を設定済みの場合は Webhook を使用してください。",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "クリップボードにコピーしました",
"channel.copy": "コピー",
"channel.credentials": "認証情報",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "このURLをコピーして、{{name}}開発者ポータルの{{fieldName}}フィールドに貼り付けてください。",
"channel.exportConfig": "設定をエクスポート",
"channel.feishu.description": "このアシスタントをFeishuに接続して、プライベートチャットやグループチャットを利用します。",
+ "channel.feishu.webhookMigrationDesc": "WebSocket モードでは、公開コールバック URL を必要とせず、リアルタイムでイベントを受信できます。移行するには、詳細設定で接続モードを WebSocket に切り替えてください。Feishu/Lark オープンプラットフォーム側での追加設定は不要です。",
+ "channel.feishu.webhookMigrationTitle": "WebSocket モードへの移行をご検討ください",
"channel.historyLimit": "履歴メッセージの制限",
"channel.historyLimitHint": "チャンネル履歴を読む際に取得するデフォルトのメッセージ数",
"channel.importConfig": "設定をインポート",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "インタラクション検証に必要",
"channel.qq.appIdHint": "QQオープンプラットフォームから取得したQQボットのアプリID",
"channel.qq.description": "このアシスタントをQQに接続して、グループチャットやダイレクトメッセージを利用しましょう。",
+ "channel.qq.webhookMigrationDesc": "WebSocket モードでは、コールバック URL を必要とせず、リアルタイムのイベント配信と自動再接続が可能です。移行するには、QQ オープンプラットフォームで新しいボットを作成し、コールバック URL を設定せずに、詳細設定で接続モードを WebSocket に切り替えてください。",
+ "channel.qq.webhookMigrationTitle": "WebSocket モードへの移行をご検討ください",
"channel.removeChannel": "チャンネルを削除",
"channel.removeFailed": "チャンネルの削除に失敗しました",
"channel.removed": "チャンネルが削除されました",
@@ -93,7 +101,11 @@
"channel.signingSecret": "署名シークレット",
"channel.signingSecretHint": "Webhookリクエストを検証するために使用されます。",
"channel.slack.appIdHint": "Slack APIダッシュボードから取得したSlack App ID (Aで始まります)。",
+ "channel.slack.appToken": "アプリレベルトークン",
+ "channel.slack.appTokenHint": "Socket Mode(WebSocket)に必要です。Slack アプリ設定の「Basic Information」からアプリレベルトークン(xapp-...)を生成してください。",
"channel.slack.description": "このアシスタントをSlackに接続して、チャンネル会話やダイレクトメッセージを行います。",
+ "channel.slack.webhookMigrationDesc": "Socket Mode では、公開 HTTP エンドポイントを使わずに WebSocket 経由でリアルタイムにイベントを受信できます。移行するには、Slack アプリ設定で Socket Mode を有効にし、アプリレベルトークンを生成してから、詳細設定で接続モードを WebSocket に切り替えてください。",
+ "channel.slack.webhookMigrationTitle": "Socket Mode(WebSocket)への移行をご検討ください",
"channel.telegram.description": "このアシスタントをTelegramに接続して、プライベートチャットやグループチャットを利用します。",
"channel.testConnection": "接続テスト",
"channel.testFailed": "接続テストに失敗しました",
diff --git a/locales/ja-JP/chat.json b/locales/ja-JP/chat.json
index e516f33be4..72fdf28c5b 100644
--- a/locales/ja-JP/chat.json
+++ b/locales/ja-JP/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "グループが削除されました",
"confirmRemoveSessionItemAlert": "このアシスタントを削除してもよろしいですか?削除後は復元できません",
"confirmRemoveSessionSuccess": "アシスタントが削除されました",
+ "createModal.createBlank": "空白を作成",
+ "createModal.groupPlaceholder": "このグループが何をするか説明してください…",
+ "createModal.groupTitle": "グループは何をすべきですか?",
+ "createModal.placeholder": "エージェントが何をするか説明してください…",
+ "createModal.title": "エージェントは何をすべきですか?",
"defaultAgent": "カスタムアシスタント",
"defaultGroupChat": "グループ",
"defaultList": "デフォルトリスト",
@@ -229,6 +234,7 @@
"operation.contextCompression": "コンテキストが長すぎるため、履歴を圧縮しています...",
"operation.execAgentRuntime": "応答を準備中",
"operation.execClientTask": "タスクを実行中",
+ "operation.execServerAgentRuntime": "実行中… 別の作業に切り替えたりページを閉じても、タスクは継続します。",
"operation.sendMessage": "メッセージを送信中",
"owner": "グループオーナー",
"pageCopilot.title": "ドキュメントコパイロット",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "詳細を取得中...",
"task.status.initializing": "タスクを起動中…",
"task.subtask": "サブタスク",
+ "task.title": "タスク",
"thread.divider": "サブトピック",
"thread.threadMessageCount": "{{messageCount}} 件のメッセージ",
"thread.title": "サブトピック",
@@ -429,9 +436,11 @@
"toolAuth.title": "アシスタントのスキル承認を完了してください",
"topic.checkOpenNewTopic": "新しいトピックを開きますか?",
"topic.checkSaveCurrentMessages": "現在の会話をトピックとして保存しますか?",
+ "topic.defaultTitle": "無題のトピック",
"topic.openNewTopic": "新しいトピックを開く",
"topic.recent": "最近のトピック",
"topic.saveCurrentMessages": "トピックとして保存",
+ "topic.viewAll": "すべてのトピックを表示",
"translate.action": "翻訳",
"translate.clear": "翻訳を削除",
"tts.action": "音声読み上げ",
diff --git a/locales/ja-JP/common.json b/locales/ja-JP/common.json
index 603c95a87b..9437b42135 100644
--- a/locales/ja-JP/common.json
+++ b/locales/ja-JP/common.json
@@ -343,10 +343,19 @@
"mail.support": "メールサポート",
"more": "もっと見る",
"navPanel.agent": "アシスタント",
+ "navPanel.customizeSidebar": "サイドバーをカスタマイズ",
"navPanel.displayItems": "項目を表示",
+ "navPanel.hidden": "非表示",
+ "navPanel.hideSection": "セクションを非表示",
"navPanel.library": "ライブラリ",
+ "navPanel.moveDown": "下へ移動",
+ "navPanel.moveUp": "上へ移動",
+ "navPanel.pinned": "固定",
"navPanel.searchAgent": "アシスタントを検索…",
+ "navPanel.searchRecent": "最近の検索...",
"navPanel.searchResultEmpty": "検索結果がありません",
+ "navPanel.show": "表示",
+ "navPanel.visible": "表示中",
"new": "新規",
"noContent": "コンテンツがありません",
"oauth": "SSO ログイン",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "応援する",
"productHunt.description": "Product Huntで私たちを応援してください。皆さまのサポートが大きな力になります!",
"productHunt.title": "Product Huntに掲載されました!",
+ "promptTransform.action": "アイデアを洗練",
+ "promptTransform.actions.rewrite": "詳細を展開",
+ "promptTransform.actions.translate": "翻訳",
+ "promptTransform.status.rewrite": "詳細を展開しています...",
+ "promptTransform.status.translate": "翻訳しています...",
+ "recents": "最近",
"regenerate": "再生成",
"releaseNotes": "バージョン詳細",
"rename": "名前を変更",
@@ -400,6 +415,7 @@
"tab.audio": "オーディオ",
"tab.chat": "チャット",
"tab.community": "コミュニティ",
+ "tab.create": "作成",
"tab.discover": "発見",
"tab.eval": "評価ラボ",
"tab.files": "ファイル",
diff --git a/locales/ja-JP/image.json b/locales/ja-JP/image.json
index c8b92a38e7..a1398d9886 100644
--- a/locales/ja-JP/image.json
+++ b/locales/ja-JP/image.json
@@ -12,6 +12,7 @@
"config.model.label": "モデル",
"config.prompt.placeholder": "生成したい内容を記述してください",
"config.prompt.placeholderWithRef": "画像をどのように調整したいか説明してください",
+ "config.promptExtend.label": "プロンプト拡張",
"config.quality.label": "画像品質",
"config.quality.options.hd": "高精細",
"config.quality.options.standard": "標準",
@@ -24,6 +25,8 @@
"config.size.label": "サイズ",
"config.steps.label": "ステップ数",
"config.title": "設定",
+ "config.watermark.label": "ウォーターマーク",
+ "config.webSearch.label": "ウェブ検索",
"config.width.label": "幅",
"generation.actions.applySeed": "シードを適用する",
"generation.actions.copyError": "エラー情報をコピー",
diff --git a/locales/ja-JP/labs.json b/locales/ja-JP/labs.json
index 084ed91ca3..e53877f99b 100644
--- a/locales/ja-JP/labs.json
+++ b/locales/ja-JP/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "アシスタントのメッセージとそのツール呼び出し結果をグループ化して表示します",
"features.assistantMessageGroup.title": "アシスタントメッセージのグループ化表示",
+ "features.gatewayMode.desc": "エージェントのタスクをローカルではなく Gateway WebSocket を介してサーバー上で実行します。これにより、より高速な処理が可能になり、クライアント側のリソース消費を削減できます。",
+ "features.gatewayMode.title": "サーバーサイドエージェント実行(Gateway)",
"features.groupChat.desc": "複数のAIアシスタントによるグループチャット機能を有効にします。",
"features.groupChat.title": "グループチャット(マルチアシスタント)",
"features.inputMarkdown.desc": "入力エリアでMarkdown(太字、コードブロック、表など)をリアルタイムでレンダリングします。",
diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json
index 1d2cae85c4..3724811f13 100644
--- a/locales/ja-JP/models.json
+++ b/locales/ja-JP/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "中国国内でトップクラスの性能を誇り、知識、長文生成、創造的生成などの中国語タスクで海外の主要モデルを上回ります。業界最先端のマルチモーダル機能も備え、権威あるベンチマークで高評価を獲得しています。",
"Baichuan4.description": "中国国内で最高レベルの性能を持ち、百科事典的知識、長文生成、創造的生成などの中国語タスクで海外の主要モデルを上回ります。業界最先端のマルチモーダル機能と優れたベンチマーク結果も提供します。",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSSは、ByteDance Seedが開発したオープンソースのLLMファミリーで、長文処理、推論、エージェント、汎用能力に優れています。Seed-OSS-36B-Instructは、36Bの命令調整済みモデルで、超長文コンテキストにネイティブ対応し、大規模な文書やコードベースの処理に最適です。推論、コード生成、エージェントタスク(ツール使用)に最適化され、汎用能力も維持しています。特徴的な「Thinking Budget」機能により、柔軟な推論長を実現し、効率を向上させます。",
+ "DeepSeek-OCR.description": "DeepSeek-OCR は、DeepSeek AI による OCR と「コンテキスト光学圧縮」に特化したビジョン・ランゲージモデルです。画像から文脈を圧縮して抽出し、文書を効率的に処理して構造化テキスト(例:Markdown)へ変換します。画像内文字の高精度認識に優れ、文書のデジタル化、テキスト抽出、構造化処理に適しています。",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1は、DeepSeekスイートの中でより大規模かつ高性能なモデルであり、Llama 70Bアーキテクチャに蒸留されています。ベンチマークと人間による評価により、特に数学や事実精度のタスクで、ベースのLlama 70Bよりも優れていることが示されています。",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Qwen2.5-Math-1.5BをベースにしたDeepSeek-R1蒸留モデル。強化学習とコールドスタートデータにより推論性能を最適化し、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てています。",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distillモデルは、DeepSeek-R1によって生成されたサンプルデータを用いて、オープンソースモデルから微調整されています。",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "提供元:sophnet。DeepSeek V3 Fastは、DeepSeek V3 0324の高TPSバージョンで、フル精度(非量子化)により、コードと数学に強く、応答も高速です。",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fastは、DeepSeek V3.1の高TPS高速バリアントです。ハイブリッド思考モードにより、1つのモデルで思考と非思考の両方をサポート。ポストトレーニングにより、ツールとエージェントタスクの性能が向上しています。",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1の思考モード:思考と非思考の両モードを備えた新しいハイブリッド推論モデルで、DeepSeek-R1-0528よりも効率的です。ポストトレーニングの最適化により、エージェントのツール使用とタスク性能が大幅に向上しています。",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 はスパースアテンション機構を導入し、長文処理における学習と推論の効率を向上させています。また、deepseek-v3.1 より低価格で提供されます。",
"DeepSeek-V3.description": "DeepSeek-V3は、DeepSeekが開発したMoEモデルで、Qwen2.5-72BやLlama-3.1-405Bなどの他のオープンモデルを多くのベンチマークで上回り、GPT-4oやClaude 3.5 Sonnetなどの主要なクローズドモデルと競合します。",
"Doubao-lite-128k.description": "Doubao-lite は、超高速な応答と優れたコストパフォーマンスを提供し、さまざまなシナリオに柔軟に対応します。推論とファインチューニングに対応した128Kコンテキストをサポートします。",
"Doubao-lite-32k.description": "Doubao-lite は、超高速な応答と優れたコストパフォーマンスを提供し、さまざまなシナリオに柔軟に対応します。推論とファインチューニングに対応した32Kコンテキストをサポートします。",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: 推論、コーディング、エージェントタスク向けの高性能モデル。",
"GLM-4.6.description": "GLM-4.6: 前世代モデル。",
"GLM-4.7.description": "GLM-4.7は智譜の最新フラッグシップモデルで、エージェンティックコーディングシナリオ向けに強化され、コーディング能力、長期タスク計画、ツール連携が向上しています。",
- "GLM-5-Turbo.description": "GLM-5-Turbo: コーディングタスク向けに推論速度を最適化したGLM-5の改良版。",
+ "GLM-5-Turbo.description": "GLM-5-Turbo はエージェントシナリオに最適化された基盤モデルです。学習段階からツール呼び出し、コマンド実行、長いタスクチェーン処理など、エージェントに必要な能力を強化しており、高性能なエージェントアシスタントの構築に最適です。",
"GLM-5.1.description": "GLM-5.1はZhipuの最新フラッグシップモデルであり、GLM-5の強化版です。複雑なシステムエンジニアリングや長期的なタスクにおけるエージェント工学能力が向上しています。",
- "GLM-5.description": "GLM-5は智譜の次世代フラッグシップ基盤モデルで、エージェンティックエンジニアリング向けに特化されています。複雑なシステムエンジニアリングや長期的なエージェンティックタスクにおいて信頼性の高い生産性を提供します。コーディングとエージェント能力において、GLM-5はオープンソースモデルの中で最先端の性能を達成しています。",
+ "GLM-5.description": "GLM-5 は Zhipu の次世代フラッグシップ基盤モデルで、エージェント工学向けに設計されています。複雑なシステムエンジニアリングや長期的なエージェントタスクにおいて高い生産性を発揮します。コーディングやエージェント能力ではオープンソースモデルの中で最先端の性能を示し、実際のプログラミング環境では Claude Opus 4.5 に匹敵するユーザー体験を提供します。汎用エージェントアシスタントの基盤モデルとして理想的です。",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2(13B)は、多様な分野と複雑なタスクに対応する革新的なモデルです。",
"HY-Image-V3.0.description": "強力なオリジナル画像の特徴抽出と詳細保持機能により、より豊かな視覚的テクスチャを提供し、高精度で構図の優れた、プロダクション品質のビジュアルを生成します。",
"HelloMeme.description": "HelloMeme は、提供された画像や動作からミーム、GIF、ショート動画を生成するAIツールです。絵を描くスキルやコーディングスキルは不要で、参照画像を用意するだけで、楽しく魅力的でスタイルの一貫したコンテンツを作成できます。",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter は、Tencent AI により2025年にリリースされたチューニング不要のパーソナライズキャラクター生成モデルで、高忠実度かつシナリオを超えた一貫性のあるキャラクター生成を目指しています。1枚の参照画像からキャラクターをモデリングし、スタイル、動作、背景を柔軟に変換できます。",
"InternVL2-8B.description": "InternVL2-8B は、マルチモーダルな画像・テキスト処理をサポートする強力なビジョン・ランゲージモデルで、画像内容の正確な認識と関連する説明や回答の生成が可能です。",
"InternVL2.5-26B.description": "InternVL2.5-26B は、マルチモーダルな画像・テキスト処理をサポートする強力なビジョン・ランゲージモデルで、画像内容の正確な認識と関連する説明や回答の生成が可能です。",
+ "KAT-Coder-Air-V1.description": "KAT-Coder シリーズの軽量版で、エージェントコーディング向けに特化されています。多様なプログラミングタスクとシナリオを幅広くカバーし、大規模エージェント強化学習により知的行動の創発を実現し、同等モデルを大きく上回るコーディング性能を発揮します。",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B は KAT-Coder シリーズの強化学習実験モデルで、SWE-Bench verified ベンチマークで 74.6% の記録的性能を達成し、オープンソースモデルの新記録を樹立しました。エージェントコーディングに特化しており、現在は SWE-Agent フレームワークのみをサポートしますが、簡単な対話にも利用できます。",
+ "KAT-Coder-Pro-V1.description": "エージェントコーディング向けに設計され、幅広いプログラミングシナリオとタスクをカバーします。大規模強化学習により知的行動を創発し、類似モデルを大きく上回るコード生成性能を実現します。",
+ "KAT-Coder-Pro-V2.description": "Kuaishou Kwaipilot チームによる最新の高性能モデルで、複雑な企業向けプロジェクトや SaaS 統合を想定して設計されています。コード関連シナリオに強く、Claude Code、OpenCode、KiloCode などの各種エージェントフレームワークに対応し、OpenClaw をネイティブサポートします。また、フロントエンドのデザイン美観にも特化して最適化されています。",
+ "Kimi-K2.5.description": "Kimi K2.5 は Kimi シリーズで最も高性能なモデルで、エージェントタスク、コーディング、画像理解においてオープンソース最先端性能を発揮します。マルチモーダル入力に対応し、思考モードと非思考モードの両方をサポートします。",
"Kolors.description": "Kolors は、Kuaishou Kolors チームによって開発されたテキストから画像への生成モデルで、数十億のパラメータで訓練され、視覚品質、中国語の意味理解、テキスト描画において顕著な強みを持ちます。",
"Kwai-Kolors/Kolors.description": "Kolors は、Kuaishou Kolors チームによる大規模潜在拡散型テキストから画像への生成モデルで、数十億のテキスト・画像ペアで訓練され、視覚品質、複雑な意味の正確性、中国語・英語のテキスト描画に優れ、中国語コンテンツの理解と生成に強みを持ちます。",
"Kwaipilot/KAT-Dev.description": "KAT-Dev(32B)は、ソフトウェアエンジニアリングタスク向けのオープンソース32Bモデルで、SWE-Bench Verified において62.4%の解決率を達成し、オープンモデル中で第5位にランクインしています。中間訓練、SFT、RL によって最適化され、コード補完、バグ修正、コードレビューに対応します。",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "優れた言語理解、推論、テキスト生成能力を備えた最先端の小型言語モデルです。",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 は、最も高度な多言語対応のオープンソース Llama モデルで、非常に低コストで 405B に近い性能を発揮します。Transformer ベースで、SFT と RLHF により有用性と安全性が向上しています。命令調整版は多言語チャットに最適化され、業界ベンチマークで多くのオープン・クローズドモデルを上回ります。知識カットオフ:2023年12月。",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick は、効率的なエキスパート活性化により強力な推論性能を実現する大規模 MoE モデルです。",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro は実世界の高負荷エージェントワークフロー向けに設計されています。総パラメータは 1 兆超(42B アクティブ)で、革新的なハイブリッドアテンション構造を採用し、最大 100 万トークンの超長コンテキストをサポートします。強力な基盤モデルをもとに、幅広いエージェントシナリオで計算資源を拡張し、知能の行動範囲を拡大して、コーディングから実世界タスク実行(「claw」)まで高い汎化能力を発揮します。",
"MiniMax-Hailuo-02.description": "次世代ビデオ生成モデル「MiniMax Hailuo 02」が正式リリースされ、1080P解像度と10秒間のビデオ生成をサポート。",
"MiniMax-Hailuo-2.3-Fast.description": "身体動作、物理的リアリズム、指示追従性において全面的にアップグレードされた新しいビデオ生成モデル。",
"MiniMax-Hailuo-2.3.description": "身体動作、物理的リアリズム、指示追従性において全面的にアップグレードされた新しいビデオ生成モデル。",
"MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。",
"MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。",
- "MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング機能を備え、推論がより高速かつ効率的。",
"MiniMax-M2.1-highspeed.description": "強力な多言語プログラミング機能を備え、プログラミング体験を包括的に向上。より高速かつ効率的です。",
"MiniMax-M2.1.description": "MiniMax-M2.1は、MiniMaxが開発したフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスク解決に特化しています。多言語プログラミング能力とエージェントとしての高度なタスク処理能力が主な強みです。",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5と同等の性能で推論速度が向上。",
"MiniMax-M2.5.description": "MiniMax-M2.5は、MiniMaxによるフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスクを解決することに焦点を当てています。その主な強みは、多言語プログラミング能力とエージェントとして複雑なタスクを解決する能力です。",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: M2.7と同等の性能で推論速度が大幅に向上。",
- "MiniMax-M2.7.description": "MiniMax M2.7: 再帰的自己改善の旅を開始し、実世界のトップエンジニアリング能力を備えています。",
+ "MiniMax-M2.7.description": "自己進化型モデルの第一弾で、トップクラスのコーディング性能とエージェント能力を備え、約 60 tps の高速性能を発揮します。",
"MiniMax-M2.description": "MiniMax M2: 前世代モデル。",
"MiniMax-Text-01.description": "MiniMax-01は、従来のTransformerを超える大規模な線形アテンションを導入し、4560億のパラメータと1パスあたり45.9億のアクティブパラメータを持ちます。最大400万トークンのコンテキストをサポートし(GPT-4oの32倍、Claude-3.5-Sonnetの20倍)、最高水準の性能を実現します。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1はオープンウェイトの大規模ハイブリッドアテンション推論モデルで、総パラメータ数456B、トークンごとに約45.9Bがアクティブです。ネイティブで1Mコンテキストをサポートし、Flash Attentionを使用してDeepSeek R1に比べて100Kトークン生成時のFLOPsを75%削減します。MoEアーキテクチャにCISPOとハイブリッドアテンションRLトレーニングを組み合わせ、長い入力推論や実際のソフトウェアエンジニアリングタスクで優れた性能を発揮します。",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 は、最新かつ最も高性能な Kimi K2 モデルです。1T の総パラメータと 32B のアクティブパラメータを持つ最上位の MoE モデルであり、エージェント型コーディング知能が強化され、ベンチマークおよび実世界のエージェントタスクにおいて大幅な性能向上を実現しています。さらに、フロントエンドのコード美学と使いやすさも改善されています。",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo は、K2 Thinking のマルチステップ推論とツール使用能力を維持しつつ、推論速度とスループットを最適化した Turbo バリアントです。約 1T の総パラメータを持つ MoE モデルで、ネイティブで 256K のコンテキスト長をサポートし、低レイテンシーかつ高同時実行性が求められる本番環境において安定した大規模ツール呼び出しが可能です。",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5は、Kimi-K2-Baseを基盤としたオープンソースのネイティブマルチモーダルエージェントモデルで、約1.5兆の視覚・テキストトークンで訓練されています。MoEアーキテクチャを採用し、総パラメータ数1兆、アクティブパラメータ数32B、256Kのコンテキストウィンドウをサポートし、視覚と言語の理解をシームレスに統合しています。",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 は MoE(Mixture of Experts)アーキテクチャを採用した次世代フラッグシップモデルで、総パラメータは 754B に達します。プログラミング能力が大幅に強化され、SWE-Bench Pro では最先端の結果を達成し、NL2Repo や Terminal-Bench 2.0 などでも前世代を大きく上回ります。長時間にわたるエージェントタスク向けに設計され、曖昧な質問への判断精度が向上し、複雑タスクの分解、実験実行、結果分析、数百回の反復と数千回のツール呼び出しによる継続的最適化が可能です。",
"Pro/zai-org/glm-4.7.description": "GLM-4.7は智譜の新世代フラッグシップモデルで、総パラメータ355B、アクティブパラメータ32Bを持ち、一般的な対話、推論、エージェント能力が完全にアップグレードされています。GLM-4.7は交互思考を強化し、保存思考とターンレベル思考を導入しています。",
"Pro/zai-org/glm-5.description": "GLM-5は、複雑なシステムエンジニアリングと長期間のエージェントタスクに焦点を当てたZhipuの次世代大規模言語モデルです。モデルパラメータは7440億(アクティブ40億)に拡張され、DeepSeek Sparse Attentionを統合しています。",
"QwQ-32B-Preview.description": "Qwen QwQ は、推論能力の向上に焦点を当てた実験的研究モデルです。",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507は、高度な推論と指示追従に最適化されており、MoE(Mixture of Experts)を活用して大規模でも効率的な推論を実現します。",
"Qwen3-235B.description": "Qwen3-235B-A22Bは、思考モードと非思考モードをシームレスに切り替えられるハイブリッド推論モードを導入したMoEモデルです。119の言語と方言に対応した理解と推論をサポートし、ツール呼び出し機能にも優れています。DeepSeek R1、OpenAI o1、o3-mini、Grok 3、Google Gemini 2.5 Proなどの主流モデルと、一般能力、コード・数学、多言語対応、知識推論のベンチマークで競合します。",
"Qwen3-32B.description": "Qwen3-32Bは、思考モードと非思考モードを切り替え可能なハイブリッド推論モードを導入した高密度モデルです。アーキテクチャの改良、データの増強、トレーニングの最適化により、Qwen2.5-72Bと同等の性能を発揮します。",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus はテキスト、画像、動画入力に対応します。テキストタスクの性能は Qwen3 Max と同等で、より高性能かつ低コストです。マルチモーダル能力は Qwen3 VL シリーズより大幅に向上しています。",
"S2V-01.description": "01シリーズの基盤となる参照からビデオへの変換モデル。",
"SenseChat-128K.description": "128Kコンテキストに対応したBase V4モデルで、長文の理解と生成に優れています。",
"SenseChat-32K.description": "32Kコンテキストに対応したBase V4モデルで、さまざまなシナリオに柔軟に対応可能です。",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も知的なHaikuモデルで、驚異的な速度と拡張された思考能力を備えています。",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は Anthropic の Haiku モデルで最速かつ最も高性能なモデルで、非常に高速な応答と拡張推論を備えています。",
"claude-haiku-4.5.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も賢いHaikuモデルで、驚異的なスピードと高度な推論能力を備えています。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
- "claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 は Anthropic の最新かつ最も高性能なモデルで、高度に複雑なタスクにおいて性能、知性、流暢さ、理解力のすべてで優れています。",
+ "claude-opus-4-20250514.description": "Claude Opus 4 は Anthropic の最強モデルで、高度に複雑なタスクにおいて性能、知性、流暢さ、理解力で卓越しています。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
- "claude-opus-4-6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
+ "claude-opus-4-6.description": "Claude Opus 4.6 はエージェント構築やコーディングに最適化された Anthropic の最高知能モデルです。",
"claude-opus-4.5.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、最上級の知能とスケーラブルな性能を組み合わせ、複雑で高品質な推論タスクに対応します。",
"claude-opus-4.6-fast.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-opus-4.6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4は、Anthropicのこれまでで最も知的なモデルで、APIユーザー向けに即時応答またはステップバイステップの詳細な思考を提供します。",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropicのこれまでで最も知的なモデルです。",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6は、速度と知性の最適な組み合わせを提供します。",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、即時応答と可視化された段階的思考プロセスの両方に対応します。",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 は Anthropic の過去最高の知能モデルです。",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 は速度と知性の最良バランスを提供します。",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5は、これまでで最も知的なAnthropicのモデルです。",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6は、スピードと知能の最適な組み合わせを実現したAnthropicのモデルです。",
"claude-sonnet-4.description": "Claude Sonnet 4は、ほぼ瞬時の応答や、ユーザーが確認できる段階的な推論を提供できます。APIユーザーは、モデルの思考時間を細かく制御することが可能です。",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2は次世代推論モデルで、複雑な推論と連鎖的思考能力が強化されています。",
- "deepseek-chat.description": "DeepSeek V3.2は、日常的なQAやエージェントタスクのために推論と出力の長さをバランスさせています。公開ベンチマークでGPT-5レベルに達し、ツール使用に思考を統合した初のモデルであり、オープンソースエージェント評価でリードしています。",
+ "deepseek-chat.description": "一般対話能力と高いコーディング性能を併せ持つ新しいオープンソースモデルです。チャットモデルの対話性とコーダーモデルの強力なコーディング能力を両立し、嗜好整合性が向上しています。DeepSeek-V2.5 では文章生成と指示追従も改善されています。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinkingは、出力前に思考の連鎖を生成する深い推論モデルで、より高い精度を実現します。競争のトップ結果を達成し、Gemini-3.0-Proに匹敵する推論能力を持っています。",
+ "deepseek-reasoner.description": "DeepSeek V3.2 の思考モードでは、最終回答の前に推論過程(Chain-of-Thought)を生成し、精度を向上させます。",
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
"ernie-x1.1.description": "ERNIE X1.1は評価とテスト用の思考モデルプレビューです。",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5は、ByteDance Seedチームによって構築され、マルチイメージ編集と構成をサポートします。被写体の一貫性、正確な指示の遵守、空間論理の理解、美的表現、ポスターのレイアウト、ロゴデザイン、高精度のテキスト画像レンダリングが強化されています。",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedによって構築され、プロンプトからの高品質な画像生成を高度に制御可能にするテキストおよび画像入力をサポートします。",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は ByteDance Seed の画像生成モデルで、テキストと画像入力に対応し、高品質で高い制御性のある画像を生成します。テキストプロンプトから画像を生成できます。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
- "fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味的および外観の編集、正確な中国語/英語のテキスト編集、スタイル転送、回転などをサポートします。",
- "fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語のテキストレンダリングと多様な視覚スタイルに優れています。",
+ "fal-ai/qwen-image-edit.description": "Qwen チームのプロフェッショナル画像編集モデルで、意味編集・外観編集に対応し、中国語と英語のテキストを正確に編集できます。スタイル変換、物体の回転など高品質の編集も可能です。",
+ "fal-ai/qwen-image.description": "Qwen チームの強力な画像生成モデルで、中国語テキストの描画精度が高く、多様なビジュアルスタイルに対応します。",
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 1~4 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
- "flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
+ "flux-dev.description": "非商用の研究開発向けに効率化されたオープンソース画像生成モデルです。",
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
"flux-kontext-pro.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
- "flux-merged.description": "FLUX.1 [merged] は、「DEV」で探求された深層機能と「Schnell」の高速性を組み合わせ、性能の限界を拡張し、応用範囲を広げます。",
"flux-pro-1.1-ultra.description": "400 万画素の超高解像度画像を 10 秒で生成するモデルです。",
"flux-pro-1.1.description": "画像品質とプロンプトの精度に優れた、アップグレードされたプロフェッショナル画像生成モデルです。",
"flux-pro.description": "比類なき画像品質と多様な出力を誇る、商用向けの最高クラス画像生成モデルです。",
- "flux-schnell.description": "FLUX.1 [schnell] は、最も高度なオープンソースの少ステップ画像生成モデルで、Midjourney v6.0 や DALL-E 3 (HD) などの強力な非蒸留モデルをも上回ります。事前学習の多様性を保持するよう精密に調整されており、視覚品質、指示追従性、サイズ・アスペクト比の変化、フォント処理、出力の多様性が大幅に向上しています。",
"flux.1-schnell.description": "FLUX.1-schnell は、高速かつ多様なスタイルの出力に対応する高性能画像生成モデルです。",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001(チューニング)は、複雑なタスクに対して安定かつ調整可能な性能を提供します。",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002(チューニング)は、複雑なタスクに対して強力なマルチモーダル対応を提供します。",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
"gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Googleの画像生成モデルで、マルチモーダル対話もサポートします。",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)は、Googleの画像生成モデルであり、マルチモーダルチャットもサポートします。",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は Google の画像生成モデルで、マルチモーダルチャットにも対応します。",
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)は、Googleの最速のネイティブ画像生成モデルで、思考サポート、対話型画像生成および編集を提供します。",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)は、プロレベルの画像品質をフラッシュ速度で提供し、マルチモーダルチャットをサポートします。",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)は Google の最速ネイティブ画像生成モデルで、思考モード、会話型画像生成、編集をサポートします。",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite PreviewはGoogleの最もコスト効率の高いマルチモーダルモデルで、大量のエージェントタスク、翻訳、データ処理に最適化されています。",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Previewは、Gemini 3 Proの推論能力を強化し、中程度の思考レベルサポートを追加しています。",
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
@@ -806,7 +812,6 @@
"jamba-large.description": "Jamba Large は、複雑な企業向けタスクに対応する最も強力で高度なモデルです。",
"jamba-mini.description": "Jamba Mini は、速度と品質のバランスに優れた、同クラスで最も効率的なモデルです。",
"jina-deepsearch-v1.description": "DeepSearch は、ウェブ検索、読解、推論を組み合わせて徹底的な調査を行うエージェントのようなモデルです。調査タスクを受け取り、複数回の広範な検索を行った後に回答を生成します。継続的な調査と多角的な問題解決を行う点で、従来の LLM や一度きりの検索に依存する RAG システムとは根本的に異なります。",
- "k2p5.description": "Kimi K2.5は、これまでで最も多用途なモデルであり、視覚とテキスト入力の両方をサポートするネイティブなマルチモーダルアーキテクチャ、「思考」モードと「非思考」モード、そして会話タスクとエージェントタスクの両方を備えています。",
"kimi-k2-0711-preview.description": "kimi-k2 は、強力なコーディングおよびエージェント機能を備えた MoE 基盤モデルです(総パラメータ数 1T、アクティブ 32B)。推論、プログラミング、数学、エージェントベンチマークにおいて、他の主流のオープンモデルを上回る性能を発揮します。",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview は、256k のコンテキストウィンドウ、より強力なエージェント型コーディング、フロントエンドコードの品質向上、文脈理解の改善を提供します。",
"kimi-k2-instruct.description": "Kimi K2 Instruct は、コードやQAなどの長文コンテキストに対応した、Kimi公式の推論モデルです。",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に難解な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと競合する中規模の推論モデルです。",
"qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。",
"r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDanceは、テキストからビデオ、画像からビデオ(最初のフレーム、最初+最後のフレーム)、および視覚と同期した音声生成をサポートします。",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlusは、リアルタイム情報のためのウェブ検索強化生成、複雑なプロンプト解釈の向上、プロフェッショナルな視覚制作のための参照一貫性の向上を特徴とします。",
"solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。",
"solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。",
"solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2は、新しい強力なメディア生成モデルで、音声と同期したビデオを生成します。自然言語または画像からリッチで詳細な動的クリップを作成できます。",
"spark-x.description": "X2機能概要: 1. `thinking`フィールドを介して推論モードの動的調整を導入。2. コンテキスト長の拡張: 64K入力トークンと128K出力トークン。3. Function Call機能をサポート。",
"stable-diffusion-3-medium.description": "Stability AI による最新のテキストから画像への変換モデルです。画像品質、テキスト理解、スタイルの多様性が大幅に向上し、複雑な自然言語プロンプトをより正確に解釈し、多様で精密な画像を生成します。",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo は、ADD(敵対的拡散蒸留)を stable-diffusion-3.5-large に適用し、高速化を実現しています。",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large は、800M パラメータの MMDiT テキスト画像変換モデルで、優れた品質とプロンプト整合性を持ち、1 メガピクセルの画像生成と一般的なハードウェアでの効率的な実行をサポートします。",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 は v1.2 チェックポイントから初期化され、「laion-aesthetics v2 5+」で 595k ステップのファインチューニングを行い、テキスト条件付けを 10% 減少させて分類器フリーガイダンスサンプリングを改善しています。",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo は高品質な画像生成に特化し、精密なディテール描写と高いシーン再現性を備えています。",
"stable-diffusion-xl-base-1.0.description": "Stability AI によるオープンソースのテキスト画像変換モデルで、業界最高水準の創造的画像生成を実現します。高度な指示理解と、精密な生成のための逆プロンプト定義に対応しています。",
- "stable-diffusion-xl.description": "stable-diffusion-xl は v1.5 から大幅に改善され、オープンなテキスト画像変換モデルの中でも最高水準の結果を実現します。3 倍の UNet バックボーン、画像品質向上のためのリファインメントモジュール、効率的なトレーニング技術が導入されています。",
"step-1-128k.description": "一般的なシナリオにおいて、性能とコストのバランスを実現します。",
"step-1-256k.description": "超長文コンテキスト処理に対応し、長文ドキュメントの分析に最適です。",
"step-1-32k.description": "中程度の長さの会話を幅広いシナリオでサポートします。",
diff --git a/locales/ja-JP/plugin.json b/locales/ja-JP/plugin.json
index 5b201683ae..dbfaba2001 100644
--- a/locales/ja-JP/plugin.json
+++ b/locales/ja-JP/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "合計で{{count}}個のパラメーターがあります",
"arguments.title": "パラメーター一覧",
"builtins.lobe-activator.apiName.activateTools": "ツールをアクティブ化",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} 件が見つかりません",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "利用可能なモデルを取得",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "利用可能なツールを取得",
"builtins.lobe-agent-builder.apiName.getConfig": "設定を取得",
diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json
index 5d3b744982..c7bd247852 100644
--- a/locales/ja-JP/providers.json
+++ b/locales/ja-JP/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
"kimicodingplan.description": "Moonshot AIのKimi Codeは、K2.5を含むKimiモデルへのアクセスを提供します。",
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
- "lobehub.description": "LobeHub Cloudは公式APIを使用してAIモデルにアクセスし、モデルトークンに紐づいたクレジットで使用量を測定します。",
"longcat.description": "LongCatは、Meituanが独自に開発した生成AIの大型モデルシリーズです。効率的な計算アーキテクチャと強力なマルチモーダル機能を通じて、企業内部の生産性を向上させ、革新的なアプリケーションを可能にすることを目的としています。",
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
"minimaxcodingplan.description": "MiniMaxトークンプランは、固定料金のサブスクリプションを通じてM2.7を含むMiniMaxモデルへのアクセスを提供します。",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Sparkは、スマートハードウェア、医療、金融などの分野で革新を可能にする、強力な多言語AIを提供します。",
"stepfun.description": "Stepfunのモデルは、マルチモーダル処理と複雑な推論に優れ、長文コンテキスト理解や自律的な検索オーケストレーションに対応します。",
"straico.description": "Straicoは、テキスト、画像、音声の生成AIモデルを統合したワークスペースを提供することで、AIの統合を簡素化します。これにより、マーケター、起業家、そして愛好家が多様なAIツールにシームレスにアクセスできるようになります。",
+ "streamlake.description": "StreamLakeは、企業向けのモデルサービスおよびAIコンピューティングクラウドプラットフォームであり、高性能なモデル推論、低コストのモデルカスタマイズ、フルマネージドサービスを統合し、企業が基盤となるコンピューティングリソースの複雑さやコストを気にすることなく、AIアプリケーションのイノベーションに専念できるよう支援します。",
"taichu.description": "Taichuは、CASIAと武漢AI研究所が開発した次世代マルチモーダルモデルで、マルチターンQA、文章生成、画像生成、3D理解、信号解析などに対応し、認知力と創造性を強化しています。",
"tencentcloud.description": "LLM Knowledge Engine Atomic Powerは、企業や開発者向けに、文書解析、分割、埋め込み、多ターンリライトなどのモジュール型サービスを通じて、カスタムAIソリューションを構築できるエンドツーエンドの知識QAを提供します。",
"togetherai.description": "Together AIは、革新的なモデル、高度なカスタマイズ、迅速なスケーリング、シンプルな導入により、企業ニーズに応える高性能AIを提供します。",
diff --git a/locales/ja-JP/setting.json b/locales/ja-JP/setting.json
index ba36ec33b0..4843269d67 100644
--- a/locales/ja-JP/setting.json
+++ b/locales/ja-JP/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "システムツール",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - 高速なコード検索ツール",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - AIエージェント向けヘッドレスブラウザー自動化CLI",
+ "settingSystemTools.tools.bun.desc": "Bun - 高速な JavaScript ランタイム兼パッケージマネージャー",
+ "settingSystemTools.tools.bunx.desc": "bunx - npm パッケージを実行するための Bun パッケージランナー",
"settingSystemTools.tools.fd.desc": "fd - 高速で使いやすい find の代替ツール",
"settingSystemTools.tools.find.desc": "Unix find - 標準的なファイル検索コマンド",
"settingSystemTools.tools.grep.desc": "GNU grep - 標準的なテキスト検索ツール",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - LobeHub サービスの管理と接続を行うツール",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight 検索(高速なインデックス検索)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript/TypeScript を実行するランタイム",
"settingSystemTools.tools.npm.desc": "npm - Node.js パッケージマネージャー、依存関係のインストール用",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - 高速でディスク効率の良いパッケージマネージャー",
"settingSystemTools.tools.python.desc": "Python - プログラミング言語ランタイム",
"settingSystemTools.tools.rg.desc": "ripgrep - 非常に高速なテキスト検索ツール",
+ "settingSystemTools.tools.uv.desc": "uv - 非常に高速な Python パッケージマネージャー",
"settingTTS.openai.sttModel": "OpenAI 音声認識モデル",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI 音声合成モデル",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "モデル",
"systemAgent.inputCompletion.modelDesc": "入力の自動補完候補(GitHub Copilotのゴーストテキストのようなもの)に使用されるモデル",
"systemAgent.inputCompletion.title": "入力自動補完エージェント",
+ "systemAgent.promptRewrite.label": "モデル",
+ "systemAgent.promptRewrite.modelDesc": "プロンプトを書き換える際に使用するモデルを指定します",
+ "systemAgent.promptRewrite.title": "プロンプトリライトエージェント",
"systemAgent.queryRewrite.label": "モデル",
"systemAgent.queryRewrite.modelDesc": "ユーザーの質問を最適化するために指定されたモデル",
"systemAgent.queryRewrite.title": "リソースライブラリ質問リライトアシスタント",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "ローカルの.zipまたは.skillファイルをアップロード",
"tab.usage": "使用状況",
"tools.add": "スキルを統合",
+ "tools.builtins.find-skills.description": "ユーザーが「X をどうやるの?」や「X のスキルを探して」などと尋ねた際に、エージェントスキルを発見・インストールするのを支援します",
+ "tools.builtins.find-skills.title": "スキル検索",
"tools.builtins.groupName": "組み込み",
"tools.builtins.install": "インストール",
"tools.builtins.installed": "インストール済み",
+ "tools.builtins.lobe-activator.description": "ツールとスキルを発見して有効化します",
+ "tools.builtins.lobe-activator.title": "ツール & スキルアクティベーター",
+ "tools.builtins.lobe-agent-browser.description": "AI エージェント向けのブラウザ自動化 CLI。ナビゲーション、フォーム入力、クリック、スクリーンショット、データ取得、ログインフロー、E2E テストなど、Web や Electron 操作が必要なタスクに使用します。",
+ "tools.builtins.lobe-agent-browser.title": "エージェントブラウザー",
+ "tools.builtins.lobe-agent-builder.description": "エージェントのメタデータ、モデル設定、プラグイン、システムプロンプトを構成します",
+ "tools.builtins.lobe-agent-builder.title": "エージェントビルダー",
+ "tools.builtins.lobe-agent-documents.description": "エージェントスコープのドキュメントを管理(一覧、作成、読み取り、編集、削除、名称変更)し、読み込みルールを設定します",
+ "tools.builtins.lobe-agent-documents.title": "ドキュメント",
+ "tools.builtins.lobe-agent-management.description": "AI エージェントの作成、管理、オーケストレーションを行います",
+ "tools.builtins.lobe-agent-management.title": "エージェント管理",
"tools.builtins.lobe-artifacts.description": "インタラクティブなUIコンポーネント、データ可視化、チャート、SVGグラフィック、Webアプリケーションを生成し、リアルタイムでプレビューします。ユーザーが直接操作できるリッチなビジュアルコンテンツを作成します。",
"tools.builtins.lobe-artifacts.readme": "インタラクティブなUIコンポーネント、データビジュアライゼーション、チャート、SVGグラフィック、Webアプリケーションを生成し、リアルタイムでプレビューできます。ユーザーが直接操作できるリッチなビジュアルコンテンツを作成しましょう。",
"tools.builtins.lobe-artifacts.title": "アーティファクト",
+ "tools.builtins.lobe-brief.description": "進捗を報告し、結果を提示し、ユーザーの意思決定を求めます",
+ "tools.builtins.lobe-brief.title": "ブリーフツール",
"tools.builtins.lobe-calculator.description": "数学計算を行い、方程式を解き、記号式を扱います",
"tools.builtins.lobe-calculator.readme": "基本的な算術、代数方程式、微積分操作、記号数学をサポートする高度な数学計算機。基数変換、方程式の解法、微分、積分などを含みます。",
"tools.builtins.lobe-calculator.title": "計算機",
"tools.builtins.lobe-cloud-sandbox.description": "クラウド上の隔離環境でPython、JavaScript、TypeScriptのコードを実行します。シェルコマンドの実行、ファイル管理、正規表現によるコンテンツ検索、結果の安全なエクスポートが可能です。",
"tools.builtins.lobe-cloud-sandbox.readme": "Python、JavaScript、TypeScriptのコードを隔離されたクラウド環境で実行します。シェルコマンドの実行、ファイル管理、正規表現によるコンテンツ検索、結果の安全なエクスポートが可能です。",
"tools.builtins.lobe-cloud-sandbox.title": "クラウドサンドボックス",
+ "tools.builtins.lobe-creds.description": "認証、環境変数の注入、API 検証のためにユーザー認証情報を管理します。API キー、OAuth トークン、サードパーティ連携用の秘密情報などを扱います。",
+ "tools.builtins.lobe-creds.title": "認証情報",
+ "tools.builtins.lobe-cron.description": "指定時間に自動で実行されるスケジュールタスクを管理します。定期タスクの作成、更新、オン/オフ切替、監視を行います。",
+ "tools.builtins.lobe-cron.title": "スケジュールタスク",
+ "tools.builtins.lobe-group-agent-builder.description": "マルチエージェントグループのメタデータ、メンバー、共有コンテンツを構成します",
+ "tools.builtins.lobe-group-agent-builder.title": "グループエージェントビルダー",
+ "tools.builtins.lobe-group-management.description": "マルチエージェントグループの会話をオーケストレーションおよび管理します",
+ "tools.builtins.lobe-group-management.title": "グループ管理",
"tools.builtins.lobe-gtd.description": "GTD(Getting Things Done)手法を用いて目標を計画し、進捗を追跡します。戦略的な計画を立て、ステータス管理付きのToDoリストを作成し、長時間実行される非同期タスクを実行します。",
"tools.builtins.lobe-gtd.readme": "GTD(Getting Things Done)手法を用いて目標を計画し、進捗を追跡します。戦略的な計画を立て、ステータス管理付きのToDoリストを作成し、長時間実行される非同期タスクを実行できます。",
"tools.builtins.lobe-gtd.title": "GTDツール",
+ "tools.builtins.lobe-knowledge-base.description": "アップロードしたドキュメントやドメイン知識を、セマンティックベクター検索を通じて検索します。永続的で再利用可能なリファレンスとして利用できます。",
+ "tools.builtins.lobe-knowledge-base.title": "ナレッジベース",
"tools.builtins.lobe-local-system.description": "デスクトップ上のローカルファイルシステムにアクセスします。ファイルの読み書き、検索、整理が可能です。バックグラウンドタスク対応のシェルコマンド実行や、正規表現によるコンテンツ検索も行えます。",
"tools.builtins.lobe-local-system.readme": "デスクトップ上のローカルファイルシステムにアクセスします。ファイルの読み書き、検索、整理が可能です。バックグラウンドタスク対応のシェルコマンド実行や、正規表現によるコンテンツのgrepも行えます。",
"tools.builtins.lobe-local-system.title": "ローカルシステム",
+ "tools.builtins.lobe-message.description": "複数のメッセージングプラットフォームにおいて、統一されたインターフェースでメッセージの送信、読み取り、編集、管理を行います",
+ "tools.builtins.lobe-message.readme": "Discord、Telegram、Slack、Google Chat、IRC をサポートするクロスプラットフォームのメッセージングツール。メッセージ操作、リアクション、ピン留め、スレッド、チャンネル管理、投票などプラットフォーム固有機能を統合 API で提供します。",
+ "tools.builtins.lobe-message.title": "メッセージ",
"tools.builtins.lobe-notebook.description": "会話トピック内で永続的なドキュメントを作成・管理します。ノート、レポート、記事、Markdownコンテンツを保存し、セッションをまたいでアクセス可能にします。",
"tools.builtins.lobe-notebook.readme": "会話トピックごとに永続的なドキュメントを作成・管理します。メモ、レポート、記事、Markdownコンテンツを保存し、セッションをまたいでアクセス可能にします。",
"tools.builtins.lobe-notebook.title": "ノートブック",
+ "tools.builtins.lobe-page-agent.description": "XML 構造のドキュメント内のノードを作成、読み取り、更新、削除します",
+ "tools.builtins.lobe-page-agent.readme": "ノードレベルで精密な制御を行いながら、構造化ドキュメントを作成・編集できます。Markdown からの初期化、バッチ挿入/修正/削除、全文置換などをサポートします。",
+ "tools.builtins.lobe-page-agent.title": "ドキュメント編集",
+ "tools.builtins.lobe-remote-device.description": "リモートデスクトップデバイスの接続を検出および管理します",
+ "tools.builtins.lobe-remote-device.readme": "デスクトップデバイスへの接続を管理します。オンラインデバイスの一覧表示、リモート操作のためのデバイス有効化、接続状態の確認が可能です。",
+ "tools.builtins.lobe-remote-device.title": "リモートデバイス",
+ "tools.builtins.lobe-skill-store.description": "LobeHub マーケットプレイスからエージェントスキルを閲覧・インストールします。機能拡張や特定スキルの導入が必要な時に使用します。",
+ "tools.builtins.lobe-skill-store.title": "スキルストア",
+ "tools.builtins.lobe-skills.description": "再利用可能なスキルパッケージを有効化し、使用します",
+ "tools.builtins.lobe-skills.title": "スキル",
+ "tools.builtins.lobe-task.description": "依存関係とレビュー設定を備えたタスクの作成、一覧、編集、削除を行います",
+ "tools.builtins.lobe-task.title": "タスクツール",
+ "tools.builtins.lobe-topic-reference.description": "参照されたトピック会話からコンテキストを取得します",
+ "tools.builtins.lobe-topic-reference.title": "トピック参照",
+ "tools.builtins.lobe-user-interaction.description": "UI を通じてユーザーへ質問し、そのライフサイクル結果を観察します",
+ "tools.builtins.lobe-user-interaction.title": "ユーザーインタラクション",
"tools.builtins.lobe-user-memory.description": "あなたに関するパーソナライズされたナレッジベースを構築します。好みを記憶し、活動や体験を追跡し、個人情報を保存して、将来の会話で関連するコンテキストを呼び出します。",
"tools.builtins.lobe-user-memory.readme": "あなたに関するパーソナライズされたナレッジベースを構築します。好みを記憶し、活動や体験を追跡し、個人情報を保存し、将来の会話で関連するコンテキストを呼び出せます。",
"tools.builtins.lobe-user-memory.title": "メモリー",
+ "tools.builtins.lobe-web-browsing.description": "最新情報の Web 検索や Web ページのクロールを行い、コンテンツを抽出します。複数の検索エンジン、カテゴリ、期間をサポートします。",
+ "tools.builtins.lobe-web-browsing.readme": "最新情報の Web 検索や Web ページのクロールを実行します。複数検索エンジン、カテゴリ、期間指定をサポートし、包括的なリサーチが可能です。",
+ "tools.builtins.lobe-web-browsing.title": "Web ブラウジング",
+ "tools.builtins.lobe-web-onboarding.description": "制御されたエージェントランタイムにより Web オンボーディングフローを実行します",
+ "tools.builtins.lobe-web-onboarding.title": "Web オンボーディング",
+ "tools.builtins.lobehub.description": "CLI を通じて LobeHub プラットフォームを管理します — ナレッジベース、メモリ、エージェント、ファイル、検索、生成など。",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "未インストール",
+ "tools.builtins.task.description": "タスク管理と実行を行います — CLI でタスクの作成、追跡、レビュー、完了が可能です。",
+ "tools.builtins.task.title": "タスク",
"tools.builtins.uninstall": "アンインストール",
"tools.builtins.uninstallConfirm.desc": "{{name}} をアンインストールしてもよろしいですか?このスキルは現在のエージェントから削除されます。",
"tools.builtins.uninstallConfirm.title": "{{name}} のアンインストール",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "{{name}}を切断しますか?",
"tools.lobehubSkill.disconnected": "未接続",
"tools.lobehubSkill.error": "エラー",
+ "tools.lobehubSkill.providers.github.description": "GitHub は、バージョン管理とコラボレーションのためのプラットフォームで、開発者がコードリポジトリをホスト、レビュー、管理できます。",
+ "tools.lobehubSkill.providers.github.readme": "GitHub に接続して、リポジトリへのアクセス、Issue の作成と管理、プルリクエストのレビュー、コードコラボレーションを AI アシスタントとの自然な対話で行えます。",
"tools.lobehubSkill.providers.linear.description": "Linearは、高性能なチーム向けに設計された、モダンな課題追跡およびプロジェクト管理ツールです。より良いソフトウェアをより速く構築できます。",
"tools.lobehubSkill.providers.linear.readme": "Linearの機能をAIアシスタントに統合します。イシューの作成・更新、スプリントの管理、プロジェクト進捗の追跡、自然な会話による開発ワークフローの最適化が可能です。",
"tools.lobehubSkill.providers.microsoft.description": "Outlook カレンダーは、Microsoft Outlookに統合されたスケジューリングツールで、予定の作成、他者との会議の調整、時間とイベントの効果的な管理が可能です。",
"tools.lobehubSkill.providers.microsoft.readme": "Outlookカレンダーと連携してイベントの表示、作成、管理をシームレスに行います。会議のスケジューリング、空き時間の確認、リマインダーの設定、自然言語による時間調整が可能です。",
"tools.lobehubSkill.providers.twitter.description": "X(旧Twitter)は、リアルタイムの更新、ニュースの共有、投稿・返信・DMを通じてオーディエンスと交流できるソーシャルメディアプラットフォームです。",
"tools.lobehubSkill.providers.twitter.readme": "X(旧Twitter)と接続してツイートの投稿、タイムラインの管理、オーディエンスとの交流を行います。コンテンツの作成、投稿のスケジューリング、メンションの監視、会話型AIによるSNS運用が可能です。",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel はフロントエンド開発者向けのクラウドプラットフォームで、Web アプリケーションを簡単にデプロイできるホスティングやサーバーレス機能を提供します。",
+ "tools.lobehubSkill.providers.vercel.readme": "Vercel に接続して、デプロイ管理、プロジェクト状況の監視、インフラ制御を行います。アプリのデプロイ、ビルドログの確認、環境変数の管理、スケール調整を会話形式で実行できます。",
"tools.notInstalled": "未インストール",
"tools.notInstalledWarning": "このスキルはまだインストールされておらず、アシスタントの使用に影響する可能性があります",
"tools.plugins.enabled": "{{num}} が有効",
diff --git a/locales/ja-JP/subscription.json b/locales/ja-JP/subscription.json
index 09eb8e5987..3fb96b69d1 100644
--- a/locales/ja-JP/subscription.json
+++ b/locales/ja-JP/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "アップグレードして",
"credits.topUp.upgradeSuffix": "${{savings}} 節約",
"credits.topUp.validityInfo": "{{months}} ヶ月の有効期間",
+ "crossPlatform.desc": "このサブスクリプションはモバイルアプリを通じて購入されたため、ここでは変更できません。モバイルデバイスでサブスクリプションを管理してください。",
+ "crossPlatform.manageOnMobile": "モバイルデバイスで管理",
+ "crossPlatform.title": "クロスプラットフォームサブスクリプション",
"currentPlan.cancelAlert": "{{canceledAt}} にサブスクリプションがキャンセルされます。それまでは「サブスクリプション管理」で復元可能です",
"currentPlan.downgradeAlert": "{{downgradedAt}} に {{plan}} にダウングレードされます。",
"currentPlan.management": "サブスクリプション管理",
diff --git a/locales/ja-JP/video.json b/locales/ja-JP/video.json
index 0273f00e12..e7356708b2 100644
--- a/locales/ja-JP/video.json
+++ b/locales/ja-JP/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "開始フレーム",
"config.prompt.placeholder": "生成したいビデオの内容を説明してください",
"config.prompt.placeholderWithRef": "生成したい画像のシーンを説明してください",
+ "config.promptExtend.label": "プロンプト拡張",
"config.referenceImage.label": "参照画像",
"config.resolution.label": "解像度",
"config.seed.label": "シード値",
"config.seed.random": "ランダム",
"config.size.label": "サイズ",
+ "config.watermark.label": "ウォーターマーク",
+ "config.webSearch.label": "ウェブ検索",
"generation.actions.copyError": "エラーメッセージをコピー",
"generation.actions.errorCopied": "エラーメッセージをクリップボードにコピーしました",
"generation.actions.errorCopyFailed": "エラーメッセージのコピーに失敗しました",
diff --git a/locales/ko-KR/agent.json b/locales/ko-KR/agent.json
index a1ade48d99..82ed3207a7 100644
--- a/locales/ko-KR/agent.json
+++ b/locales/ko-KR/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "봇 연결 성공",
"channel.connecting": "연결 중...",
"channel.connectionConfig": "연결 구성",
+ "channel.connectionMode": "연결 모드",
+ "channel.connectionModeHint": "새로운 봇에는 WebSocket을 권장합니다. 이미 QQ 오픈 플랫폼에서 콜백 URL이 설정된 경우 Webhook을 사용하세요.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "클립보드에 복사됨",
"channel.copy": "복사",
"channel.credentials": "자격 증명",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "이 URL을 복사하여 {{name}} 개발자 포털의 {{fieldName}} 필드에 붙여넣으세요.",
"channel.exportConfig": "구성 내보내기",
"channel.feishu.description": "이 어시스턴트를 Feishu에 연결하여 개인 및 그룹 채팅을 사용할 수 있습니다.",
+ "channel.feishu.webhookMigrationDesc": "WebSocket 모드는 퍼블릭 콜백 URL 없이도 실시간 이벤트를 제공할 수 있습니다. 마이그레이션하려면 고급 설정에서 연결 모드를 WebSocket으로 변경하세요. Feishu/Lark 오픈 플랫폼에서 추가 설정은 필요하지 않습니다.",
+ "channel.feishu.webhookMigrationTitle": "WebSocket 모드로의 전환을 고려하세요",
"channel.historyLimit": "히스토리 메시지 제한",
"channel.historyLimitHint": "채널 히스토리를 읽을 때 기본적으로 가져올 메시지 수",
"channel.importConfig": "구성 가져오기",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "상호작용 검증에 필요",
"channel.qq.appIdHint": "QQ 오픈 플랫폼에서 제공된 QQ 봇 앱 ID를 입력하세요.",
"channel.qq.description": "이 어시스턴트를 QQ에 연결하여 그룹 채팅 및 직접 메시지를 이용하세요.",
+ "channel.qq.webhookMigrationDesc": "WebSocket 모드는 콜백 URL 없이도 실시간 이벤트 전달과 자동 재연결 기능을 제공합니다. 마이그레이션하려면 QQ 오픈 플랫폼에서 콜백 URL을 설정하지 않은 새 봇을 생성한 뒤, 고급 설정에서 연결 모드를 WebSocket으로 변경하세요.",
+ "channel.qq.webhookMigrationTitle": "WebSocket 모드로의 전환을 고려하세요",
"channel.removeChannel": "채널 제거",
"channel.removeFailed": "채널 제거 실패",
"channel.removed": "채널이 제거되었습니다",
@@ -93,7 +101,11 @@
"channel.signingSecret": "서명 비밀키",
"channel.signingSecretHint": "웹훅 요청을 검증하는 데 사용됩니다.",
"channel.slack.appIdHint": "Slack API 대시보드에서 제공된 Slack App ID (A로 시작).",
+ "channel.slack.appToken": "앱 레벨 토큰",
+ "channel.slack.appTokenHint": "Socket Mode(WebSocket)를 사용하려면 필요합니다. Slack 앱 설정의 기본 정보(Basic Information)에서 앱 레벨 토큰(xapp-...)을 생성하세요.",
"channel.slack.description": "이 어시스턴트를 Slack에 연결하여 채널 대화 및 직접 메시지를 지원합니다.",
+ "channel.slack.webhookMigrationDesc": "Socket Mode는 퍼블릭 HTTP 엔드포인트를 노출하지 않고도 WebSocket을 통해 실시간 이벤트를 제공합니다. 마이그레이션하려면 Slack 앱 설정에서 Socket Mode를 활성화하고 앱 레벨 토큰을 생성한 뒤, 고급 설정에서 연결 모드를 WebSocket으로 변경하세요.",
+ "channel.slack.webhookMigrationTitle": "Socket Mode(WebSocket)로의 전환을 고려하세요",
"channel.telegram.description": "이 어시스턴트를 Telegram에 연결하여 개인 및 그룹 채팅을 사용할 수 있습니다.",
"channel.testConnection": "연결 테스트",
"channel.testFailed": "연결 테스트 실패",
diff --git a/locales/ko-KR/chat.json b/locales/ko-KR/chat.json
index 43364c1fba..a181e584fc 100644
--- a/locales/ko-KR/chat.json
+++ b/locales/ko-KR/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "그룹이 삭제되었습니다",
"confirmRemoveSessionItemAlert": "이 도우미를 삭제하시겠습니까? 삭제 후 복구할 수 없습니다",
"confirmRemoveSessionSuccess": "도우미가 삭제되었습니다",
+ "createModal.createBlank": "빈 항목 만들기",
+ "createModal.groupPlaceholder": "이 그룹이 수행해야 할 작업을 설명하세요...",
+ "createModal.groupTitle": "그룹이 무엇을 해야 하나요?",
+ "createModal.placeholder": "에이전트가 수행해야 할 작업을 설명하세요...",
+ "createModal.title": "에이전트가 무엇을 해야 하나요?",
"defaultAgent": "사용자 정의 도우미",
"defaultGroupChat": "그룹",
"defaultList": "기본 목록",
@@ -229,6 +234,7 @@
"operation.contextCompression": "컨텍스트가 너무 길어 기록을 압축합니다...",
"operation.execAgentRuntime": "응답 준비 중",
"operation.execClientTask": "작업 실행 중",
+ "operation.execServerAgentRuntime": "실행 중… 다른 작업으로 전환하거나 페이지를 닫아도 작업은 계속 진행됩니다.",
"operation.sendMessage": "메시지 전송 중",
"owner": "그룹 소유자",
"pageCopilot.title": "문서 코파일럿",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "세부 정보를 불러오는 중...",
"task.status.initializing": "작업 시작 중…",
"task.subtask": "하위 작업",
+ "task.title": "작업",
"thread.divider": "하위 주제",
"thread.threadMessageCount": "{{messageCount}}개의 메시지",
"thread.title": "하위 주제",
@@ -429,9 +436,11 @@
"toolAuth.title": "도우미의 기능 승인을 완료하세요",
"topic.checkOpenNewTopic": "새 주제를 열겠습니까?",
"topic.checkSaveCurrentMessages": "현재 대화를 주제로 저장하시겠습니까?",
+ "topic.defaultTitle": "제목 없음 주제",
"topic.openNewTopic": "새 주제 열기",
"topic.recent": "최근 주제",
"topic.saveCurrentMessages": "주제로 저장",
+ "topic.viewAll": "모든 주제 보기",
"translate.action": "번역",
"translate.clear": "번역 삭제",
"tts.action": "음성 읽기",
diff --git a/locales/ko-KR/common.json b/locales/ko-KR/common.json
index 41d9406204..b406d616c0 100644
--- a/locales/ko-KR/common.json
+++ b/locales/ko-KR/common.json
@@ -343,10 +343,19 @@
"mail.support": "이메일 지원",
"more": "더보기",
"navPanel.agent": "도우미",
+ "navPanel.customizeSidebar": "사이드바 사용자 지정",
"navPanel.displayItems": "항목 표시",
+ "navPanel.hidden": "숨김",
+ "navPanel.hideSection": "섹션 숨기기",
"navPanel.library": "자료실",
+ "navPanel.moveDown": "아래로 이동",
+ "navPanel.moveUp": "위로 이동",
+ "navPanel.pinned": "고정됨",
"navPanel.searchAgent": "도우미 검색…",
+ "navPanel.searchRecent": "최근 검색...",
"navPanel.searchResultEmpty": "검색 결과가 없습니다",
+ "navPanel.show": "표시",
+ "navPanel.visible": "표시됨",
"new": "새로운",
"noContent": "내용이 없습니다",
"oauth": "SSO 로그인",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "응원하기",
"productHunt.description": "Product Hunt에서 저희를 응원해 주세요. 여러분의 응원이 큰 힘이 됩니다!",
"productHunt.title": "우리는 Product Hunt에 있어요!",
+ "promptTransform.action": "아이디어 다듬기",
+ "promptTransform.actions.rewrite": "세부 정보 확장",
+ "promptTransform.actions.translate": "번역",
+ "promptTransform.status.rewrite": "세부 정보를 확장하는 중...",
+ "promptTransform.status.translate": "번역 중...",
+ "recents": "최근 항목",
"regenerate": "다시 생성",
"releaseNotes": "버전 정보",
"rename": "이름 변경",
@@ -400,6 +415,7 @@
"tab.audio": "오디오",
"tab.chat": "채팅",
"tab.community": "커뮤니티",
+ "tab.create": "생성",
"tab.discover": "탐색",
"tab.eval": "평가 연구소",
"tab.files": "파일",
diff --git a/locales/ko-KR/image.json b/locales/ko-KR/image.json
index 5d98ba3860..c5a7ab33ce 100644
--- a/locales/ko-KR/image.json
+++ b/locales/ko-KR/image.json
@@ -12,6 +12,7 @@
"config.model.label": "모델",
"config.prompt.placeholder": "생성하고 싶은 내용을 설명하세요",
"config.prompt.placeholderWithRef": "이미지를 어떻게 조정하고 싶은지 설명하세요",
+ "config.promptExtend.label": "프롬프트 확장",
"config.quality.label": "이미지 품질",
"config.quality.options.hd": "고화질",
"config.quality.options.standard": "표준",
@@ -24,6 +25,8 @@
"config.size.label": "크기",
"config.steps.label": "단계 수",
"config.title": "구성",
+ "config.watermark.label": "워터마크",
+ "config.webSearch.label": "웹 검색",
"config.width.label": "너비",
"generation.actions.applySeed": "시드 적용",
"generation.actions.copyError": "오류 정보 복사",
diff --git a/locales/ko-KR/labs.json b/locales/ko-KR/labs.json
index 420d9b846d..22b668a5bf 100644
--- a/locales/ko-KR/labs.json
+++ b/locales/ko-KR/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "도우미 메시지와 해당 도구 호출 결과를 그룹으로 묶어 표시합니다",
"features.assistantMessageGroup.title": "도우미 메시지 그룹화",
+ "features.gatewayMode.desc": "로컬에서 실행하는 대신 Gateway WebSocket을 통해 서버에서 에이전트 작업을 실행합니다. 더 빠른 처리 속도를 제공하고 클라이언트 리소스 사용을 줄여줍니다.",
+ "features.gatewayMode.title": "서버 사이드 에이전트 실행(Gateway)",
"features.groupChat.desc": "다중 도우미 그룹 채팅 조정 기능을 활성화합니다.",
"features.groupChat.title": "그룹 채팅 (다중 도우미)",
"features.inputMarkdown.desc": "입력 영역에서 실시간으로 Markdown을 렌더링합니다 (굵은 글씨, 코드 블록, 표 등).",
diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json
index b9027e6a06..f473f4991e 100644
--- a/locales/ko-KR/models.json
+++ b/locales/ko-KR/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "중국 내 최고 성능을 자랑하는 모델로, 지식, 장문 텍스트, 창의적 생성 등 중국어 과제에서 주요 해외 모델을 능가합니다. 또한 업계 최고 수준의 멀티모달 기능을 갖추고 있으며, 권위 있는 벤치마크에서 우수한 성과를 보입니다.",
"Baichuan4.description": "국내 최고 성능을 자랑하며, 백과사전식 지식, 장문 텍스트, 창의적 생성 등 중국어 과제에서 주요 해외 모델을 능가합니다. 업계 최고 수준의 멀티모달 기능과 뛰어난 벤치마크 성능도 제공합니다.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS는 ByteDance Seed에서 개발한 오픈소스 LLM 시리즈로, 장문 컨텍스트 처리, 추론, 에이전트, 일반 능력에 강점을 지닙니다. Seed-OSS-36B-Instruct는 360억 파라미터의 명령어 튜닝 모델로, 대규모 문서나 코드베이스를 처리할 수 있는 초장문 컨텍스트를 기본 지원합니다. 추론, 코드 생성, 도구 사용 등 에이전트 작업에 최적화되어 있으며, \"사고 예산(Thinking Budget)\" 기능을 통해 유연한 추론 길이 조절이 가능합니다.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR은 DeepSeek AI가 개발한 OCR 및 \"문맥 광학 압축\"에 특화된 비전-언어 모델입니다. 이미지에서 문맥을 압축하는 방식을 탐구하며, 문서를 효율적으로 처리해 Markdown과 같은 구조화된 텍스트로 변환합니다. 이미지 내 텍스트를 정확하게 인식해 문서 디지털화, 텍스트 추출, 구조적 처리에 적합합니다.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1은 DeepSeek 제품군 중 더 크고 똑똑한 모델로, Llama 70B 아키텍처에 증류되었습니다. 벤치마크 및 인간 평가에서 수학 및 사실 기반 정확도 과제에서 기본 Llama 70B보다 우수한 성능을 보입니다.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Qwen2.5-Math-1.5B 기반의 DeepSeek-R1 증류 모델입니다. 강화학습과 콜드스타트 데이터를 통해 추론 성능을 최적화하였으며, 오픈 모델 중 새로운 멀티태스크 벤치마크를 설정하였습니다.",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill 모델은 DeepSeek-R1이 생성한 샘플 데이터를 활용하여 오픈소스 모델을 파인튜닝한 것입니다.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "제공자: sophnet. DeepSeek V3 Fast는 DeepSeek V3 0324의 고TPS 버전으로, 정밀도 손실 없는(full-precision) 모델입니다. 코드 및 수학 성능이 강력하며, 응답 속도가 빠릅니다.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast는 DeepSeek V3.1의 고TPS 빠른 변형 모델입니다. 하이브리드 사고 모드를 지원하며, 채팅 템플릿을 통해 사고/비사고 모드를 전환할 수 있습니다. 도구 사용 능력도 향상되었습니다.",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 사고 모드는 사고/비사고 모드를 모두 지원하는 새로운 하이브리드 추론 모델로, DeepSeek-R1-0528보다 효율적입니다. 후학습 최적화를 통해 에이전트 도구 사용 및 작업 성능이 크게 향상되었습니다.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2는 희소 어텐션 메커니즘을 도입해 긴 텍스트 처리 시 학습 및 추론 효율을 개선하며, deepseek-v3.1보다 낮은 비용으로 제공됩니다.",
"DeepSeek-V3.description": "DeepSeek-V3는 DeepSeek에서 개발한 MoE 모델로, Qwen2.5-72B 및 Llama-3.1-405B와 같은 오픈 모델을 능가하며, GPT-4o 및 Claude 3.5 Sonnet과 같은 주요 폐쇄형 모델과 경쟁할 수 있는 성능을 보입니다.",
"Doubao-lite-128k.description": "Doubao-lite는 초고속 응답과 뛰어난 가성비를 제공하며, 다양한 시나리오에 유연하게 대응할 수 있습니다. 128K 컨텍스트를 지원하여 추론 및 파인튜닝이 가능합니다.",
"Doubao-lite-32k.description": "Doubao-lite는 초고속 응답과 뛰어난 가성비를 제공하며, 다양한 시나리오에 유연하게 대응할 수 있습니다. 32K 컨텍스트를 지원하여 추론 및 파인튜닝이 가능합니다.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: 추론, 코딩 및 에이전트 작업을 위한 고성능 모델.",
"GLM-4.6.description": "GLM-4.6: 이전 세대 모델.",
"GLM-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 에이전트 코딩 시나리오를 위해 향상된 코딩 기능, 장기 작업 계획 및 도구 협업을 제공합니다.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: 코딩 작업을 위한 추론 속도가 최적화된 GLM-5의 버전.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo는 에이전트 시나리오에 최적화된 기반 모델로, 학습 단계부터 도구 호출, 명령 수행, 장기 연쇄 실행 등 에이전트 작업의 핵심 요구사항을 강화했습니다. 고성능 에이전트 어시스턴트 구축에 적합합니다.",
"GLM-5.1.description": "GLM-5.1은 Zhipu의 최신 플래그십 모델로, 복잡한 시스템 엔지니어링과 장기 과제를 위한 향상된 에이전트 엔지니어링 기능을 갖춘 GLM-5의 개선된 버전입니다.",
- "GLM-5.description": "GLM-5는 Zhipu의 차세대 플래그십 기초 모델로, 에이전트 엔지니어링을 위해 설계되었습니다. 복잡한 시스템 엔지니어링 및 장기 에이전트 작업에서 신뢰할 수 있는 생산성을 제공합니다. 코딩 및 에이전트 기능에서 GLM-5는 오픈소스 모델 중 최첨단 성능을 달성합니다.",
+ "GLM-5.description": "GLM-5는 지푸(Zhipu)의 차세대 플래그십 기반 모델로, 에이전트 엔지니어링을 위해 설계되었습니다. 복잡한 시스템 엔지니어링과 장기적 에이전트 작업에서 안정적인 생산성을 제공합니다. 코딩과 에이전트 능력에서 오픈소스 모델 중 최고 성능을 달성하며, 실제 프로그래밍 환경에서 Claude Opus 4.5에 근접한 사용자 경험을 제공합니다. 복잡한 시스템 엔지니어링과 장기 에이전트 작업에 뛰어나 범용 에이전트 어시스턴트의 이상적인 기반 모델입니다.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B)는 다양한 분야와 복잡한 작업을 위한 혁신적인 모델입니다.",
"HY-Image-V3.0.description": "강력한 원본 이미지 특징 추출 및 세부 보존 기능을 통해 풍부한 시각적 텍스처를 제공하며, 높은 정확도와 잘 구성된 제작 등급의 비주얼을 생성합니다.",
"HelloMeme.description": "HelloMeme은 사용자가 제공한 이미지나 동작을 기반으로 밈, GIF, 짧은 영상을 생성하는 AI 도구입니다. 그림이나 코딩 기술 없이도 참조 이미지 하나만으로 재미있고 매력적이며 스타일이 일관된 콘텐츠를 만들 수 있습니다.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter는 2025년 텐센트 AI에서 출시한 튜닝이 필요 없는 개인화 캐릭터 생성 모델로, 고정밀도 및 다양한 시나리오에서 일관된 캐릭터 생성을 목표로 합니다. 단 하나의 참조 이미지로 캐릭터를 모델링하고, 스타일, 동작, 배경에 유연하게 적용할 수 있습니다.",
"InternVL2-8B.description": "InternVL2-8B는 강력한 비전-언어 모델로, 이미지-텍스트 다중 모달 처리를 지원하며 이미지 내용을 정확히 인식하고 관련 설명이나 답변을 생성할 수 있습니다.",
"InternVL2.5-26B.description": "InternVL2.5-26B는 강력한 비전-언어 모델로, 이미지-텍스트 다중 모달 처리를 지원하며 이미지 내용을 정확히 인식하고 관련 설명이나 답변을 생성할 수 있습니다.",
+ "KAT-Coder-Air-V1.description": "KAT-Coder 시리즈의 경량 버전으로, 에이전트 코딩을 위해 설계되었습니다. 다양한 프로그래밍 작업과 시나리오를 폭넓게 다루며, 대규모 에이전트 기반 강화학습을 통해 지능적 행동이 발현되고 코드 성능에서 유사 모델을 크게 앞섭니다.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B는 KAT-Coder 시리즈의 강화학습 혁신 실험 버전으로, SWE-Bench Verified 벤치마크에서 74.6%라는 뛰어난 성능을 기록하며 오픈소스 모델 신기록을 세웠습니다. 에이전트 코딩에 중점을 두며 현재 SWE-Agent 스캐폴드만 지원하지만 간단한 대화도 가능합니다.",
+ "KAT-Coder-Pro-V1.description": "에이전트 코딩을 위해 설계된 모델로, 다양한 프로그래밍 작업과 시나리오를 포괄적으로 처리합니다. 대규모 강화학습을 통해 지능적 행동을 발현하며, 코드 작성 성능에서 동급 모델을 크게 능가합니다.",
+ "KAT-Coder-Pro-V2.description": "콰이쇼우(Kuaishou) Kwaipilot 팀의 최신 고성능 모델로, 복잡한 엔터프라이즈 프로젝트 및 SaaS 통합을 위해 설계되었습니다. 코드 관련 시나리오에 강점을 보이며 다양한 에이전트 프레임워크(Claude Code, OpenCode, KiloCode)와 호환되고, OpenClaw를 기본 지원하며 프런트엔드 페이지 미학에 특화된 최적화를 제공합니다.",
+ "Kimi-K2.5.description": "Kimi K2.5는 가장 강력한 Kimi 모델로, 에이전트 작업, 코딩, 비전 이해 분야에서 오픈소스 SOTA 수준의 성능을 제공합니다. 멀티모달 입력을 지원하며 사고(thinking) 모드와 비사고 모드를 모두 지원합니다.",
"Kolors.description": "Kolors는 Kuaishou Kolors 팀이 개발한 텍스트-이미지 생성 모델로, 수십억 개의 파라미터로 학습되어 시각적 품질, 중국어 의미 이해, 텍스트 렌더링에서 뛰어난 성능을 보입니다.",
"Kwai-Kolors/Kolors.description": "Kolors는 Kuaishou Kolors 팀이 개발한 대규모 잠재 디퓨전 기반 텍스트-이미지 생성 모델로, 수십억 개의 텍스트-이미지 쌍으로 학습되어 시각적 품질, 복잡한 의미 정확도, 중/영문 텍스트 렌더링에서 뛰어난 성능을 보이며, 중국어 콘텐츠 이해 및 생성 능력이 우수합니다.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B)는 소프트웨어 엔지니어링 작업을 위한 오픈소스 32B 모델입니다. SWE-Bench Verified에서 62.4% 해결률을 기록하며 오픈 모델 중 5위를 차지했습니다. 코드 완성, 버그 수정, 코드 리뷰를 위해 중간 학습, SFT, RL을 통해 최적화되었습니다.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "최신 소형 언어 모델로, 뛰어난 언어 이해, 우수한 추론, 텍스트 생성 능력을 갖추고 있습니다.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. 트랜스포머 기반이며, SFT 및 RLHF를 통해 유용성과 안전성이 향상되었습니다. 지시 튜닝 버전은 다국어 대화에 최적화되어 있으며, 업계 벤치마크에서 많은 오픈 및 클로즈드 챗 모델을 능가합니다. 지식 기준일: 2023년 12월.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick은 효율적인 전문가 활성화를 통해 강력한 추론 성능을 제공하는 대형 MoE 모델입니다.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro는 실제 환경에서의 고강도 에이전트 워크플로우를 위해 설계되었습니다. 총 1조 개 이상의 파라미터(활성 파라미터 420억)를 갖추고 혁신적인 하이브리드 어텐션 아키텍처를 채택했으며 최대 100만 토큰의 초장문 컨텍스트를 지원합니다. 강력한 기반 모델을 바탕으로 더 폭넓은 에이전트 시나리오에 연산 자원을 지속적으로 확장해 지능의 행동 공간을 넓히고, 코딩부터 실제 작업 수행(“claw”)까지 뛰어난 일반화를 달성합니다.",
"MiniMax-Hailuo-02.description": "차세대 비디오 생성 모델 MiniMax Hailuo 02가 공식적으로 출시되어 1080P 해상도와 10초 비디오 생성을 지원합니다.",
"MiniMax-Hailuo-2.3-Fast.description": "신규 비디오 생성 모델로 신체 움직임, 물리적 사실성, 지침 준수에서 전반적인 업그레이드 제공.",
"MiniMax-Hailuo-2.3.description": "신규 비디오 생성 모델로 신체 움직임, 물리적 사실성, 지침 준수에서 전반적인 업그레이드 제공.",
"MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.",
"MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
- "MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 기능과 더 빠르고 효율적인 추론 제공.",
"MiniMax-M2.1-highspeed.description": "강력한 다국어 프로그래밍 기능과 종합적으로 업그레이드된 프로그래밍 경험. 더 빠르고 효율적입니다.",
"MiniMax-M2.1.description": "MiniMax-M2.1은 MiniMax에서 개발한 대표적인 오픈소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 다국어 프로그래밍 능력과 에이전트로서 복잡한 작업을 수행하는 능력이 핵심 강점입니다.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5와 동일한 성능을 제공하며 추론 속도가 더 빠릅니다.",
"MiniMax-M2.5.description": "MiniMax-M2.5는 MiniMax의 플래그십 오픈 소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 이 모델의 핵심 강점은 다중 언어 프로그래밍 기능과 에이전트로서 복잡한 작업을 해결하는 능력입니다.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: M2.7과 동일한 성능을 제공하며 추론 속도가 크게 향상되었습니다.",
- "MiniMax-M2.7.description": "MiniMax M2.7: 재귀적 자기 개선의 여정을 시작하며, 최고 수준의 실제 엔지니어링 기능을 제공합니다.",
+ "MiniMax-M2.7.description": "최초의 자기 진화형 모델로, 최고 수준의 코딩 및 에이전트 성능(~60 tps)을 제공합니다.",
"MiniMax-M2.description": "MiniMax M2: 이전 세대 모델.",
"MiniMax-Text-01.description": "MiniMax-01은 기존 트랜스포머를 넘어선 대규모 선형 어텐션을 도입한 모델로, 4560억 파라미터 중 459억이 활성화됩니다. 최대 400만 토큰의 문맥을 지원하며, GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다.",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1은 456B 총 매개변수와 토큰당 약 45.9B 활성 매개변수를 가진 오픈 가중치 대규모 하이브리드 주의 추론 모델입니다. 1M 컨텍스트를 기본적으로 지원하며, Flash Attention을 사용하여 DeepSeek R1 대비 100K 토큰 생성 시 FLOPs를 75% 절감합니다. MoE 아키텍처와 CISPO 및 하이브리드 주의 RL 훈련을 통해 긴 입력 추론 및 실제 소프트웨어 엔지니어링 작업에서 선도적인 성능을 달성합니다.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905는 최신이자 가장 강력한 Kimi K2 모델입니다. 총 1조, 활성 320억 매개변수를 가진 최상급 MoE 모델로, 에이전트 기반 코딩 지능이 강화되어 벤치마크 및 실제 에이전트 작업에서 큰 성능 향상을 보입니다. 프론트엔드 코드의 미적 품질과 사용성도 개선되었습니다.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo는 추론 속도와 처리량을 최적화한 Turbo 버전으로, K2 Thinking의 다단계 추론 및 도구 사용 능력을 유지합니다. 약 1조 매개변수를 가진 MoE 모델로, 기본 256K 컨텍스트를 지원하며, 대규모 도구 호출이 필요한 실시간 및 동시성 높은 환경에 적합합니다.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5는 Kimi-K2-Base를 기반으로 구축된 오픈소스 네이티브 멀티모달 에이전트 모델로, 약 1.5조 개의 비전 및 텍스트 토큰으로 학습되었습니다. MoE 아키텍처를 채택하여 총 1조 파라미터 중 320억 개가 활성화되며, 256K 컨텍스트 윈도우를 지원하여 비전과 언어 이해를 자연스럽게 통합합니다.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1은 754B 파라미터의 MoE(Mixture of Experts) 아키텍처를 사용하는 차세대 플래그십 에이전트 엔지니어링 모델입니다. SWE-Bench Pro에서 선도적 성능을 달성했으며 NL2Repo, Terminal-Bench 2.0 등에서 전작 대비 큰 폭의 향상을 보였습니다. 장기적 에이전트 작업을 위해 설계되어 모호한 질문에 대한 판단력이 향상되었고, 복잡한 작업을 분해하고 실험을 수행하며 결과를 분석하고 수백 번의 반복과 수천 번의 도구 호출을 통해 지속적으로 최적화합니다.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7은 Zhipu의 새로운 세대 플래그십 모델로, 355B 총 매개변수와 32B 활성 매개변수를 가지고 있으며 일반 대화, 추론 및 에이전트 기능에서 완전히 업그레이드되었습니다. GLM-4.7은 교차적 사고를 강화하고 보존적 사고 및 턴 수준 사고를 도입합니다.",
"Pro/zai-org/glm-5.description": "GLM-5는 Zhipu의 차세대 대형 언어 모델로, 복잡한 시스템 엔지니어링과 장기 지속 에이전트 작업에 중점을 둡니다. 모델 파라미터는 7440억 개(활성화된 40억 개)로 확장되었으며, DeepSeek Sparse Attention을 통합합니다.",
"QwQ-32B-Preview.description": "Qwen QwQ는 추론 능력 향상을 목표로 한 실험적 연구 모델입니다.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507은 대규모 추론을 효율적으로 수행할 수 있도록 MoE를 활용하여 고급 추론 및 지시 따르기에 최적화된 모델입니다.",
"Qwen3-235B.description": "Qwen3-235B-A22B는 MoE 모델로, 사고 모드와 비사고 모드를 자유롭게 전환할 수 있는 하이브리드 추론 모드를 도입하였습니다. 119개 언어 및 방언에 대한 이해와 추론을 지원하며, 강력한 도구 호출 기능을 갖추고 있습니다. DeepSeek R1, OpenAI o1, o3-mini, Grok 3, Google Gemini 2.5 Pro 등 주요 모델들과 일반 능력, 코드 및 수학, 다국어 능력, 지식 추론 벤치마크에서 경쟁합니다.",
"Qwen3-32B.description": "Qwen3-32B는 사고 모드와 비사고 모드를 전환할 수 있는 하이브리드 추론 모드를 도입한 밀집 모델입니다. 아키텍처 개선, 데이터 확장, 훈련 품질 향상을 통해 Qwen2.5-72B와 동등한 성능을 발휘합니다.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus는 텍스트, 이미지, 비디오 입력을 지원합니다. 순수 텍스트 작업 성능은 Qwen3 Max에 필적하며 더 나은 성능과 낮은 비용을 제공합니다. 멀티모달 능력은 Qwen3 VL 시리즈 대비 크게 향상되었습니다.",
"S2V-01.description": "01 시리즈의 기본 참조-비디오 모델.",
"SenseChat-128K.description": "128K 컨텍스트를 지원하는 Base V4 모델로, 장문 이해 및 생성에 강점을 가집니다.",
"SenseChat-32K.description": "32K 컨텍스트를 지원하는 Base V4 모델로, 다양한 상황에 유연하게 대응합니다.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 사고력을 제공합니다.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 스마트한 Haiku 모델로, 매우 빠른 속도와 확장된 추론 능력을 갖추고 있습니다.",
"claude-haiku-4.5.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 똑똑한 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 자랑합니다.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
- "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 뛰어난 모델로, 매우 복잡한 작업에서 탁월한 성능, 지능, 유창성, 이해력을 제공합니다.",
+ "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 발휘합니다.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
- "claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축 및 코딩에 가장 지능적인 Anthropic 모델입니다.",
+ "claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축 및 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
"claude-opus-4.5.description": "Claude Opus 4.5는 Anthropic의 대표 모델로, 최상급 지능과 확장 가능한 성능을 결합하여 복잡하고 고품질의 추론 작업을 수행합니다.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6은 에이전트 구축과 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
"claude-opus-4.6.description": "Claude Opus 4.6은 에이전트 구축과 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic의 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 제공합니다.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic의 가장 지능적인 모델입니다.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공합니다.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 거의 즉각적인 응답 또는 단계별 사고 과정을 보여주는 확장된 추론을 모두 생성할 수 있습니다.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 지금까지 출시된 Sonnet 모델 중 가장 지능적인 모델입니다.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6은 속도와 지능의 최적 균형을 제공하는 모델입니다.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5는 지금까지의 Anthropic 모델 중 가장 지능적인 모델입니다.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공합니다.",
"claude-sonnet-4.description": "Claude Sonnet 4는 거의 즉각적인 응답을 생성하거나 사용자가 볼 수 있는 단계별 추론을 확장하여 제공합니다. API 사용자는 모델의 사고 시간을 세밀하게 제어할 수 있습니다.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2는 복잡한 추론과 연쇄 사고 능력이 강화된 차세대 추론 모델입니다.",
- "deepseek-chat.description": "DeepSeek V3.2는 일상적인 QA 및 에이전트 작업을 위해 추론과 출력 길이를 균형 있게 조정합니다. 공개 벤치마크에서 GPT-5 수준에 도달하며, 도구 사용에 사고를 통합한 최초의 모델로, 오픈소스 에이전트 평가를 선도합니다.",
+ "deepseek-chat.description": "일반 능력과 코드 능력을 결합한 새로운 오픈소스 모델입니다. 챗 모델의 일반 대화 능력과 코더 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 개선되었습니다. DeepSeek-V2.5는 글쓰기와 지시 수행 능력도 향상했습니다.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 더 높은 정확도를 제공하는 심층 추론 모델로, 주요 경쟁 결과와 Gemini-3.0-Pro에 필적하는 추론 능력을 제공합니다.",
+ "deepseek-reasoner.description": "DeepSeek V3.2 사고(thinking) 모드는 정확도 향상을 위해 최종 답변 전에 사고 과정(chain-of-thought)을 출력합니다.",
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
"ernie-x1.1.description": "ERNIE X1.1은 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5는 ByteDance Seed 팀에서 개발한 모델로, 다중 이미지 편집 및 구성, 주제 일관성 강화, 정확한 지침 준수, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인을 지원하며 고정밀 텍스트-이미지 렌더링을 제공합니다.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 모델로, 텍스트 및 이미지 입력을 지원하여 프롬프트에서 고도로 제어 가능한 고품질 이미지 생성을 제공합니다.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며 높은 제어력과 고품질 이미지 생성 능력을 갖추고 있습니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
- "fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 및 외형 편집, 정확한 중국어/영어 텍스트 편집, 스타일 전환, 회전 등을 지원합니다.",
- "fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 강력한 중국어 텍스트 렌더링과 다양한 시각적 스타일을 제공합니다.",
+ "fal-ai/qwen-image-edit.description": "Qwen 팀의 전문 이미지 편집 모델로, 의미 및 외형 수정, 중문 및 영문 텍스트의 정밀 편집, 스타일 변환 및 객체 회전 등 고품질 편집을 지원합니다.",
+ "fal-ai/qwen-image.description": "Qwen 팀의 강력한 이미지 생성 모델로, 뛰어난 중문 텍스트 렌더링과 다양한 시각 스타일을 제공합니다.",
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
- "flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
+ "flux-dev.description": "비상업적 혁신 연구를 위해 효율적으로 최적화된 오픈소스 R&D 이미지 생성 모델입니다.",
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
"flux-kontext-pro.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
- "flux-merged.description": "FLUX.1 [merged]는 \"DEV\"에서 탐구된 심층 기능과 \"Schnell\"의 고속 장점을 결합하여 성능 한계를 확장하고 응용 범위를 넓힙니다.",
"flux-pro-1.1-ultra.description": "4MP 해상도의 초고해상도 이미지 생성 모델로, 10초 내에 선명한 이미지를 생성합니다.",
"flux-pro-1.1.description": "우수한 이미지 품질과 정밀한 프롬프트 반응을 제공하는 업그레이드된 전문가급 이미지 생성 모델입니다.",
"flux-pro.description": "비교할 수 없는 이미지 품질과 다양한 출력을 제공하는 최고급 상업용 이미지 생성 모델입니다.",
- "flux-schnell.description": "FLUX.1 [schnell]은 가장 진보된 오픈소스 소수 단계 모델로, Midjourney v6.0 및 DALL-E 3 (HD)와 같은 강력한 비증류 모델을 능가합니다. 사전 학습의 다양성을 유지하도록 정밀 조정되어 시각 품질, 지시 따르기, 크기/비율 다양성, 글꼴 처리, 출력 다양성이 크게 향상되었습니다.",
"flux.1-schnell.description": "FLUX.1-schnell은 빠른 다중 스타일 출력을 위한 고성능 이미지 생성 모델입니다.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (튜닝)은 복잡한 작업을 위한 안정적이고 조정 가능한 성능을 제공합니다.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (튜닝)은 복잡한 작업을 위한 강력한 멀티모달 지원을 제공합니다.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.",
"gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 스마트한 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro)는 구글의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)는 Google의 이미지 생성 모델로, 다중 모달 채팅도 지원합니다.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
"gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 구글의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집을 제공합니다.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 Pro 수준의 이미지 품질을 Flash 속도로 제공하며, 다중 모달 채팅을 지원합니다.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)는 Google의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집 기능을 제공합니다.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview는 Google의 가장 비용 효율적인 다중 모드 모델로, 대량 에이전트 작업, 번역 및 데이터 처리에 최적화되어 있습니다.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview는 Gemini 3 Pro의 추론 능력을 강화하고 중간 사고 수준 지원을 추가합니다.",
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
@@ -806,7 +812,6 @@
"jamba-large.description": "복잡한 기업용 작업을 위해 설계된 가장 강력하고 고급화된 모델로, 탁월한 성능을 제공합니다.",
"jamba-mini.description": "동급 모델 중 가장 효율적인 모델로, 속도와 품질의 균형을 유지하면서도 경량화된 구조를 갖추고 있습니다.",
"jina-deepsearch-v1.description": "DeepSearch는 웹 검색, 문서 읽기, 추론을 결합하여 심층적인 조사를 수행합니다. 사용자의 연구 과제를 받아 반복적인 검색을 통해 정보를 수집하고, 그 후에야 답변을 생성합니다. 이 과정은 지속적인 조사와 다각적 문제 해결을 포함하며, 사전 학습 데이터나 단일 검색에 의존하는 기존 LLM 또는 RAG 시스템과는 근본적으로 다릅니다.",
- "k2p5.description": "Kimi K2.5는 Kimi의 가장 다재다능한 모델로, 시각 및 텍스트 입력을 지원하는 네이티브 멀티모달 아키텍처, '사고' 및 '비사고' 모드, 그리고 대화 및 에이전트 작업을 포함합니다.",
"kimi-k2-0711-preview.description": "kimi-k2는 MoE 기반의 모델로, 강력한 코딩 및 에이전트 기능을 갖추고 있으며(총 1조 파라미터, 활성 320억), 추론, 프로그래밍, 수학, 에이전트 벤치마크에서 주요 오픈 모델들을 능가합니다.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview는 256K 컨텍스트 윈도우를 지원하며, 향상된 에이전트 코딩 능력, 개선된 프론트엔드 코드 품질, 더 나은 문맥 이해력을 제공합니다.",
"kimi-k2-instruct.description": "Kimi K2 Instruct는 코드, 질의응답 등 다양한 작업을 위한 장문 문맥 추론 모델로, Kimi의 공식 추론 모델입니다.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ는 Qwen 계열의 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 사고 및 추론 능력이 뛰어나며, 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다. QwQ-32B는 DeepSeek-R1 및 o1-mini와 경쟁할 수 있는 중형 추론 모델입니다.",
"qwq_32b.description": "Qwen 계열의 중형 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 QwQ의 사고 및 추론 능력은 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다.",
"r1-1776.description": "R1-1776은 DeepSeek R1의 후속 학습 버전으로, 검열되지 않고 편향 없는 사실 정보를 제공합니다.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance는 텍스트-비디오, 이미지-비디오(첫 프레임, 첫+마지막 프레임), 시각과 동기화된 오디오 생성을 지원합니다.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus는 실시간 정보를 위한 웹 검색 증강 생성, 복잡한 프롬프트 해석 강화, 전문적인 시각적 창작을 위한 참조 일관성 개선을 특징으로 합니다.",
"solar-mini-ja.description": "Solar Mini (Ja)는 Solar Mini의 일본어 특화 버전으로, 영어와 한국어에서도 효율적이고 강력한 성능을 유지합니다.",
"solar-mini.description": "Solar Mini는 GPT-3.5를 능가하는 성능을 가진 소형 LLM으로, 영어와 한국어를 지원하는 강력한 다국어 기능을 갖추고 있으며, 효율적인 경량 솔루션을 제공합니다.",
"solar-pro.description": "Solar Pro는 Upstage의 고지능 LLM으로, 단일 GPU에서 지시 수행에 최적화되어 있으며, IFEval 점수 80 이상을 기록합니다. 현재는 영어를 지원하며, 2024년 11월 전체 릴리스 시 더 많은 언어와 긴 컨텍스트를 지원할 예정입니다.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2는 새로운 강력한 미디어 생성 모델로, 동기화된 오디오와 함께 비디오를 생성합니다. 자연어 또는 이미지를 사용하여 풍부한 세부 사항과 역동적인 클립을 생성할 수 있습니다.",
"spark-x.description": "X2 기능 개요: 1. `thinking` 필드를 통해 추론 모드의 동적 조정을 도입합니다. 2. 컨텍스트 길이 확장: 64K 입력 토큰 및 128K 출력 토큰. 3. Function Call 기능을 지원합니다.",
"stable-diffusion-3-medium.description": "Stability AI의 최신 텍스트-이미지 모델입니다. 이미지 품질, 텍스트 이해, 스타일 다양성이 크게 향상되었으며, 복잡한 자연어 프롬프트를 더 정확하게 해석하고 정밀하고 다양한 이미지를 생성합니다.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo는 stable-diffusion-3.5-large에 적대적 확산 증류(ADD)를 적용하여 속도를 향상시킨 버전입니다.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large는 800M 파라미터의 MMDiT 텍스트-이미지 모델로, 우수한 품질과 프롬프트 정렬을 제공하며, 1메가픽셀 이미지를 지원하고 소비자 하드웨어에서 효율적으로 실행됩니다.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5는 v1.2 체크포인트에서 초기화되어 \"laion-aesthetics v2 5+\" 데이터셋으로 595k 스텝 파인튜닝되었으며, 텍스트 조건화를 10% 줄여 classifier-free guidance 샘플링을 개선했습니다.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo는 높은 디테일 표현과 장면 충실도를 갖춘 고품질 이미지 생성에 중점을 둡니다.",
"stable-diffusion-xl-base-1.0.description": "Stability AI의 오픈소스 텍스트-이미지 모델로, 업계 최고 수준의 창의적 이미지 생성을 제공합니다. 지시 이해력이 뛰어나며, 정밀한 생성을 위한 역 프롬프트 정의도 지원합니다.",
- "stable-diffusion-xl.description": "stable-diffusion-xl은 v1.5 대비 큰 개선을 이루었으며, 최고 수준의 오픈 텍스트-이미지 결과와 견줄 만합니다. 개선 사항에는 3배 더 큰 UNet 백본, 이미지 품질 향상을 위한 리파인먼트 모듈, 더 효율적인 학습 기법이 포함됩니다.",
"step-1-128k.description": "일반적인 시나리오에서 성능과 비용의 균형을 제공합니다.",
"step-1-256k.description": "장문 문서 분석에 적합한 초장문 컨텍스트 처리 지원.",
"step-1-32k.description": "다양한 시나리오에 적합한 중간 길이 대화 지원.",
diff --git a/locales/ko-KR/plugin.json b/locales/ko-KR/plugin.json
index ba44cb7a09..28bad67075 100644
--- a/locales/ko-KR/plugin.json
+++ b/locales/ko-KR/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "총 {{count}}개의 매개변수가 있습니다",
"arguments.title": "매개변수 목록",
"builtins.lobe-activator.apiName.activateTools": "도구 활성화",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}}개를 찾을 수 없음",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "사용 가능한 모델 가져오기",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "사용 가능한 도구 가져오기",
"builtins.lobe-agent-builder.apiName.getConfig": "설정 가져오기",
diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json
index 34c9516f0c..9e0cead917 100644
--- a/locales/ko-KR/providers.json
+++ b/locales/ko-KR/providers.json
@@ -33,7 +33,6 @@
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
"kimicodingplan.description": "문샷 AI의 Kimi Code는 K2.5를 포함한 Kimi 모델에 접근하여 코딩 작업을 수행할 수 있습니다.",
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
- "lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연계된 크레딧으로 사용량을 측정합니다.",
"longcat.description": "LongCat은 Meituan에서 독자적으로 개발한 생성형 AI 대형 모델 시리즈입니다. 이는 효율적인 계산 아키텍처와 강력한 멀티모달 기능을 통해 내부 기업 생산성을 향상시키고 혁신적인 애플리케이션을 가능하게 하기 위해 설계되었습니다.",
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
"minimaxcodingplan.description": "MiniMax 토큰 플랜은 고정 요금 구독을 통해 M2.7을 포함한 MiniMax 모델에 접근하여 코딩 작업을 수행할 수 있습니다.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark는 다양한 분야에서 강력한 다국어 AI를 제공하여 스마트 하드웨어, 헬스케어, 금융 등에서 혁신을 가능하게 합니다.",
"stepfun.description": "Stepfun 모델은 멀티모달 및 복잡한 추론 능력, 장문 문맥 이해, 강력한 자율 검색 조정 기능을 제공합니다.",
"straico.description": "Straico는 최고의 텍스트, 이미지 및 오디오 생성 AI 모델을 하나로 통합한 통합 작업 공간을 제공하여 마케터, 기업가 및 열정적인 사용자들이 다양한 AI 도구에 원활하게 접근할 수 있도록 지원합니다.",
+ "streamlake.description": "StreamLake는 엔터프라이즈급 모델 서비스와 AI 컴퓨팅 클라우드를 제공하는 플랫폼으로, 고성능 모델 추론, 저비용 모델 커스터마이징, 완전 관리형 서비스를 통합하여 기업이 복잡한 인프라 운영이나 비용 부담 없이 AI 애플리케이션 혁신에 집중할 수 있도록 지원합니다.",
"taichu.description": "Taichu는 CASIA와 우한 인공지능연구원이 공동 개발한 차세대 멀티모달 모델로, 다중 회차 QA, 작문, 이미지 생성, 3D 이해, 신호 분석 등에서 뛰어난 인지력과 창의성을 발휘합니다.",
"tencentcloud.description": "LLM 지식 엔진 Atomic Power는 문서 파싱, 청킹, 임베딩, 다중 회차 재작성 등 모듈형 서비스를 통해 기업과 개발자를 위한 맞춤형 AI 솔루션을 제공합니다.",
"togetherai.description": "Together AI는 혁신적인 모델, 폭넓은 커스터마이징, 빠른 확장성, 간편한 배포를 통해 기업의 요구에 맞는 최고의 성능을 제공합니다.",
diff --git a/locales/ko-KR/setting.json b/locales/ko-KR/setting.json
index 55f2868fb0..e04bda8fe1 100644
--- a/locales/ko-KR/setting.json
+++ b/locales/ko-KR/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "시스템 도구",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - 빠른 코드 검색 도구",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - AI 에이전트를 위한 헤드리스 브라우저 자동화 CLI",
+ "settingSystemTools.tools.bun.desc": "Bun - 빠른 JavaScript 런타임 및 패키지 관리자",
+ "settingSystemTools.tools.bunx.desc": "bunx - npm 패키지 실행을 위한 Bun 패키지 실행기",
"settingSystemTools.tools.fd.desc": "fd - 빠르고 사용하기 쉬운 find 명령어 대체 도구",
"settingSystemTools.tools.find.desc": "Unix find - 표준 파일 검색 명령어",
"settingSystemTools.tools.grep.desc": "GNU grep - 표준 텍스트 검색 도구",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - LobeHub 서비스를 관리하고 연결",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight 검색 (빠른 인덱스 기반 검색)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript/TypeScript 실행을 위한 런타임",
"settingSystemTools.tools.npm.desc": "npm - Node.js 패키지 매니저, 의존성 설치용",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - 빠르고 디스크 공간 효율적인 패키지 관리자",
"settingSystemTools.tools.python.desc": "Python - 프로그래밍 언어 런타임",
"settingSystemTools.tools.rg.desc": "ripgrep - 매우 빠른 텍스트 검색 도구",
+ "settingSystemTools.tools.uv.desc": "uv - 매우 빠른 Python 패키지 관리자",
"settingTTS.openai.sttModel": "OpenAI 음성 인식 모델",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI 음성 합성 모델",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "모델",
"systemAgent.inputCompletion.modelDesc": "입력 자동 완성 제안에 사용되는 모델 (예: GitHub Copilot의 고스트 텍스트)",
"systemAgent.inputCompletion.title": "입력 자동 완성 에이전트",
+ "systemAgent.promptRewrite.label": "모델",
+ "systemAgent.promptRewrite.modelDesc": "프롬프트 재작성에 사용할 모델을 지정합니다",
+ "systemAgent.promptRewrite.title": "프롬프트 재작성 에이전트",
"systemAgent.queryRewrite.label": "모델",
"systemAgent.queryRewrite.modelDesc": "사용자의 질문을 최적화하는 데 사용되는 모델 지정",
"systemAgent.queryRewrite.title": "자료실 질문 재작성 도우미",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "로컬 .zip 또는 .skill 파일 업로드",
"tab.usage": "사용량 통계",
"tools.add": "기능 통합",
+ "tools.builtins.find-skills.description": "사용자가 'X를 어떻게 하나요', 'X에 필요한 스킬을 찾아줘' 등의 질문을 할 때 에이전트 스킬을 탐색하고 설치하도록 도와줍니다",
+ "tools.builtins.find-skills.title": "스킬 찾기",
"tools.builtins.groupName": "내장",
"tools.builtins.install": "설치",
"tools.builtins.installed": "설치됨",
+ "tools.builtins.lobe-activator.description": "도구와 스킬을 탐색하고 활성화합니다",
+ "tools.builtins.lobe-activator.title": "도구 및 스킬 활성화",
+ "tools.builtins.lobe-agent-browser.description": "AI 에이전트를 위한 브라우저 자동화 CLI. 웹사이트 또는 Electron 상호작용(네비게이션, 폼 작성, 클릭, 스크린샷, 데이터 스크래핑, 로그인 흐름, E2E 테스트 등) 작업에 사용합니다.",
+ "tools.builtins.lobe-agent-browser.title": "에이전트 브라우저",
+ "tools.builtins.lobe-agent-builder.description": "에이전트 메타데이터, 모델 설정, 플러그인, 시스템 프롬프트를 구성합니다",
+ "tools.builtins.lobe-agent-builder.title": "에이전트 빌더",
+ "tools.builtins.lobe-agent-documents.description": "에이전트 범위의 문서를 관리합니다(목록, 생성, 읽기, 편집, 삭제, 이름 변경) 및 로드 규칙 설정",
+ "tools.builtins.lobe-agent-documents.title": "문서",
+ "tools.builtins.lobe-agent-management.description": "AI 에이전트를 생성, 관리, 오케스트레이션합니다",
+ "tools.builtins.lobe-agent-management.title": "에이전트 관리",
"tools.builtins.lobe-artifacts.description": "인터랙티브 UI 구성 요소, 차트 및 웹 콘텐츠를 생성하고 미리보기",
"tools.builtins.lobe-artifacts.readme": "인터랙티브 UI 구성 요소, 데이터 시각화, 차트, SVG 그래픽 및 웹 애플리케이션을 생성하고 실시간으로 미리보기할 수 있습니다. 사용자가 직접 상호작용할 수 있는 풍부한 시각 콘텐츠를 만들어보세요.",
"tools.builtins.lobe-artifacts.title": "아티팩트",
+ "tools.builtins.lobe-brief.description": "진행 상황을 보고하고 결과를 전달하며 사용자 결정을 요청합니다",
+ "tools.builtins.lobe-brief.title": "브리프 도구",
"tools.builtins.lobe-calculator.description": "수학 계산을 수행하고, 방정식을 풀며, 기호 표현을 다룹니다",
"tools.builtins.lobe-calculator.readme": "기본 산술, 대수 방정식, 미적분 연산 및 기호 수학을 지원하는 고급 수학 계산기입니다. 진법 변환, 방정식 풀이, 미분, 적분 등을 포함합니다.",
"tools.builtins.lobe-calculator.title": "계산기",
"tools.builtins.lobe-cloud-sandbox.description": "보안된 클라우드 환경에서 코드 실행, 명령어 실행 및 파일 관리",
"tools.builtins.lobe-cloud-sandbox.readme": "격리된 클라우드 환경에서 Python, JavaScript, TypeScript 코드를 실행하세요. 셸 명령 실행, 파일 관리, 정규식으로 콘텐츠 검색, 결과 안전하게 내보내기를 지원합니다.",
"tools.builtins.lobe-cloud-sandbox.title": "클라우드 샌드박스",
+ "tools.builtins.lobe-creds.description": "인증, 환경 변수 주입, API 검증을 위한 사용자 자격 증명을 관리합니다 — API 키, OAuth 토큰, 서드파티 연동 비밀키 등을 처리합니다.",
+ "tools.builtins.lobe-creds.title": "자격 증명",
+ "tools.builtins.lobe-cron.description": "지정된 시간에 자동으로 실행되는 예약 작업을 관리합니다. 반복 작업 생성, 수정, 활성/비활성, 모니터링을 지원합니다.",
+ "tools.builtins.lobe-cron.title": "예약 작업",
+ "tools.builtins.lobe-group-agent-builder.description": "멀티 에이전트 그룹을 위한 그룹 메타데이터, 구성원, 공유 콘텐츠를 설정합니다",
+ "tools.builtins.lobe-group-agent-builder.title": "그룹 에이전트 빌더",
+ "tools.builtins.lobe-group-management.description": "멀티 에이전트 그룹 대화를 오케스트레이션하고 관리합니다",
+ "tools.builtins.lobe-group-management.title": "그룹 관리",
"tools.builtins.lobe-gtd.description": "GTD 방법론으로 목표를 계획하고 진행 상황을 추적",
"tools.builtins.lobe-gtd.readme": "GTD(Getting Things Done) 방법론을 활용해 목표를 계획하고 진행 상황을 추적하세요. 전략적 계획 수립, 상태 추적이 가능한 할 일 목록 관리, 장기 비동기 작업 실행이 가능합니다.",
"tools.builtins.lobe-gtd.title": "GTD 도구",
+ "tools.builtins.lobe-knowledge-base.description": "업로드된 문서와 도메인 지식을 시맨틱 벡터 검색으로 탐색합니다 — 지속적이고 재사용 가능한 참고 자료 제공",
+ "tools.builtins.lobe-knowledge-base.title": "지식 베이스",
"tools.builtins.lobe-local-system.description": "로컬 파일에 접근하고 데스크탑에서 셸 명령어 실행",
"tools.builtins.lobe-local-system.readme": "데스크톱에서 로컬 파일 시스템에 접근하세요. 파일 읽기, 쓰기, 검색 및 정리, 백그라운드 작업 지원 셸 명령 실행, 정규식으로 콘텐츠 검색이 가능합니다.",
"tools.builtins.lobe-local-system.title": "로컬 시스템",
+ "tools.builtins.lobe-message.description": "여러 메시징 플랫폼의 메시지를 통합 인터페이스로 보내고, 읽고, 편집하고, 관리합니다",
+ "tools.builtins.lobe-message.readme": "Discord, Telegram, Slack, Google Chat, IRC를 지원하는 크로스플랫폼 메시징 도구입니다. 메시지 작업, 반응, 고정, 스레드, 채널 관리 및 투표와 같은 플랫폼별 기능을 위한 통합 API를 제공합니다.",
+ "tools.builtins.lobe-message.title": "메시지",
"tools.builtins.lobe-notebook.description": "주제별 노트북에서 문서를 생성하고 관리",
"tools.builtins.lobe-notebook.readme": "대화 주제 내에서 지속적인 문서를 생성하고 관리하세요. 노트, 보고서, 기사, 마크다운 콘텐츠를 저장하고 세션 간에도 접근할 수 있습니다.",
"tools.builtins.lobe-notebook.title": "노트북",
+ "tools.builtins.lobe-page-agent.description": "XML 구조 문서의 노드를 생성, 읽기, 수정, 삭제합니다",
+ "tools.builtins.lobe-page-agent.readme": "정교한 노드 단위 제어로 구조화된 문서를 생성하고 편집합니다. Markdown에서 초기화하고, 대량 삽입/수정/삭제 작업을 수행하며, 문서 전체의 텍스트 찾기 및 바꾸기를 지원합니다.",
+ "tools.builtins.lobe-page-agent.title": "문서",
+ "tools.builtins.lobe-remote-device.description": "원격 데스크톱 기기 연결을 탐색하고 관리합니다",
+ "tools.builtins.lobe-remote-device.readme": "데스크톱 기기 연결을 관리합니다. 온라인 기기 목록을 확인하고, 원격 작업을 위해 기기를 활성화하며, 연결 상태를 조회합니다.",
+ "tools.builtins.lobe-remote-device.title": "원격 기기",
+ "tools.builtins.lobe-skill-store.description": "LobeHub 마켓플레이스에서 에이전트 스킬을 탐색하고 설치합니다. 확장 기능이 필요하거나 특정 스킬을 설치할 때 사용합니다.",
+ "tools.builtins.lobe-skill-store.title": "스킬 스토어",
+ "tools.builtins.lobe-skills.description": "재사용 가능한 스킬 패키지를 활성화하고 사용합니다",
+ "tools.builtins.lobe-skills.title": "스킬",
+ "tools.builtins.lobe-task.description": "의존성과 검토 설정이 포함된 작업을 생성, 목록 조회, 편집, 삭제합니다",
+ "tools.builtins.lobe-task.title": "작업 도구",
+ "tools.builtins.lobe-topic-reference.description": "참조된 주제 대화에서 컨텍스트를 가져옵니다",
+ "tools.builtins.lobe-topic-reference.title": "토픽 참조",
+ "tools.builtins.lobe-user-interaction.description": "UI 상호작용을 통해 사용자에게 질문하고 그 결과를 관찰합니다",
+ "tools.builtins.lobe-user-interaction.title": "사용자 상호작용",
"tools.builtins.lobe-user-memory.description": "사용자의 선호도, 활동 및 경험을 대화 전반에 걸쳐 기억",
"tools.builtins.lobe-user-memory.readme": "당신에 대한 개인화된 지식 베이스를 구축하세요. 선호도 기억, 활동 및 경험 추적, 신원 정보 저장, 향후 대화에서 관련 맥락을 기억할 수 있습니다.",
"tools.builtins.lobe-user-memory.title": "메모리",
+ "tools.builtins.lobe-web-browsing.description": "웹에서 최신 정보를 검색하고 웹페이지를 크롤링해 콘텐츠를 추출합니다. 다중 검색 엔진, 카테고리, 기간을 지원합니다.",
+ "tools.builtins.lobe-web-browsing.readme": "웹에서 최신 정보를 검색하고 웹페이지를 크롤링해 콘텐츠를 추출합니다. 다양한 검색 엔진, 카테고리, 시간 범위를 지원하여 폭넓은 리서치를 수행할 수 있습니다.",
+ "tools.builtins.lobe-web-browsing.title": "웹 브라우징",
+ "tools.builtins.lobe-web-onboarding.description": "제어된 에이전트 런타임으로 웹 온보딩 흐름을 진행합니다",
+ "tools.builtins.lobe-web-onboarding.title": "웹 온보딩",
+ "tools.builtins.lobehub.description": "CLI를 통해 LobeHub 플랫폼을 관리합니다 — 지식 베이스, 메모리, 에이전트, 파일, 검색, 생성 등.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "설치되지 않음",
+ "tools.builtins.task.description": "작업 관리 및 실행 — CLI로 작업을 생성, 추적, 검토, 완료합니다.",
+ "tools.builtins.task.title": "작업",
"tools.builtins.uninstall": "제거",
"tools.builtins.uninstallConfirm.desc": "{{name}}을(를) 제거하시겠습니까? 이 기능은 현재 에이전트에서 삭제됩니다.",
"tools.builtins.uninstallConfirm.title": "{{name}} 제거",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "{{name}} 연결을 해제하시겠습니까?",
"tools.lobehubSkill.disconnected": "연결 끊김",
"tools.lobehubSkill.error": "오류",
+ "tools.lobehubSkill.providers.github.description": "GitHub는 버전 관리와 협업을 위한 플랫폼으로, 개발자가 코드 저장소를 호스팅, 검토, 관리할 수 있게 합니다.",
+ "tools.lobehubSkill.providers.github.readme": "GitHub에 연결해 저장소 접근, 이슈 생성·관리, PR 검토, 코드 협업을 자연스러운 대화 형태로 수행할 수 있습니다.",
"tools.lobehubSkill.providers.linear.description": "Linear는 고성능 팀을 위해 설계된 현대적인 이슈 추적 및 프로젝트 관리 도구로, 더 나은 소프트웨어를 더 빠르게 개발할 수 있도록 지원합니다.",
"tools.lobehubSkill.providers.linear.readme": "Linear의 기능을 AI 어시스턴트에 통합하세요. 이슈 생성 및 업데이트, 스프린트 관리, 프로젝트 진행 상황 추적, 개발 워크플로우를 자연어 대화로 간소화할 수 있습니다.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar는 Microsoft Outlook에 통합된 일정 관리 도구로, 약속 생성, 회의 조직, 시간 및 이벤트 관리를 효과적으로 수행할 수 있습니다.",
"tools.lobehubSkill.providers.microsoft.readme": "Outlook 캘린더와 통합하여 이벤트를 확인, 생성, 관리하세요. 미팅 예약, 가용 시간 확인, 알림 설정, 자연어 명령을 통한 시간 조율이 가능합니다.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter)는 실시간 업데이트, 뉴스 공유, 게시물, 답글, 다이렉트 메시지를 통해 청중과 소통할 수 있는 소셜 미디어 플랫폼입니다.",
"tools.lobehubSkill.providers.twitter.readme": "X(트위터)와 연결하여 트윗을 게시하고, 타임라인을 관리하며, 팔로워와 소통하세요. 콘텐츠 생성, 게시 예약, 멘션 모니터링, 대화형 AI를 통한 소셜 미디어 운영이 가능합니다.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel은 프론트엔드 개발자를 위한 클라우드 플랫폼으로, 웹 애플리케이션을 손쉽게 배포할 수 있는 호스팅 및 서버리스 기능을 제공합니다.",
+ "tools.lobehubSkill.providers.vercel.readme": "Vercel에 연결해 배포를 관리하고 프로젝트 상태를 모니터링하며 인프라를 제어하세요. 앱 배포, 빌드 로그 확인, 환경 변수 관리, 확장 작업을 대화형 AI로 수행할 수 있습니다.",
"tools.notInstalled": "설치되지 않음",
"tools.notInstalledWarning": "현재 기능이 설치되지 않아 도우미 사용에 영향을 줄 수 있습니다",
"tools.plugins.enabled": "활성화됨 {{num}}",
diff --git a/locales/ko-KR/subscription.json b/locales/ko-KR/subscription.json
index 3f62c74e56..6f7e1c20f7 100644
--- a/locales/ko-KR/subscription.json
+++ b/locales/ko-KR/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "업그레이드하여",
"credits.topUp.upgradeSuffix": "${{savings}} 절약하기",
"credits.topUp.validityInfo": "{{months}}개월 유효",
+ "crossPlatform.desc": "이 구독은 모바일 앱을 통해 구매되었으며 여기에서 수정할 수 없습니다. 모바일 기기에서 구독을 관리해 주세요.",
+ "crossPlatform.manageOnMobile": "모바일 기기에서 관리",
+ "crossPlatform.title": "크로스 플랫폼 구독",
"currentPlan.cancelAlert": "{{canceledAt}} 이후 구독이 취소됩니다. 그 전까지는 \"구독 관리\"에서 복원할 수 있습니다",
"currentPlan.downgradeAlert": "{{downgradedAt}} 이후 {{plan}}으로 다운그레이드됩니다.",
"currentPlan.management": "구독 관리",
diff --git a/locales/ko-KR/video.json b/locales/ko-KR/video.json
index f3a5fc1081..7eacebfe36 100644
--- a/locales/ko-KR/video.json
+++ b/locales/ko-KR/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "시작 프레임",
"config.prompt.placeholder": "생성하고 싶은 비디오를 설명하세요",
"config.prompt.placeholderWithRef": "생성하고자 하는 이미지의 장면을 설명하세요",
+ "config.promptExtend.label": "프롬프트 확장",
"config.referenceImage.label": "참조 이미지",
"config.resolution.label": "해상도",
"config.seed.label": "시드",
"config.seed.random": "무작위",
"config.size.label": "크기",
+ "config.watermark.label": "워터마크",
+ "config.webSearch.label": "웹 검색",
"generation.actions.copyError": "오류 메시지 복사",
"generation.actions.errorCopied": "오류 메시지가 클립보드에 복사되었습니다",
"generation.actions.errorCopyFailed": "오류 메시지 복사에 실패했습니다",
diff --git a/locales/nl-NL/agent.json b/locales/nl-NL/agent.json
index abeac5cb99..860651ff4f 100644
--- a/locales/nl-NL/agent.json
+++ b/locales/nl-NL/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot succesvol verbonden",
"channel.connecting": "Verbinden...",
"channel.connectionConfig": "Verbindingsconfiguratie",
+ "channel.connectionMode": "Verbindingsmodus",
+ "channel.connectionModeHint": "WebSocket wordt aanbevolen voor nieuwe bots. Gebruik Webhook als je bot al een callback-URL heeft ingesteld op het QQ Open Platform.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Gekopieerd naar klembord",
"channel.copy": "Kopiëren",
"channel.credentials": "Inloggegevens",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Kopieer deze URL en plak deze in het {{fieldName}}-veld in de {{name}} Developer Portal.",
"channel.exportConfig": "Configuratie Exporteren",
"channel.feishu.description": "Verbind deze assistent met Feishu voor privé- en groepschats.",
+ "channel.feishu.webhookMigrationDesc": "De WebSocket-modus biedt realtime aflevering van events zonder dat een openbare callback-URL nodig is. Om te migreren, schakel je in Geavanceerde instellingen de Verbindingsmodus over naar WebSocket. Er is geen extra configuratie nodig op het Feishu/Lark Open Platform.",
+ "channel.feishu.webhookMigrationTitle": "Overweeg om over te stappen op de WebSocket-modus",
"channel.historyLimit": "Limiet voor berichtgeschiedenis",
"channel.historyLimitHint": "Standaard aantal berichten om op te halen bij het lezen van kanaalgeschiedenis",
"channel.importConfig": "Configuratie Importeren",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Vereist voor interactieverificatie",
"channel.qq.appIdHint": "Uw QQ Bot App ID van het QQ Open Platform",
"channel.qq.description": "Verbind deze assistent met QQ voor groepschats en directe berichten.",
+ "channel.qq.webhookMigrationDesc": "De WebSocket-modus biedt realtime aflevering van events en automatische herverbinding, zonder dat een callback-URL nodig is. Om te migreren, maak je een nieuwe bot aan op het QQ Open Platform zonder een callback-URL te configureren en schakel je vervolgens in Geavanceerde instellingen de Verbindingsmodus over naar WebSocket.",
+ "channel.qq.webhookMigrationTitle": "Overweeg om over te stappen op de WebSocket-modus",
"channel.removeChannel": "Kanaal verwijderen",
"channel.removeFailed": "Verwijderen van kanaal mislukt",
"channel.removed": "Kanaal verwijderd",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Signing Secret",
"channel.signingSecretHint": "Gebruikt om webhookverzoeken te verifiëren.",
"channel.slack.appIdHint": "Uw Slack App ID van het Slack API-dashboard (begint met A).",
+ "channel.slack.appToken": "App-niveautoken",
+ "channel.slack.appTokenHint": "Vereist voor Socket Mode (WebSocket). Genereer een app-niveautoken (xapp-...) onder Basisinformatie in de Slack-app-instellingen.",
"channel.slack.description": "Verbind deze assistent met Slack voor kanaalgesprekken en directe berichten.",
+ "channel.slack.webhookMigrationDesc": "Socket Mode biedt realtime aflevering van events via WebSocket zonder dat je een openbare HTTP-endpoint hoeft bloot te stellen. Om te migreren, schakel je Socket Mode in binnen de Slack-app-instellingen, genereer je een app-niveautoken en schakel je vervolgens in Geavanceerde instellingen de Verbindingsmodus over naar WebSocket.",
+ "channel.slack.webhookMigrationTitle": "Overweeg om over te stappen op Socket Mode (WebSocket)",
"channel.telegram.description": "Verbind deze assistent met Telegram voor privé- en groepschats.",
"channel.testConnection": "Verbinding testen",
"channel.testFailed": "Verbindingstest mislukt",
diff --git a/locales/nl-NL/chat.json b/locales/nl-NL/chat.json
index 0142c66eb0..4643487cae 100644
--- a/locales/nl-NL/chat.json
+++ b/locales/nl-NL/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Groep succesvol verwijderd",
"confirmRemoveSessionItemAlert": "Je staat op het punt deze agent te verwijderen. Na verwijdering kan deze niet worden hersteld. Bevestig je actie.",
"confirmRemoveSessionSuccess": "Agent succesvol verwijderd",
+ "createModal.createBlank": "Blanco maken",
+ "createModal.groupPlaceholder": "Beschrijf wat deze groep moet doen...",
+ "createModal.groupTitle": "Wat moet je groep doen?",
+ "createModal.placeholder": "Beschrijf wat je agent moet doen...",
+ "createModal.title": "Wat moet je agent doen?",
"defaultAgent": "Standaard Agent",
"defaultGroupChat": "Groep",
"defaultList": "Standaardlijst",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Context te lang, geschiedenis wordt samengevat...",
"operation.execAgentRuntime": "Reactie voorbereiden",
"operation.execClientTask": "Taak wordt uitgevoerd",
+ "operation.execServerAgentRuntime": "Bezig… Je kunt van taak wisselen of de pagina sluiten — de taak gaat gewoon door.",
"operation.sendMessage": "Bericht verzenden",
"owner": "Groepseigenaar",
"pageCopilot.title": "Pagina-agent",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Details ophalen...",
"task.status.initializing": "Taak initialiseren...",
"task.subtask": "Subtaak",
+ "task.title": "Taken",
"thread.divider": "Subonderwerp",
"thread.threadMessageCount": "{{messageCount}} berichten",
"thread.title": "Subonderwerp",
@@ -429,9 +436,11 @@
"toolAuth.title": "Autoriseer Skills voor deze agent",
"topic.checkOpenNewTopic": "Nieuw onderwerp starten?",
"topic.checkSaveCurrentMessages": "Wil je het huidige gesprek opslaan als onderwerp?",
+ "topic.defaultTitle": "Naamloos onderwerp",
"topic.openNewTopic": "Nieuw onderwerp openen",
"topic.recent": "Recente onderwerpen",
"topic.saveCurrentMessages": "Huidige sessie opslaan als onderwerp",
+ "topic.viewAll": "Alle onderwerpen bekijken",
"translate.action": "Vertalen",
"translate.clear": "Vertaling wissen",
"tts.action": "Tekst-naar-spraak",
diff --git a/locales/nl-NL/common.json b/locales/nl-NL/common.json
index 3a16023188..a99781b824 100644
--- a/locales/nl-NL/common.json
+++ b/locales/nl-NL/common.json
@@ -343,10 +343,19 @@
"mail.support": "E-mailondersteuning",
"more": "Meer",
"navPanel.agent": "Agent",
+ "navPanel.customizeSidebar": "Zijbalk aanpassen",
"navPanel.displayItems": "Weergegeven items",
+ "navPanel.hidden": "Verborgen",
+ "navPanel.hideSection": "Sectie verbergen",
"navPanel.library": "Bibliotheek",
+ "navPanel.moveDown": "Omlaag verplaatsen",
+ "navPanel.moveUp": "Omhoog verplaatsen",
+ "navPanel.pinned": "Vastgemaakt",
"navPanel.searchAgent": "Zoek agent...",
+ "navPanel.searchRecent": "Recente items zoeken...",
"navPanel.searchResultEmpty": "Geen zoekresultaten gevonden",
+ "navPanel.show": "Weergeven",
+ "navPanel.visible": "Zichtbaar",
"new": "Nieuw",
"noContent": "Geen inhoud",
"oauth": "SSO-login",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Steun ons",
"productHunt.description": "Steun ons op Product Hunt. Jouw steun betekent veel voor ons!",
"productHunt.title": "We staan op Product Hunt!",
+ "promptTransform.action": "Idee verfijnen",
+ "promptTransform.actions.rewrite": "Details uitbreiden",
+ "promptTransform.actions.translate": "Vertalen",
+ "promptTransform.status.rewrite": "Details worden uitgebreid...",
+ "promptTransform.status.translate": "Bezig met vertalen...",
+ "recents": "Recent",
"regenerate": "Opnieuw genereren",
"releaseNotes": "Versiedetails",
"rename": "Hernoemen",
@@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Community",
+ "tab.create": "Maken",
"tab.discover": "Ontdekken",
"tab.eval": "Evaluatie Lab",
"tab.files": "Bestanden",
diff --git a/locales/nl-NL/image.json b/locales/nl-NL/image.json
index 8985018416..51796a5bca 100644
--- a/locales/nl-NL/image.json
+++ b/locales/nl-NL/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Model",
"config.prompt.placeholder": "Beschrijf wat je wilt genereren",
"config.prompt.placeholderWithRef": "Beschrijf hoe u de afbeelding wilt aanpassen",
+ "config.promptExtend.label": "Prompt uitbreiden",
"config.quality.label": "Beeldkwaliteit",
"config.quality.options.hd": "Hoge definitie",
"config.quality.options.standard": "Standaard",
@@ -24,6 +25,8 @@
"config.size.label": "Formaat",
"config.steps.label": "Stappen",
"config.title": "Configuratie",
+ "config.watermark.label": "Watermerk",
+ "config.webSearch.label": "Webzoekopdracht",
"config.width.label": "Breedte",
"generation.actions.applySeed": "Seed toepassen",
"generation.actions.copyError": "Foutmelding kopiëren",
diff --git a/locales/nl-NL/labs.json b/locales/nl-NL/labs.json
index b6c581094b..7053a86035 100644
--- a/locales/nl-NL/labs.json
+++ b/locales/nl-NL/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Groepeer berichten van de agent en de resultaten van hun tool-aanroepen samen voor weergave",
"features.assistantMessageGroup.title": "Agentberichtengroepering",
+ "features.gatewayMode.desc": "Voer agenttaken op de server uit via de Gateway‑WebSocket in plaats van ze lokaal uit te voeren. Zorgt voor snellere uitvoering en vermindert het gebruik van clientbronnen.",
+ "features.gatewayMode.title": "Server-side uitvoering van agenten (Gateway)",
"features.groupChat.desc": "Schakel coördinatie van groepschats met meerdere agenten in.",
"features.groupChat.title": "Groepschat (Meerdere Agenten)",
"features.inputMarkdown.desc": "Toon Markdown in het invoerveld in realtime (vette tekst, codeblokken, tabellen, enz.).",
diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json
index 254daf6ca5..0ce0814513 100644
--- a/locales/nl-NL/models.json
+++ b/locales/nl-NL/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Een topmodel in China dat toonaangevende buitenlandse modellen overtreft op Chinese taken zoals kennis, lange teksten en creatieve generatie. Beschikt ook over toonaangevende multimodale capaciteiten met sterke resultaten op gezaghebbende benchmarks.",
"Baichuan4.description": "Topprestaties op nationaal niveau, overtreft toonaangevende buitenlandse modellen op Chinese taken zoals encyclopedische kennis, lange teksten en creatieve generatie. Biedt ook toonaangevende multimodale capaciteiten en sterke benchmarkresultaten.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS is een familie van open-source LLM’s van ByteDance Seed, ontworpen voor sterke prestaties op lange contexten, redeneren, agenttaken en algemene vaardigheden. Seed-OSS-36B-Instruct is een 36B instructiegericht model met native ultralange contextverwerking voor grote documenten of codebases. Geoptimaliseerd voor redeneren, codegeneratie en agenttaken (toolgebruik), met behoud van sterke algemene capaciteiten. Een belangrijk kenmerk is het \"Thinking Budget\", waarmee flexibele redeneerlengte mogelijk is voor hogere efficiëntie.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR is een vision-language model van DeepSeek AI, gericht op OCR en \"contextuele optische compressie\". Het verkent het comprimeren van context uit afbeeldingen, verwerkt documenten efficiënt en zet ze om in gestructureerde tekst (bijv. Markdown). Het herkent tekst in afbeeldingen zeer nauwkeurig en is geschikt voor documentdigitalisering, tekstextractie en gestructureerde verwerking.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, het grotere en slimmere model in de DeepSeek-reeks, is gedistilleerd in de Llama 70B-architectuur. Benchmarks en menselijke evaluaties tonen aan dat het slimmer is dan de basisversie van Llama 70B, vooral op wiskunde- en feitennauwkeurigheidstaken.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Een DeepSeek-R1 gedistilleerd model gebaseerd op Qwen2.5-Math-1.5B. Reinforcement learning en cold-start data optimaliseren het redeneervermogen en zetten nieuwe multitask-benchmarks voor open modellen.",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill modellen zijn fijngestemd op basis van open-source modellen met behulp van voorbeelddata gegenereerd door DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Aanbieder: sophnet. DeepSeek V3 Fast is de high-TPS-versie van DeepSeek V3 0324, full-precision (niet-gekwantiseerd) met sterkere code- en wiskundeprestaties en snellere reacties.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast is de snelle high-TPS-variant van DeepSeek V3.1. Hybride denkmodus: via chattemplates ondersteunt één model zowel denken als niet-denken. Slimmer toolgebruik: post-training verbetert prestaties op tool- en agenttaken.",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 denkmodus: een nieuw hybride redeneermodel met denk- en niet-denkmodi, efficiënter dan DeepSeek-R1-0528. Post-training optimalisaties verbeteren het gebruik van agenttools en prestaties op agenttaken aanzienlijk.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 introduceert een sparse-attentionmechanisme om de trainings- en inferentie-efficiëntie bij het verwerken van lange teksten te verbeteren, en is bovendien lager geprijsd dan deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model ontwikkeld door DeepSeek. Het overtreft andere open modellen zoals Qwen2.5-72B en Llama-3.1-405B op veel benchmarks en is concurrerend met toonaangevende gesloten modellen zoals GPT-4o en Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite biedt ultrasnelle reacties en betere waarde, met flexibele opties voor verschillende scenario’s. Ondersteunt 128K context voor inferentie en fine-tuning.",
"Doubao-lite-32k.description": "Doubao-lite biedt ultrasnelle reacties en betere waarde, met flexibele opties voor verschillende scenario’s. Ondersteunt 32K context voor inferentie en fine-tuning.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Hoogpresterend model voor redeneren, coderen en agent-taken.",
"GLM-4.6.description": "GLM-4.6: Model van de vorige generatie.",
"GLM-4.7.description": "GLM-4.7 is Zhipu's nieuwste vlaggenschipmodel, verbeterd voor Agentic Coding-scenario's met verbeterde codeermogelijkheden, langetermijn taakplanning en samenwerking met tools.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Geoptimaliseerde versie van GLM-5 met snellere inferentie voor codeertaken.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo is een basismodel dat grondig is geoptimaliseerd voor agent-achtige scenario’s. Het is specifiek afgestemd op de kernvereisten van agenttaken vanaf de trainingsfase, met verbeterde capaciteiten zoals toolaanroep, het opvolgen van commando’s en het uitvoeren van langlopende taakreeksen. Ideaal voor het bouwen van hoogwaardige agent-assistenten.",
"GLM-5.1.description": "GLM-5.1 is Zhipu's nieuwste vlaggenschipmodel, een verbeterde iteratie van GLM-5 met verbeterde agentische engineeringcapaciteiten voor complexe systeemengineering en langetermijntaken.",
- "GLM-5.description": "GLM-5 is Zhipu's volgende generatie vlaggenschip funderingsmodel, speciaal ontworpen voor Agentic Engineering. Het biedt betrouwbare productiviteit in complexe systeemengineering en langetermijn agent-taken. In codering en agent-mogelijkheden bereikt GLM-5 state-of-the-art prestaties onder open-source modellen.",
+ "GLM-5.description": "GLM-5 is Zhipu’s next-generation vlaggenschipmodel, speciaal ontwikkeld voor Agentic Engineering. Het levert betrouwbare productiviteit in complexe systeemengineering en langdurige agent-taken. Op het gebied van coderen en agentcapaciteiten behaalt GLM-5 state-of-the-art prestaties onder open-sourcemodellen. In realistische programmeerscenario’s benadert de gebruikerservaring die van Claude Opus 4.5. Het blinkt uit in complexe systeemengineering en langdurige agenttaken, en is daarmee een ideaal basismodel voor veelzijdige agent-assistenten.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) is een innovatief model voor diverse domeinen en complexe taken.",
"HY-Image-V3.0.description": "Krachtige mogelijkheden voor originele beeldfuncties en detailbehoud, die rijkere visuele textuur leveren en visuals van hoge nauwkeurigheid, goed gecomponeerd en productiekwaliteit produceren.",
"HelloMeme.description": "HelloMeme is een AI-tool die memes, GIF’s of korte video’s genereert op basis van de beelden of bewegingen die je aanlevert. Er zijn geen teken- of programmeervaardigheden nodig—alleen een referentiebeeld—om leuke, aantrekkelijke en stijlvaste content te maken.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter is een tuning-vrij gepersonaliseerd karaktergeneratiemodel, uitgebracht door Tencent AI in 2025, gericht op getrouwe en consistente karaktergeneratie over verschillende scenario’s. Het kan een karakter modelleren op basis van één referentiebeeld en flexibel overdragen naar verschillende stijlen, acties en achtergronden.",
"InternVL2-8B.description": "InternVL2-8B is een krachtig vision-language model dat multimodale beeld-tekstverwerking ondersteunt, beeldinhoud nauwkeurig herkent en relevante beschrijvingen of antwoorden genereert.",
"InternVL2.5-26B.description": "InternVL2.5-26B is een krachtig vision-language model dat multimodale beeld-tekstverwerking ondersteunt, beeldinhoud nauwkeurig herkent en relevante beschrijvingen of antwoorden genereert.",
+ "KAT-Coder-Air-V1.description": "Een lichtgewicht versie binnen de KAT-Coder-serie. Speciaal ontworpen voor Agentic Coding en dekt programmeertaken en -scenario’s volledig. Door grootschalige agent-gebaseerde reinforcement learning ontstaan intelligente gedragspatronen en presteert het model aanzienlijk beter dan vergelijkbare modellen op het gebied van coderen.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B is de experimentele RL-innovatieversie binnen de KAT-Coder-serie, met een indrukwekkende score van 74,6% op de SWE-Bench verified benchmark — een nieuw record voor open-sourcemodellen. Het richt zich op Agentic Coding en ondersteunt momenteel uitsluitend het SWE-Agent-raamwerk, maar kan ook voor eenvoudige gesprekken worden gebruikt.",
+ "KAT-Coder-Pro-V1.description": "Ontworpen voor Agentic Coding, met volledige dekking van programmeertaken en -scenario’s. Door grootschalige reinforcement learning komen intelligente gedragspatronen tot stand, waardoor het model aanzienlijk beter presteert dan vergelijkbare modellen in codeergemak en -kwaliteit.",
+ "KAT-Coder-Pro-V2.description": "Het nieuwste high-performancemodel van het Kuaishou Kwaipilot-team, ontworpen voor complexe bedrijfsprojecten en SaaS-integratie. Het blinkt uit in coderingsgerelateerde scenario’s, is compatibel met uiteenlopende agentframeworks (Claude Code, OpenCode, KiloCode), ondersteunt OpenClaw native en is specifiek geoptimaliseerd voor front-end vormgeving en esthetiek.",
+ "Kimi-K2.5.description": "Kimi K2.5 is het krachtigste Kimi-model, met open-source SOTA-prestaties in agenttaken, coderen en visuele interpretatie. Het ondersteunt multimodale input en zowel denk- als niet-denkmodi.",
"Kolors.description": "Kolors is een tekst-naar-beeldmodel ontwikkeld door het Kuaishou Kolors-team. Het is getraind met miljarden parameters en blinkt uit in visuele kwaliteit, Chinees semantisch begrip en tekstrendering.",
"Kwai-Kolors/Kolors.description": "Kolors is een grootschalig latent-diffusie tekst-naar-beeldmodel van het Kuaishou Kolors-team. Getraind op miljarden tekst-beeldparen, blinkt het uit in visuele kwaliteit, complexe semantische nauwkeurigheid en Chinees/Engels tekstrendering, met sterk Chinees inhoudsbegrip en -generatie.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) is een open-source 32B-model voor software engineering-taken. Het behaalt een oplossingspercentage van 62,4% op SWE-Bench Verified en staat op de 5e plaats onder open modellen. Het is geoptimaliseerd via mid-training, SFT en RL voor codeaanvulling, bugfixing en codereview.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Geavanceerd klein taalmodel met sterk taalbegrip, uitstekende redeneercapaciteiten en tekstgeneratie.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 is het meest geavanceerde meertalige open-source Llama-model, met prestaties vergelijkbaar met 405B tegen zeer lage kosten. Het is gebaseerd op een Transformer-architectuur en verbeterd met SFT en RLHF voor bruikbaarheid en veiligheid. De instructie-afgestemde versie is geoptimaliseerd voor meertalige chat en verslaat veel open en gesloten chatmodellen op industriële benchmarks. Kennisgrens: dec 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is een groot MoE-model met efficiënte expertactivatie voor sterke redeneercapaciteiten.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro is speciaal ontwikkeld voor intensieve agent-workflows in realistische scenario’s. Het beschikt over meer dan 1 biljoen totale parameters (42B geactiveerde parameters), gebruikt een innovatieve hybride attention-architectuur en ondersteunt een ultralange contextlengte tot 1 miljoen tokens. Gebouwd op een krachtig basismodel, schalen we de rekenkracht voortdurend op voor een bredere reeks agentscenario’s, waardoor de handelingsruimte van intelligentie wordt uitgebreid en sterke generalisatie wordt bereikt — van coderen tot uitvoering van real-world taken (\"claw\").",
"MiniMax-Hailuo-02.description": "Het volgende generatie videogenereermodel, MiniMax Hailuo 02, is officieel uitgebracht en ondersteunt 1080P resolutie en 10 seconden video generatie.",
"MiniMax-Hailuo-2.3-Fast.description": "Gloednieuw videogenereermodel met uitgebreide verbeteringen in lichaamsbeweging, fysieke realisme en instructienaleving.",
"MiniMax-Hailuo-2.3.description": "Gloednieuw videogenereermodel met uitgebreide verbeteringen in lichaamsbeweging, fysieke realisme en instructienaleving.",
"MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
"MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
- "MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeermogelijkheden met snellere en efficiëntere inferentie.",
"MiniMax-M2.1-highspeed.description": "Krachtige meertalige programmeermogelijkheden, een volledig verbeterde programmeerervaring. Sneller en efficiënter.",
"MiniMax-M2.1.description": "MiniMax-M2.1 is het vlaggenschip open-source grote model van MiniMax, gericht op het oplossen van complexe, realistische taken. De kernkwaliteiten zijn meertalige programmeermogelijkheden en het vermogen om complexe taken als een Agent op te lossen.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Zelfde prestaties als M2.5 met snellere inferentie.",
"MiniMax-M2.5.description": "MiniMax-M2.5 is een vlaggenschip open-source groot model van MiniMax, gericht op het oplossen van complexe real-world taken. De kernsterktes zijn meertalige programmeermogelijkheden en de capaciteit om complexe taken als een Agent op te lossen.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Zelfde prestaties als M2.7 met aanzienlijk snellere inferentie.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Begin van de reis naar recursieve zelfverbetering, top engineeringcapaciteiten in de echte wereld.",
+ "MiniMax-M2.7.description": "Het eerste zelf-evoluerende model met topprestaties in coderen en agentgedrag (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Model van de vorige generatie.",
"MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is een open-gewichten grootschalig hybride-aandacht redeneermodel met 456 miljard totale parameters en ~45,9 miljard actieve per token. Het ondersteunt van nature 1 miljoen context en gebruikt Flash Attention om FLOPs met 75% te verminderen bij 100K-token generatie versus DeepSeek R1. Met een MoE-architectuur plus CISPO en hybride-aandacht RL-training bereikt het toonaangevende prestaties op lang-input redeneren en echte software engineering taken.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste Kimi K2. Het is een topklasse MoE-model met 1 biljoen totale en 32 miljard actieve parameters. Belangrijke kenmerken zijn sterkere agentgerichte programmeerintelligentie met aanzienlijke verbeteringen op benchmarks en echte agenttaken, plus verbeterde esthetiek en bruikbaarheid van frontend-code.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is de Turbo-variant geoptimaliseerd voor redeneersnelheid en verwerkingscapaciteit, terwijl het de meerstapsredenering en gereedschapsgebruik van K2 Thinking behoudt. Het is een MoE-model met ongeveer 1 biljoen totale parameters, native 256K context en stabiele grootschalige tool-aanroepen voor productieomgevingen met strengere eisen aan latentie en gelijktijdigheid.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 is een open-source native multimodaal agentmodel, gebaseerd op Kimi-K2-Base, getraind op ongeveer 1,5 biljoen gecombineerde visuele en tekstuele tokens. Het model gebruikt een MoE-architectuur met 1T totale parameters en 32B actieve parameters, ondersteunt een contextvenster van 256K en integreert naadloos visuele en taalbegripmogelijkheden.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 is een next-generation vlaggenschipmodel voor agent engineering, met een Mixture of Experts (MoE)-architectuur van 754B parameters. Het verbetert programmeercapaciteiten aanzienlijk, behaalt toonaangevende resultaten op SWE-Bench Pro en presteert veel beter dan zijn voorganger op benchmarks zoals NL2Repo en Terminal-Bench 2.0. Ontworpen voor langdurige agenttaken, verwerkt het model vage vragen met beter beoordelingsvermogen, splitst complexe taken op, voert experimenten uit, analyseert resultaten en optimaliseert continu via honderden iteraties en duizenden toolaanroepen.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 is Zhipu's nieuwe generatie vlaggenschipmodel met 355 miljard totale parameters en 32 miljard actieve parameters, volledig geüpgraded in algemene dialoog, redeneren en agent-mogelijkheden. GLM-4.7 verbetert Interleaved Thinking en introduceert Preserved Thinking en Turn-level Thinking.",
"Pro/zai-org/glm-5.description": "GLM-5 is het volgende-generatie grote taalmodel van Zhipu, gericht op complexe systeemengineering en langdurige Agent-taken. De modelparameters zijn uitgebreid tot 744 miljard (40 miljard actief) en integreren DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ is een experimenteel onderzoeksmodel gericht op het verbeteren van redenering.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 is geoptimaliseerd voor geavanceerde redenatie en instructieopvolging, en gebruikt MoE om redenatie op schaal efficiënt te houden.",
"Qwen3-235B.description": "Qwen3-235B-A22B is een MoE-model dat een hybride redeneermodus introduceert, waarmee gebruikers naadloos kunnen schakelen tussen denken en niet-denken. Het ondersteunt begrip en redenatie in 119 talen en dialecten en beschikt over sterke toolgebruikmogelijkheden. Het concurreert met toonaangevende modellen zoals DeepSeek R1, OpenAI o1, o3-mini, Grok 3 en Google Gemini 2.5 Pro op benchmarks voor algemene vaardigheden, code en wiskunde, meertalige capaciteiten en kennisredenering.",
"Qwen3-32B.description": "Qwen3-32B is een dense model dat een hybride redeneermodus introduceert, waarmee gebruikers kunnen schakelen tussen denken en niet-denken. Dankzij architectuurverbeteringen, meer data en betere training presteert het op hetzelfde niveau als Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus ondersteunt tekst-, afbeelding- en video-invoer. De prestaties op puur tekstuele taken zijn vergelijkbaar met Qwen3 Max, maar met betere prestaties en lagere kosten. De multimodale mogelijkheden zijn aanzienlijk verbeterd ten opzichte van de Qwen3 VL-serie.",
"S2V-01.description": "Het fundamentele referentie-naar-video model van de 01-serie.",
"SenseChat-128K.description": "Basis V4 met 128K context, sterk in het begrijpen en genereren van lange teksten.",
"SenseChat-32K.description": "Basis V4 met 32K context, flexibel inzetbaar voor diverse scenario’s.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en meest intelligente Haiku-model van Anthropic, met bliksemsnelle snelheid en uitgebreide denkcapaciteiten.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s snelste en slimste Haiku-model, met bliksemsnelle reacties en verbeterd redeneervermogen.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 is Anthropic's snelste en slimste Haiku-model, met bliksemsnelle snelheid en uitgebreide redeneervermogen.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
- "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s nieuwste en meest capabele model voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s krachtigste model voor complexe taken, met uitstekende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
- "claude-opus-4-6.description": "Claude Opus 4.6 is het meest intelligente model van Anthropic voor het bouwen van agents en codering.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic’s meest intelligente model voor het bouwen van agents en coderen.",
"claude-opus-4.5.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat eersteklas intelligentie combineert met schaalbare prestaties voor complexe, hoogwaardige redeneertaken.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 is Anthropic's meest intelligente model voor het bouwen van agents en coderen.",
"claude-opus-4.6.description": "Claude Opus 4.6 is Anthropic's meest intelligente model voor het bouwen van agents en coderen.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het meest intelligente model van Anthropic, met bijna onmiddellijke reacties of uitgebreide stapsgewijze denkprocessen met fijnmazige controle voor API-gebruikers.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 biedt de beste combinatie van snelheid en intelligentie van Anthropic.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel onmiddellijke antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar denkproces.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s meest intelligente model tot nu toe.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 biedt de beste balans tussen snelheid en intelligentie.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 is Anthropic's beste combinatie van snelheid en intelligentie.",
"claude-sonnet-4.description": "Claude Sonnet 4 kan bijna onmiddellijke reacties of uitgebreide stapsgewijze redenaties produceren die gebruikers kunnen volgen. API-gebruikers kunnen nauwkeurig bepalen hoe lang het model nadenkt.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is een next-gen redeneermodel met sterkere complexe redeneer- en keten-van-denken-capaciteiten.",
- "deepseek-chat.description": "DeepSeek V3.2 balanceert redenering en outputlengte voor dagelijkse QA- en agenttaken. Publieke benchmarks bereiken GPT-5-niveaus, en het is de eerste die denken integreert in het gebruik van tools, wat leidt tot open-source agent evaluaties.",
+ "deepseek-chat.description": "Een nieuw open-sourcemodel dat algemene en coderingsmogelijkheden combineert. Het behoudt zowel de algemene dialoogvaardigheden van het chatmodel als de sterke codeerprestaties van het codermodel, met betere voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en instructieopvolging.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een diepgaand redeneermodel dat een keten van gedachten genereert voordat outputs worden gegeven voor hogere nauwkeurigheid, met topresultaten in competities en redenering vergelijkbaar met Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "DeepSeek V3.2 denkmodus genereert een chain-of-thought vóór het uiteindelijke antwoord om de nauwkeurigheid te verbeteren.",
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
"ernie-x1.1.description": "ERNIE X1.1 is een preview van een denkmodel voor evaluatie en testen.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, gebouwd door het ByteDance Seed-team, ondersteunt multi-image bewerking en compositie. Kenmerken zijn verbeterde onderwerpconsistentie, nauwkeurige instructienaleving, ruimtelijk logisch begrip, esthetische expressie, posterlay-out en logodesign met hoogprecisie tekst-beeld rendering.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, gebouwd door ByteDance Seed, ondersteunt tekst- en beeldinvoer voor zeer controleerbare, hoogwaardige beeldgeneratie vanuit prompts.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een afbeeldingsgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinput ondersteunt en hoogwaardige, goed stuurbare beeldgeneratie levert. Het kan afbeeldingen genereren op basis van tekstprompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
- "fal-ai/qwen-image-edit.description": "Een professioneel beeldbewerkingsmodel van het Qwen-team, dat semantische en uiterlijkbewerkingen ondersteunt, nauwkeurige Chinese/Engelse tekstbewerking, stijltransfer, rotatie en meer.",
- "fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met sterke Chinese tekstweergave en diverse visuele stijlen.",
+ "fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team dat semantische en visuele bewerkingen ondersteunt, Chinese en Engelse tekst nauwkeurig kan bewerken en hoogwaardige bewerkingen zoals stijltransfer en objectrotatie mogelijk maakt.",
+ "fal-ai/qwen-image.description": "Een krachtig afbeeldingsgeneratiemodel van het Qwen-team, met indrukwekkende weergave van Chinese tekst en een breed scala aan visuele stijlen.",
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 1–4 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
- "flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
+ "flux-dev.description": "Open-source R&D-beeldgeneratiemodel, efficiënt geoptimaliseerd voor niet-commercieel innovatief onderzoek.",
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
"flux-kontext-pro.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
- "flux-merged.description": "FLUX.1 [samengevoegd] combineert de diepgaande functies verkend in \"DEV\" met de hoge snelheid voordelen van \"Schnell\", waardoor prestatiegrenzen worden uitgebreid en toepassingen worden verbreed.",
"flux-pro-1.1-ultra.description": "Ultra-hoge resolutie beeldgeneratie met 4MP output, levert scherpe beelden in 10 seconden.",
"flux-pro-1.1.description": "Geüpgraded professioneel afbeeldingsgeneratiemodel met uitstekende beeldkwaliteit en nauwkeurige promptnauwkeurigheid.",
"flux-pro.description": "Topklasse commercieel afbeeldingsgeneratiemodel met ongeëvenaarde beeldkwaliteit en diverse outputmogelijkheden.",
- "flux-schnell.description": "FLUX.1 [schnell] is het meest geavanceerde open-source few-step model, dat vergelijkbare concurrenten en zelfs sterke niet-gedistilleerde modellen zoals Midjourney v6.0 en DALL-E 3 (HD) overtreft. Het is fijn afgestemd om de diversiteit van de pretraining te behouden, wat de visuele kwaliteit, instructieopvolging, formaatvariatie, lettertypeverwerking en outputdiversiteit aanzienlijk verbetert.",
"flux.1-schnell.description": "FLUX.1-schnell is een hoogwaardig afbeeldingsgeneratiemodel voor snelle output in meerdere stijlen.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) biedt stabiele, aanpasbare prestaties voor complexe taken.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) biedt sterke multimodale ondersteuning voor complexe taken.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is het slimste model dat is gebouwd voor snelheid, met geavanceerde intelligentie en uitstekende zoekverankering.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google dat ook multimodale dialogen ondersteunt.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale chat.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s afbeeldingsgeneratiemodel en ondersteunt ook multimodale chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is het snelste native beeldgeneratiemodel van Google met denksupport, conversatiebeeldgeneratie en bewerking.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash-snelheid en ondersteunt multimodale chat.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google’s snelste native afbeeldingsgeneratiemodel met denkondersteuning, conversatiegestuurde beeldgeneratie en bewerking.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview is het meest kostenefficiënte multimodale model van Google, geoptimaliseerd voor grootschalige agenttaken, vertaling en gegevensverwerking.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbetert Gemini 3 Pro met verbeterde redeneercapaciteiten en voegt ondersteuning toe voor een gemiddeld denkniveau.",
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
@@ -806,7 +812,6 @@
"jamba-large.description": "Ons krachtigste en meest geavanceerde model, ontworpen voor complexe zakelijke taken met uitstekende prestaties.",
"jamba-mini.description": "Het meest efficiënte model in zijn klasse, met een optimale balans tussen snelheid en kwaliteit en een kleinere omvang.",
"jina-deepsearch-v1.description": "DeepSearch combineert webzoekopdrachten, lezen en redeneren voor diepgaand onderzoek. Zie het als een agent die jouw onderzoekstaak uitvoert, brede zoekopdrachten doet in meerdere iteraties en pas daarna een antwoord formuleert. Het proces omvat voortdurend onderzoek, redenering en probleemoplossing vanuit meerdere invalshoeken, fundamenteel anders dan standaard LLM’s die antwoorden geven op basis van voorgetrainde data of traditionele RAG-systemen die vertrouwen op eenmalige oppervlakkige zoekopdrachten.",
- "k2p5.description": "Kimi K2.5 is Kimi's meest veelzijdige model tot nu toe, met een native multimodale architectuur die zowel visuele als tekstinvoer ondersteunt, 'denkende' en 'niet-denkende' modi, en zowel conversatie- als agenttaken.",
"kimi-k2-0711-preview.description": "kimi-k2 is een MoE-basismodel met sterke programmeer- en agentvaardigheden (1T totale parameters, 32B actief), dat beter presteert dan andere gangbare open modellen op het gebied van redeneren, programmeren, wiskunde en agentbenchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview biedt een contextvenster van 256k, sterkere agentmatige codeerprestaties, betere kwaliteit van front-end code en verbeterd contextbegrip.",
"kimi-k2-instruct.description": "Kimi K2 Instruct is het officiële redeneermodel van Kimi met lange contextondersteuning voor code, vraag-en-antwoord en meer.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.",
"qwq_32b.description": "Middelgroot redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen verbeteren QwQ’s denk- en redeneervermogen de prestaties op complexe problemen aanzienlijk.",
"r1-1776.description": "R1-1776 is een na-getrainde variant van DeepSeek R1, ontworpen om ongecensureerde, onbevooroordeelde feitelijke informatie te bieden.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro van ByteDance ondersteunt tekst-naar-video, beeld-naar-video (eerste frame, eerste+laatste frame), en audiogeneratie gesynchroniseerd met visuals.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite van BytePlus biedt web-retrieval-augmented generatie voor real-time informatie, verbeterde interpretatie van complexe prompts en verbeterde referentieconsistentie voor professionele visuele creatie.",
"solar-mini-ja.description": "Solar Mini (Ja) breidt Solar Mini uit met focus op Japans, terwijl het efficiënte, sterke prestaties in Engels en Koreaans behoudt.",
"solar-mini.description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige ondersteuning voor Engels en Koreaans, en biedt een efficiënte oplossing met een kleine voetafdruk.",
"solar-pro.description": "Solar Pro is een intelligent LLM van Upstage, gericht op instructieopvolging op een enkele GPU, met IFEval-scores boven de 80. Momenteel ondersteunt het Engels; de volledige release stond gepland voor november 2024 met uitgebreidere taalondersteuning en langere context.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 is ons nieuwe krachtige mediagenereermodel, dat video's genereert met gesynchroniseerd geluid. Het kan rijk gedetailleerde, dynamische clips maken vanuit natuurlijke taal of afbeeldingen.",
"spark-x.description": "X2 Capaciteitenoverzicht: 1. Introduceert dynamische aanpassing van redeneermodus, gecontroleerd via het `thinking` veld. 2. Uitgebreide contextlengte: 64K invoertokens en 128K uitvoertokens. 3. Ondersteunt Function Call-functionaliteit.",
"stable-diffusion-3-medium.description": "Het nieuwste tekst-naar-beeldmodel van Stability AI. Deze versie verbetert de beeldkwaliteit, tekstbegrip en stijlvariatie aanzienlijk, interpreteert complexe natuurlijke taal nauwkeuriger en genereert preciezere, gevarieerdere beelden.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo past adversarial diffusion distillation (ADD) toe op stable-diffusion-3.5-large voor hogere snelheid.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is een 800M-parameter MMDiT tekst-naar-beeldmodel met uitstekende kwaliteit en prompt-afstemming, ondersteunt 1-megapixel beelden en draait efficiënt op consumentenhardware.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 is geïnitialiseerd vanuit het v1.2-checkpoint en fijngestemd voor 595k stappen op \"laion-aesthetics v2 5+\" bij 512x512 resolutie, met 10% minder tekstconditionering voor verbeterde classifier-free guidance sampling.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo richt zich op hoogwaardige beeldgeneratie met sterke detaillering en nauwkeurige scènes.",
"stable-diffusion-xl-base-1.0.description": "Een open-source tekst-naar-beeldmodel van Stability AI met toonaangevende creatieve beeldgeneratie. Het heeft sterk instructiebegrip en ondersteunt omgekeerde promptdefinities voor nauwkeurige generatie.",
- "stable-diffusion-xl.description": "stable-diffusion-xl biedt grote verbeteringen ten opzichte van v1.5 en evenaart de beste open tekst-naar-beeldresultaten. Verbeteringen omvatten een 3x grotere UNet-backbone, een verfijningsmodule voor betere beeldkwaliteit en efficiëntere trainingstechnieken.",
"step-1-128k.description": "Balanceert prestaties en kosten voor algemene scenario’s.",
"step-1-256k.description": "Extra lange contextverwerking, ideaal voor analyse van lange documenten.",
"step-1-32k.description": "Ondersteunt middellange gesprekken voor een breed scala aan scenario’s.",
diff --git a/locales/nl-NL/plugin.json b/locales/nl-NL/plugin.json
index 386a65d0b2..1907a5de31 100644
--- a/locales/nl-NL/plugin.json
+++ b/locales/nl-NL/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} parameters in totaal",
"arguments.title": "Argumenten",
"builtins.lobe-activator.apiName.activateTools": "Hulpmiddelen Activeren",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} niet gevonden",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Beschikbare modellen ophalen",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Beschikbare Skills ophalen",
"builtins.lobe-agent-builder.apiName.getConfig": "Configuratie ophalen",
diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json
index 39cde2a832..1fa813f895 100644
--- a/locales/nl-NL/providers.json
+++ b/locales/nl-NL/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
"kimicodingplan.description": "Kimi Code van Moonshot AI biedt toegang tot Kimi-modellen, waaronder K2.5, voor coderingstaken.",
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
- "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
"longcat.description": "LongCat is een reeks generatieve AI-grote modellen die onafhankelijk zijn ontwikkeld door Meituan. Het is ontworpen om de productiviteit binnen ondernemingen te verbeteren en innovatieve toepassingen mogelijk te maken door middel van een efficiënte computationele architectuur en sterke multimodale mogelijkheden.",
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan biedt toegang tot MiniMax-modellen, waaronder M2.7, voor coderingstaken via een abonnement met vaste kosten.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark biedt krachtige meertalige AI over verschillende domeinen, en maakt innovaties mogelijk in slimme hardware, gezondheidszorg, financiën en andere sectoren.",
"stepfun.description": "Stepfun-modellen bieden toonaangevende multimodale en complexe redeneercapaciteiten, met begrip van lange contexten en krachtige autonome zoekcoördinatie.",
"straico.description": "Straico vereenvoudigt AI-integratie door een uniforme werkruimte te bieden die de beste tekst-, beeld- en audiogeneratieve AI-modellen samenbrengt, waardoor marketeers, ondernemers en enthousiastelingen naadloze toegang krijgen tot diverse AI-tools.",
+ "streamlake.description": "StreamLake is een enterprise-niveau modelservicedienst en AI-computingcloudplatform dat hoogwaardige modelinference, kostenefficiënte modelaanpassing en volledig beheerde services integreert. Het helpt bedrijven zich te richten op innovatie in AI-toepassingen zonder zich zorgen te hoeven maken over de complexiteit en kosten van onderliggende computerresources.",
"taichu.description": "Een next-gen multimodaal model van CASIA en het Wuhan Institute of AI, met ondersteuning voor meerstaps Q&A, schrijven, beeldgeneratie, 3D-begrip en signaalanalyse, met verbeterde cognitie en creativiteit.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power biedt end-to-end kennis-Q&A voor bedrijven en ontwikkelaars, met modulaire diensten zoals documentanalyse, chunking, embeddings en meerstaps herschrijving voor het samenstellen van aangepaste AI-oplossingen.",
"togetherai.description": "Together AI levert toonaangevende prestaties met innovatieve modellen, brede aanpasbaarheid, snelle schaalbaarheid en eenvoudige implementatie voor zakelijke behoeften.",
diff --git a/locales/nl-NL/setting.json b/locales/nl-NL/setting.json
index 2cd5ec7a0a..05b6e7146a 100644
--- a/locales/nl-NL/setting.json
+++ b/locales/nl-NL/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Systeemhulpmiddelen",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - snelle tool voor het doorzoeken van code",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - headless browserautomatisering CLI voor AI-agenten",
+ "settingSystemTools.tools.bun.desc": "Bun - snelle JavaScript-runtime en pakketbeheerder",
+ "settingSystemTools.tools.bunx.desc": "bunx - Bun-pakketrunner voor het uitvoeren van npm-pakketten",
"settingSystemTools.tools.fd.desc": "fd - snel en gebruiksvriendelijk alternatief voor find",
"settingSystemTools.tools.find.desc": "Unix find - standaardopdracht voor het zoeken naar bestanden",
"settingSystemTools.tools.grep.desc": "GNU grep - standaardhulpmiddel voor tekstzoekopdrachten",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - beheer en verbind met LobeHub‑diensten",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight-zoekfunctie (snelle geïndexeerde zoekopdracht)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript-runtime voor JS/TS",
"settingSystemTools.tools.npm.desc": "npm - Node.js-pakketbeheerder voor het installeren van afhankelijkheden",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - snelle, schijfruimtebesparende pakketbeheerder",
"settingSystemTools.tools.python.desc": "Python - runtime voor de programmeertaal",
"settingSystemTools.tools.rg.desc": "ripgrep - extreem snelle tool voor tekstzoekopdrachten",
+ "settingSystemTools.tools.uv.desc": "uv - extreem snelle Python‑pakketbeheerder",
"settingTTS.openai.sttModel": "OpenAI Spraak-naar-Tekst Model",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI Tekst-naar-Spraak Model",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Model",
"systemAgent.inputCompletion.modelDesc": "Model gebruikt voor invoer-autocompletie suggesties (zoals GitHub Copilot ghost text)",
"systemAgent.inputCompletion.title": "Invoer-Autocompletie Agent",
+ "systemAgent.promptRewrite.label": "Model",
+ "systemAgent.promptRewrite.modelDesc": "Geef het model op dat wordt gebruikt om prompts te herschrijven",
+ "systemAgent.promptRewrite.title": "Prompt Rewrite Agent",
"systemAgent.queryRewrite.label": "Model",
"systemAgent.queryRewrite.modelDesc": "Specificeer het model dat wordt gebruikt om gebruikersvragen te optimaliseren",
"systemAgent.queryRewrite.title": "Bibliotheekvraag Herschrijfagent",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Upload een lokaal .zip- of .skill-bestand",
"tab.usage": "Gebruiksstatistieken",
"tools.add": "Vaardigheid Toevoegen",
+ "tools.builtins.find-skills.description": "Helpt gebruikers agent‑skills ontdekken en installeren wanneer ze vragen ‘hoe doe ik X’, ‘vind een skill voor X’, of hun mogelijkheden willen uitbreiden",
+ "tools.builtins.find-skills.title": "Skills Zoeken",
"tools.builtins.groupName": "Ingebouwd",
"tools.builtins.install": "Installeren",
"tools.builtins.installed": "Geïnstalleerd",
+ "tools.builtins.lobe-activator.description": "Ontdek en activeer tools en skills",
+ "tools.builtins.lobe-activator.title": "Tools & Skills‑activator",
+ "tools.builtins.lobe-agent-browser.description": "Browserautomatisering CLI voor AI‑agents. Gebruik dit wanneer taken website‑ of Electron‑interactie vereisen, zoals navigeren, formulieren invullen, klikken, screenshots maken, gegevens scrapen, inlogflows en end‑to‑end app‑tests.",
+ "tools.builtins.lobe-agent-browser.title": "Agentbrowser",
+ "tools.builtins.lobe-agent-builder.description": "Configureer agentmetadata, modelinstellingen, plug‑ins en de systeemprompt",
+ "tools.builtins.lobe-agent-builder.title": "Agentbouwer",
+ "tools.builtins.lobe-agent-documents.description": "Beheer agent‑specifieke documenten (lijst, maken, lezen, bewerken, verwijderen, hernoemen) en laadregels",
+ "tools.builtins.lobe-agent-documents.title": "Documenten",
+ "tools.builtins.lobe-agent-management.description": "Maak, beheer en orkestreer AI‑agents",
+ "tools.builtins.lobe-agent-management.title": "Agentbeheer",
"tools.builtins.lobe-artifacts.description": "Genereer en bekijk interactieve UI-componenten, datavisualisaties, grafieken, SVG-afbeeldingen en webapplicaties in realtime. Creëer rijke visuele content waarmee gebruikers direct kunnen interageren.",
"tools.builtins.lobe-artifacts.readme": "Genereer en bekijk interactieve UI-componenten, datavisualisaties, grafieken, SVG-afbeeldingen en webapplicaties in realtime. Creëer rijke visuele content waarmee gebruikers direct kunnen interageren.",
"tools.builtins.lobe-artifacts.title": "Artefacten",
+ "tools.builtins.lobe-brief.description": "Rapporteer voortgang, lever resultaten en vraag om gebruikersbeslissingen",
+ "tools.builtins.lobe-brief.title": "Brief‑tools",
"tools.builtins.lobe-calculator.description": "Voer wiskundige berekeningen uit, los vergelijkingen op en werk met symbolische expressies",
"tools.builtins.lobe-calculator.readme": "Geavanceerde wiskundige rekenmachine die basisrekenkunde, algebraïsche vergelijkingen, calculusbewerkingen en symbolische wiskunde ondersteunt. Inclusief basisconversie, vergelijkingsoplossing, differentiëren, integreren en meer.",
"tools.builtins.lobe-calculator.title": "Rekenmachine",
"tools.builtins.lobe-cloud-sandbox.description": "Voer Python-, JavaScript- en TypeScript-code uit in een geïsoleerde cloudomgeving. Voer shellopdrachten uit, beheer bestanden, doorzoek inhoud met regex en exporteer resultaten veilig.",
"tools.builtins.lobe-cloud-sandbox.readme": "Voer Python-, JavaScript- en TypeScript-code uit in een geïsoleerde cloudomgeving. Voer shellcommando’s uit, beheer bestanden, doorzoek inhoud met regex en exporteer resultaten veilig.",
"tools.builtins.lobe-cloud-sandbox.title": "Cloud Sandbox",
+ "tools.builtins.lobe-creds.description": "Beheer gebruikersreferenties voor authenticatie, omgevingsvariabel‑injectie en API‑verificatie — beheer API‑sleutels, OAuth‑tokens en geheimen voor integraties van derden.",
+ "tools.builtins.lobe-creds.title": "Referenties",
+ "tools.builtins.lobe-cron.description": "Beheer geplande taken die automatisch op ingestelde tijden worden uitgevoerd. Maak, update, activeer/deactiveer en monitor terugkerende taken voor je agents.",
+ "tools.builtins.lobe-cron.title": "Geplande Taken",
+ "tools.builtins.lobe-group-agent-builder.description": "Configureer groepsmetadata, leden en gedeelde inhoud voor multi‑agentgroepen",
+ "tools.builtins.lobe-group-agent-builder.title": "Groepsagentbouwer",
+ "tools.builtins.lobe-group-management.description": "Orkestreer en beheer conversaties in multi‑agentgroepen",
+ "tools.builtins.lobe-group-management.title": "Groepsbeheer",
"tools.builtins.lobe-gtd.description": "Plan doelen en volg voortgang met de GTD-methodologie. Maak strategische plannen, beheer takenlijsten met statusupdates en voer langdurige asynchrone taken uit.",
"tools.builtins.lobe-gtd.readme": "Plan doelen en volg voortgang met behulp van de GTD-methodologie. Stel strategische plannen op, beheer takenlijsten met statusupdates en voer langdurige asynchrone taken uit.",
"tools.builtins.lobe-gtd.title": "GTD-tools",
+ "tools.builtins.lobe-knowledge-base.description": "Doorzoek geüploade documenten en domeinkennis via semantische vectorzoekopdrachten — voor blijvende, herbruikbare referentie",
+ "tools.builtins.lobe-knowledge-base.title": "Kennisbank",
"tools.builtins.lobe-local-system.description": "Toegang tot je lokale bestandssysteem op desktop. Lees, schrijf, doorzoek en organiseer bestanden. Voer shellopdrachten uit met ondersteuning voor achtergrondtaken en doorzoek inhoud met regex-patronen.",
"tools.builtins.lobe-local-system.readme": "Toegang tot je lokale bestandssysteem op desktop. Lees, schrijf, doorzoek en organiseer bestanden. Voer shellcommando’s uit met ondersteuning voor achtergrondtaken en doorzoek inhoud met regex-patronen.",
"tools.builtins.lobe-local-system.title": "Lokaal Systeem",
+ "tools.builtins.lobe-message.description": "Verzend, lees, bewerk en beheer berichten op meerdere berichtenplatforms met één uniforme interface",
+ "tools.builtins.lobe-message.readme": "Platformonafhankelijke berichtentool met ondersteuning voor Discord, Telegram, Slack, Google Chat en IRC. Biedt uniforme API’s voor berichtbewerkingen, reacties, pins, threads, kanaalbeheer en platformspecifieke functies zoals polls.",
+ "tools.builtins.lobe-message.title": "Berichten",
"tools.builtins.lobe-notebook.description": "Maak en beheer blijvende documenten binnen gespreksonderwerpen. Sla notities, rapporten, artikelen en markdown-inhoud op die sessie-overstijgend toegankelijk blijven.",
"tools.builtins.lobe-notebook.readme": "Maak en beheer blijvende documenten binnen gespreksonderwerpen. Sla notities, rapporten, artikelen en markdown-inhoud op die sessie-overstijgend toegankelijk blijft.",
"tools.builtins.lobe-notebook.title": "Notitieboek",
+ "tools.builtins.lobe-page-agent.description": "Maak, lees, update en verwijder nodes in XML‑gestructureerde documenten",
+ "tools.builtins.lobe-page-agent.readme": "Maak en bewerk gestructureerde documenten met nauwkeurige noderesolutie. Initialiseer vanuit Markdown, voer batchbewerkingen uit (invoegen/wijzigen/verwijderen) en zoek‑en‑vervang tekst in documenten.",
+ "tools.builtins.lobe-page-agent.title": "Document",
+ "tools.builtins.lobe-remote-device.description": "Ontdek en beheer verbindingen met externe desktopapparaten",
+ "tools.builtins.lobe-remote-device.readme": "Beheer verbindingen met je desktopapparaten. Lijst online apparaten, activeer een apparaat voor externe acties en controleer de verbindingsstatus.",
+ "tools.builtins.lobe-remote-device.title": "Extern Apparaat",
+ "tools.builtins.lobe-skill-store.description": "Blader door en installeer agentskills uit de LobeHub‑marktplaats. Gebruik dit wanneer je extra mogelijkheden nodig hebt of een specifieke skill wilt installeren.",
+ "tools.builtins.lobe-skill-store.title": "Skill Store",
+ "tools.builtins.lobe-skills.description": "Activeer en gebruik herbruikbare skill‑pakketten",
+ "tools.builtins.lobe-skills.title": "Skills",
+ "tools.builtins.lobe-task.description": "Maak, lijst, bewerk en verwijder taken met afhankelijkheden en reviewconfiguratie",
+ "tools.builtins.lobe-task.title": "Task‑tools",
+ "tools.builtins.lobe-topic-reference.description": "Haal context op uit gelinkte onderwerpconversaties",
+ "tools.builtins.lobe-topic-reference.title": "Onderwerpverwijzing",
+ "tools.builtins.lobe-user-interaction.description": "Stel gebruikers vragen via UI‑interacties en observeer hun levenscyclusresultaten",
+ "tools.builtins.lobe-user-interaction.title": "Gebruikersinteractie",
"tools.builtins.lobe-user-memory.description": "Bouw een gepersonaliseerde kennisbasis over jezelf. Onthoud voorkeuren, houd activiteiten en ervaringen bij, sla identiteitsinformatie op en herinner relevante context in toekomstige gesprekken.",
"tools.builtins.lobe-user-memory.readme": "Bouw een gepersonaliseerde kennisbank over jezelf. Onthoud voorkeuren, houd activiteiten en ervaringen bij, sla identiteitsinformatie op en herinner relevante context in toekomstige gesprekken.",
"tools.builtins.lobe-user-memory.title": "Geheugen",
+ "tools.builtins.lobe-web-browsing.description": "Zoek op het web naar actuele informatie en crawl webpagina’s om inhoud te extraheren. Ondersteunt meerdere zoekmachines, categorieën en tijdsbereiken.",
+ "tools.builtins.lobe-web-browsing.readme": "Zoek op het web naar actuele informatie en crawl webpagina’s om inhoud te extraheren. Ondersteunt meerdere zoekmachines, categorieën en tijdsbereiken voor uitgebreid onderzoek.",
+ "tools.builtins.lobe-web-browsing.title": "Webbrowsen",
+ "tools.builtins.lobe-web-onboarding.description": "Stuur de web‑onboardingflow aan met een gecontroleerde agentruntime",
+ "tools.builtins.lobe-web-onboarding.title": "Web‑onboarding",
+ "tools.builtins.lobehub.description": "Beheer het LobeHub‑platform via CLI — kennisbanken, geheugen, agents, bestanden, zoeken, genereren en meer.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Niet geïnstalleerd",
+ "tools.builtins.task.description": "Taakbeheer en uitvoering — maak, volg, beoordeel en voltooi taken via CLI.",
+ "tools.builtins.task.title": "Taak",
"tools.builtins.uninstall": "Verwijderen",
"tools.builtins.uninstallConfirm.desc": "Weet je zeker dat je {{name}} wilt verwijderen? Deze vaardigheid wordt verwijderd van de huidige agent.",
"tools.builtins.uninstallConfirm.title": "{{name}} verwijderen",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "{{name}} loskoppelen?",
"tools.lobehubSkill.disconnected": "Verbinding verbroken",
"tools.lobehubSkill.error": "Fout",
+ "tools.lobehubSkill.providers.github.description": "GitHub is een platform voor versiebeheer en samenwerking, waarmee ontwikkelaars coderepositories kunnen hosten, beoordelen en beheren.",
+ "tools.lobehubSkill.providers.github.readme": "Maak verbinding met GitHub om toegang te krijgen tot je repositories, issues te maken en te beheren, pull requests te beoordelen en samen aan code te werken — allemaal via natuurlijke gesprekken met je AI‑assistent.",
"tools.lobehubSkill.providers.linear.description": "Linear is een moderne tool voor issue-tracking en projectbeheer, ontworpen voor high-performance teams om sneller betere software te bouwen.",
"tools.lobehubSkill.providers.linear.readme": "Haal de kracht van Linear direct naar je AI-assistent. Maak en werk issues bij, beheer sprints, volg projectvoortgang en stroomlijn je ontwikkelworkflow—allemaal via natuurlijke gesprekken.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Agenda is een geïntegreerde planningsfunctie binnen Microsoft Outlook waarmee gebruikers afspraken kunnen maken, vergaderingen kunnen organiseren en hun tijd en evenementen effectief kunnen beheren.",
"tools.lobehubSkill.providers.microsoft.readme": "Integreer met Outlook Agenda om je evenementen naadloos te bekijken, aan te maken en te beheren. Plan vergaderingen, controleer beschikbaarheid, stel herinneringen in en coördineer je tijd via natuurlijke taalopdrachten.",
"tools.lobehubSkill.providers.twitter.description": "X (voorheen Twitter) is een sociaal mediaplatform voor het delen van realtime updates, nieuws en het aangaan van interactie met je publiek via berichten, reacties en directe berichten.",
"tools.lobehubSkill.providers.twitter.readme": "Verbind met X (Twitter) om tweets te plaatsen, je tijdlijn te beheren en in contact te komen met je publiek. Creëer content, plan berichten, volg vermeldingen en bouw je sociale media-aanwezigheid op via conversatie-AI.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel is een cloudplatform voor frontend‑ontwikkelaars, met hosting en serverless‑functies om webapplicaties eenvoudig te deployen.",
+ "tools.lobehubSkill.providers.vercel.readme": "Maak verbinding met Vercel om je deployments te beheren, projectstatus te monitoren en je infrastructuur te controleren. Deploy applicaties, bekijk build‑logs, beheer omgevingsvariabelen en schaal je projecten via conversationele AI.",
"tools.notInstalled": "Niet Geïnstalleerd",
"tools.notInstalledWarning": "Deze vaardigheid is momenteel niet geïnstalleerd, wat de functionaliteit van de agent kan beïnvloeden.",
"tools.plugins.enabled": "Ingeschakeld: {{num}}",
diff --git a/locales/nl-NL/subscription.json b/locales/nl-NL/subscription.json
index 60371faf32..064589d277 100644
--- a/locales/nl-NL/subscription.json
+++ b/locales/nl-NL/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Upgrade naar",
"credits.topUp.upgradeSuffix": "om ${{savings}} te besparen",
"credits.topUp.validityInfo": "Geldig voor {{months}} maanden",
+ "crossPlatform.desc": "Dit abonnement is via de mobiele app aangeschaft en kan hier niet worden aangepast. Beheer uw abonnement op uw mobiele apparaat.",
+ "crossPlatform.manageOnMobile": "Beheer op mobiel apparaat",
+ "crossPlatform.title": "Platformoverschrijdend Abonnement",
"currentPlan.cancelAlert": "Abonnement wordt geannuleerd na {{canceledAt}}. Je kunt het tot die tijd herstellen via \"Abonnement Beheren\"",
"currentPlan.downgradeAlert": "Wordt teruggezet naar {{plan}} na {{downgradedAt}}.",
"currentPlan.management": "Abonnement Beheren",
diff --git a/locales/nl-NL/video.json b/locales/nl-NL/video.json
index 0d7011e96a..ed4da69cf9 100644
--- a/locales/nl-NL/video.json
+++ b/locales/nl-NL/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Startframe",
"config.prompt.placeholder": "Beschrijf de video die je wilt genereren",
"config.prompt.placeholderWithRef": "Beschrijf de scène die je wilt genereren met de afbeelding",
+ "config.promptExtend.label": "Prompt uitbreiden",
"config.referenceImage.label": "Referentieafbeelding",
"config.resolution.label": "Resolutie",
"config.seed.label": "Zaadwaarde",
"config.seed.random": "Willekeurig",
"config.size.label": "Grootte",
+ "config.watermark.label": "Watermerk",
+ "config.webSearch.label": "Webzoekfunctie",
"generation.actions.copyError": "Foutmelding Kopiëren",
"generation.actions.errorCopied": "Foutmelding Gekopieerd naar Klembord",
"generation.actions.errorCopyFailed": "Kopiëren van Foutmelding Mislukt",
diff --git a/locales/pl-PL/agent.json b/locales/pl-PL/agent.json
index 311a417bed..32273a8f98 100644
--- a/locales/pl-PL/agent.json
+++ b/locales/pl-PL/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot połączony pomyślnie",
"channel.connecting": "Łączenie...",
"channel.connectionConfig": "Konfiguracja połączenia",
+ "channel.connectionMode": "Tryb połączenia",
+ "channel.connectionModeHint": "WebSocket jest zalecany dla nowych botów. Użyj Webhook, jeśli Twój bot ma już skonfigurowany adres URL wywołania zwrotnego na platformie QQ Open Platform.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Skopiowano do schowka",
"channel.copy": "Kopiuj",
"channel.credentials": "Poświadczenia",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Proszę skopiować ten URL i wkleić go w polu {{fieldName}} w Portalu Deweloperskim {{name}}.",
"channel.exportConfig": "Eksportuj konfigurację",
"channel.feishu.description": "Połącz tego asystenta z Feishu, aby umożliwić czaty prywatne i grupowe.",
+ "channel.feishu.webhookMigrationDesc": "Tryb WebSocket zapewnia dostarczanie zdarzeń w czasie rzeczywistym bez konieczności używania publicznego adresu URL wywołania zwrotnego. Aby przeprowadzić migrację, przełącz Tryb połączenia na WebSocket w Zaawansowanych ustawieniach. Nie jest wymagana żadna dodatkowa konfiguracja na platformie Feishu/Lark Open Platform.",
+ "channel.feishu.webhookMigrationTitle": "Rozważ migrację do trybu WebSocket",
"channel.historyLimit": "Limit wiadomości w historii",
"channel.historyLimitHint": "Domyślna liczba wiadomości do pobrania podczas przeglądania historii kanału",
"channel.importConfig": "Importuj konfigurację",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Wymagane do weryfikacji interakcji",
"channel.qq.appIdHint": "Twój identyfikator aplikacji QQ Bot z platformy QQ Open Platform",
"channel.qq.description": "Połącz tego asystenta z QQ, aby prowadzić rozmowy grupowe i wiadomości bezpośrednie.",
+ "channel.qq.webhookMigrationDesc": "Tryb WebSocket zapewnia dostarczanie zdarzeń w czasie rzeczywistym oraz automatyczne ponowne łączenie, bez konieczności korzystania z adresu URL wywołania zwrotnego. Aby przeprowadzić migrację, utwórz nowego bota na platformie QQ Open Platform bez konfigurowania adresu URL wywołania zwrotnego, a następnie przełącz Tryb połączenia na WebSocket w Zaawansowanych ustawieniach.",
+ "channel.qq.webhookMigrationTitle": "Rozważ migrację do trybu WebSocket",
"channel.removeChannel": "Usuń kanał",
"channel.removeFailed": "Nie udało się usunąć kanału",
"channel.removed": "Kanał usunięty",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Sekret podpisu",
"channel.signingSecretHint": "Używany do weryfikacji żądań webhook.",
"channel.slack.appIdHint": "Twój identyfikator aplikacji Slack z panelu API Slack (zaczyna się od A).",
+ "channel.slack.appToken": "Token na poziomie aplikacji",
+ "channel.slack.appTokenHint": "Wymagany dla trybu Socket (WebSocket). Wygeneruj token na poziomie aplikacji (xapp-...) w sekcji Podstawowe informacje w ustawieniach swojej aplikacji Slack.",
"channel.slack.description": "Połącz tego asystenta ze Slackiem, aby prowadzić rozmowy na kanałach i wiadomości bezpośrednie.",
+ "channel.slack.webhookMigrationDesc": "Tryb Socket zapewnia dostarczanie zdarzeń w czasie rzeczywistym poprzez WebSocket, bez konieczności udostępniania publicznego punktu końcowego HTTP. Aby przeprowadzić migrację, włącz tryb Socket w ustawieniach swojej aplikacji Slack, wygeneruj token na poziomie aplikacji, a następnie przełącz Tryb połączenia na WebSocket w Zaawansowanych ustawieniach.",
+ "channel.slack.webhookMigrationTitle": "Rozważ migrację do trybu Socket (WebSocket)",
"channel.telegram.description": "Połącz tego asystenta z Telegram, aby umożliwić czaty prywatne i grupowe.",
"channel.testConnection": "Testuj połączenie",
"channel.testFailed": "Test połączenia nie powiódł się",
diff --git a/locales/pl-PL/chat.json b/locales/pl-PL/chat.json
index 445d543345..9e84aef411 100644
--- a/locales/pl-PL/chat.json
+++ b/locales/pl-PL/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Grupa została pomyślnie usunięta",
"confirmRemoveSessionItemAlert": "Zamierzasz usunąć tego agenta. Po usunięciu nie będzie można go odzyskać. Potwierdź swoją decyzję.",
"confirmRemoveSessionSuccess": "Agent został pomyślnie usunięty",
+ "createModal.createBlank": "Utwórz pusty",
+ "createModal.groupPlaceholder": "Opisz, co ta grupa powinna robić...",
+ "createModal.groupTitle": "Co powinna robić Twoja grupa?",
+ "createModal.placeholder": "Opisz, co Twój agent powinien robić...",
+ "createModal.title": "Co powinien robić Twój agent?",
"defaultAgent": "Domyślny Agent",
"defaultGroupChat": "Grupa",
"defaultList": "Lista domyślna",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Kontekst jest zbyt długi, kompresowanie historii...",
"operation.execAgentRuntime": "Przygotowywanie odpowiedzi",
"operation.execClientTask": "Wykonywanie zadania",
+ "operation.execServerAgentRuntime": "Uruchamianie… Możesz przełączyć zadania lub zamknąć stronę — zadanie będzie kontynuowane.",
"operation.sendMessage": "Wysyłanie wiadomości",
"owner": "Właściciel grupy",
"pageCopilot.title": "Agent strony",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Pobieranie szczegółów...",
"task.status.initializing": "Inicjalizacja zadania...",
"task.subtask": "Podzadanie",
+ "task.title": "Zadania",
"thread.divider": "Podtemat",
"thread.threadMessageCount": "{{messageCount}} wiadomości",
"thread.title": "Podtemat",
@@ -429,9 +436,11 @@
"toolAuth.title": "Autoryzuj umiejętności dla tego agenta",
"topic.checkOpenNewTopic": "Rozpocząć nowy temat?",
"topic.checkSaveCurrentMessages": "Czy chcesz zapisać bieżącą rozmowę jako temat?",
+ "topic.defaultTitle": "Temat bez tytułu",
"topic.openNewTopic": "Otwórz nowy temat",
"topic.recent": "Ostatnie tematy",
"topic.saveCurrentMessages": "Zapisz bieżącą sesję jako temat",
+ "topic.viewAll": "Wyświetl wszystkie tematy",
"translate.action": "Tłumacz",
"translate.clear": "Wyczyść tłumaczenie",
"tts.action": "Tekst na mowę",
diff --git a/locales/pl-PL/common.json b/locales/pl-PL/common.json
index 046195c289..47e69b2147 100644
--- a/locales/pl-PL/common.json
+++ b/locales/pl-PL/common.json
@@ -343,10 +343,19 @@
"mail.support": "Wsparcie e-mailowe",
"more": "Więcej",
"navPanel.agent": "Agent",
+ "navPanel.customizeSidebar": "Dostosuj pasek boczny",
"navPanel.displayItems": "Wyświetlane elementy",
+ "navPanel.hidden": "Ukryte",
+ "navPanel.hideSection": "Ukryj sekcję",
"navPanel.library": "Biblioteka",
+ "navPanel.moveDown": "Przenieś w dół",
+ "navPanel.moveUp": "Przenieś w górę",
+ "navPanel.pinned": "Przypięte",
"navPanel.searchAgent": "Szukaj agenta...",
+ "navPanel.searchRecent": "Szukaj w ostatnich...",
"navPanel.searchResultEmpty": "Brak wyników wyszukiwania",
+ "navPanel.show": "Pokaż",
+ "navPanel.visible": "Widoczne",
"new": "Nowy",
"noContent": "Brak treści",
"oauth": "Logowanie SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Wesprzyj nas",
"productHunt.description": "Wesprzyj nas na Product Hunt. Twoje wsparcie wiele dla nas znaczy!",
"productHunt.title": "Jesteśmy na Product Hunt!",
+ "promptTransform.action": "Dopracuj pomysł",
+ "promptTransform.actions.rewrite": "Rozwiń szczegóły",
+ "promptTransform.actions.translate": "Przetłumacz",
+ "promptTransform.status.rewrite": "Rozwijanie szczegółów...",
+ "promptTransform.status.translate": "Tłumaczenie...",
+ "recents": "Ostatnie",
"regenerate": "Wygeneruj ponownie",
"releaseNotes": "Szczegóły wersji",
"rename": "Zmień nazwę",
@@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Czat",
"tab.community": "Społeczność",
+ "tab.create": "Utwórz",
"tab.discover": "Odkrywaj",
"tab.eval": "Laboratorium Ewaluacji",
"tab.files": "Pliki",
diff --git a/locales/pl-PL/image.json b/locales/pl-PL/image.json
index dc702886d0..4521795251 100644
--- a/locales/pl-PL/image.json
+++ b/locales/pl-PL/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Model",
"config.prompt.placeholder": "Opisz, co chcesz wygenerować",
"config.prompt.placeholderWithRef": "Opisz, jak chcesz dostosować obraz",
+ "config.promptExtend.label": "Rozszerzenie promptu",
"config.quality.label": "Jakość obrazu",
"config.quality.options.hd": "Wysoka rozdzielczość",
"config.quality.options.standard": "Standardowa",
@@ -24,6 +25,8 @@
"config.size.label": "Rozmiar",
"config.steps.label": "Kroki",
"config.title": "Konfiguracja",
+ "config.watermark.label": "Znak wodny",
+ "config.webSearch.label": "Wyszukiwanie internetowe",
"config.width.label": "Szerokość",
"generation.actions.applySeed": "Zastosuj ziarno",
"generation.actions.copyError": "Skopiuj komunikat o błędzie",
diff --git a/locales/pl-PL/labs.json b/locales/pl-PL/labs.json
index 45a2c0c32d..776a1fff96 100644
--- a/locales/pl-PL/labs.json
+++ b/locales/pl-PL/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Grupuj wiadomości agenta i wyniki wywołań narzędzi razem do wyświetlenia",
"features.assistantMessageGroup.title": "Grupowanie Wiadomości Agenta",
+ "features.gatewayMode.desc": "Wykonuj zadania agenta na serwerze przez Gateway WebSocket zamiast lokalnie. Umożliwia to szybsze wykonywanie i zmniejsza wykorzystanie zasobów po stronie klienta.",
+ "features.gatewayMode.title": "Wykonywanie agenta po stronie serwera (Gateway)",
"features.groupChat.desc": "Włącz koordynację czatu grupowego z wieloma agentami.",
"features.groupChat.title": "Czat Grupowy (Wielu Agentów)",
"features.inputMarkdown.desc": "Renderuj Markdown w polu wprowadzania w czasie rzeczywistym (pogrubiony tekst, bloki kodu, tabele itp.).",
diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json
index baddf15134..9b7e5cbaeb 100644
--- a/locales/pl-PL/models.json
+++ b/locales/pl-PL/models.json
@@ -57,9 +57,7 @@
"GLM-4.5.description": "GLM-4.5: Wysokowydajny model do rozumowania, kodowania i zadań agentowych.",
"GLM-4.6.description": "GLM-4.6: Model poprzedniej generacji.",
"GLM-4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, zoptymalizowany pod kątem scenariuszy Agentic Coding, z ulepszonymi możliwościami kodowania, planowaniem długoterminowych zadań i współpracą z narzędziami.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Zoptymalizowana wersja GLM-5 z szybszym wnioskowaniem dla zadań kodowania.",
"GLM-5.1.description": "GLM-5.1 to najnowszy flagowy model Zhipu, ulepszona wersja GLM-5 z poprawionymi możliwościami inżynierii agentowej dla złożonych systemów inżynieryjnych i zadań długoterminowych.",
- "GLM-5.description": "GLM-5 to flagowy model nowej generacji Zhipu, zaprojektowany z myślą o Agentic Engineering. Zapewnia niezawodną produktywność w złożonych systemach inżynieryjnych i zadaniach agentowych o długim horyzoncie. W zakresie kodowania i możliwości agentowych GLM-5 osiąga najwyższe wyniki wśród modeli open-source.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) to innowacyjny model do różnorodnych dziedzin i złożonych zadań.",
"HY-Image-V3.0.description": "Potężne możliwości ekstrakcji cech obrazu oryginalnego i zachowania szczegółów, zapewniające bogatszą teksturę wizualną oraz tworzące obrazy o wysokiej dokładności, dobrze skomponowane i na poziomie produkcyjnym.",
"HelloMeme.description": "HelloMeme to narzędzie AI do generowania memów, GIF-ów lub krótkich filmów z dostarczonych obrazów lub ruchów. Nie wymaga umiejętności rysowania ani kodowania — wystarczy obraz referencyjny, aby stworzyć zabawne, atrakcyjne i stylistycznie spójne treści.",
@@ -95,13 +93,11 @@
"MiniMax-Hailuo-2.3.description": "Nowy model generowania wideo z kompleksowymi ulepszeniami w zakresie ruchu ciała, realizmu fizycznego i przestrzegania instrukcji.",
"MiniMax-M1.description": "Nowy wewnętrzny model rozumowania z 80 tys. łańcuchów myślowych i 1 mln tokenów wejściowych, oferujący wydajność porównywalną z czołowymi modelami światowymi.",
"MiniMax-M2-Stable.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów, z większą równoległością dla zastosowań komercyjnych.",
- "MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania wielojęzycznego z szybszym i bardziej efektywnym wnioskowaniem.",
"MiniMax-M2.1-highspeed.description": "Potężne wielojęzyczne możliwości programistyczne, kompleksowo ulepszone doświadczenie programowania. Szybszy i bardziej wydajny.",
"MiniMax-M2.1.description": "MiniMax-M2.1 to flagowy, otwartoźródłowy model dużej skali od MiniMax, zaprojektowany do rozwiązywania złożonych zadań rzeczywistych. Jego główne atuty to wielojęzyczne możliwości programistyczne oraz zdolność działania jako Agent do rozwiązywania skomplikowanych problemów.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Ta sama wydajność co M2.5, ale z szybszym wnioskowaniem.",
"MiniMax-M2.5.description": "MiniMax-M2.5 to flagowy otwartoźródłowy duży model od MiniMax, skoncentrowany na rozwiązywaniu złożonych zadań rzeczywistych. Jego główne zalety to wielojęzyczne możliwości programowania i zdolność do rozwiązywania złożonych zadań jako Agent.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Ta sama wydajność co M2.7, ale z znacząco szybszym wnioskowaniem.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Rozpoczęcie drogi do rekursywnej samodoskonalenia, najwyższe możliwości inżynieryjne w rzeczywistych zastosowaniach.",
"MiniMax-M2.description": "MiniMax M2: Model poprzedniej generacji.",
"MiniMax-Text-01.description": "MiniMax-01 wprowadza dużą skalę uwagi liniowej wykraczającą poza klasyczne Transformatory, z 456 mld parametrów i 45,9 mld aktywowanych na przebieg. Osiąga najwyższą wydajność i obsługuje do 4 mln tokenów kontekstu (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 to model hybrydowy dużej skali z otwartymi wagami, oparty na uwadze, z 456 miliardami całkowitych parametrów i ~45,9 miliardami aktywnych na token. Natywnie obsługuje kontekst 1M i wykorzystuje Flash Attention, aby zmniejszyć FLOP-y o 75% przy generacji 100K-tokenów w porównaniu do DeepSeek R1. Dzięki architekturze MoE oraz treningowi RL z uwagą hybrydową, osiąga wiodące wyniki w rozumowaniu na długich wejściach i rzeczywistych zadaniach inżynieryjnych.",
@@ -310,20 +306,13 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, oferujący błyskawiczną prędkość i rozszerzone myślenie.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku firmy Anthropic, charakteryzujący się błyskawiczną szybkością i rozszerzonym rozumowaniem.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
- "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
- "claude-opus-4-6.description": "Claude Opus 4.6 to najbardziej inteligentny model Anthropic do budowy agentów i kodowania.",
"claude-opus-4.5.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący najwyższej klasy inteligencję z skalowalną wydajnością w złożonych zadaniach wymagających wysokiej jakości rozumowania.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 to najbardziej inteligentny model firmy Anthropic do tworzenia agentów i kodowania.",
"claude-opus-4.6.description": "Claude Opus 4.6 to najbardziej inteligentny model firmy Anthropic do tworzenia agentów i kodowania.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic do tej pory, oferujący niemal natychmiastowe odpowiedzi lub rozszerzone, krok po kroku myślenie z precyzyjną kontrolą dla użytkowników API.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model Anthropic do tej pory.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 to najlepsze połączenie prędkości i inteligencji od Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 to najlepsze połączenie szybkości i inteligencji firmy Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 może generować niemal natychmiastowe odpowiedzi lub rozszerzone, krok po kroku rozumowanie, które użytkownicy mogą obserwować. Użytkownicy API mogą precyzyjnie kontrolować, jak długo model myśli.",
@@ -397,7 +386,6 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 to model rozumowania nowej generacji z ulepszonymi zdolnościami do rozwiązywania złożonych problemów i myślenia łańcuchowego.",
- "deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość wyjścia dla codziennych zadań QA i agentów. Publiczne benchmarki osiągają poziom GPT-5, a jest to pierwszy model integrujący myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -420,7 +408,6 @@
"deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
"deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
"deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed wyjściem dla większej dokładności, z wynikami na najwyższym poziomie i rozumowaniem porównywalnym do Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
"deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@@ -523,8 +510,6 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
"ernie-x1.1.description": "ERNIE X1.1 to model rozumowania w wersji podglądowej do oceny i testowania.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, stworzony przez zespół Seed ByteDance, obsługuje edycję i kompozycję wielu obrazów. Funkcje obejmują ulepszoną spójność tematyczną, precyzyjne przestrzeganie instrukcji, zrozumienie logiki przestrzennej, wyrażenie estetyczne, układ plakatów i projekt logo z wysoką precyzją renderowania tekst-obraz.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, stworzony przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe do wysoce kontrolowanego, wysokiej jakości generowania obrazów na podstawie podpowiedzi.",
"fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
"fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
@@ -532,17 +517,12 @@
"fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
"fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
"fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
- "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycje semantyczne i wyglądu, precyzyjną edycję tekstu w języku chińskim/angielskim, transfer stylu, obrót i więcej.",
- "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen z silnym renderowaniem tekstu w języku chińskim i różnorodnymi stylami wizualnymi.",
"flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 1–4 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
- "flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
"flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
"flux-kontext-pro.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
- "flux-merged.description": "FLUX.1 [merged] łączy głębokie funkcje eksplorowane w \"DEV\" z zaletami wysokiej prędkości \"Schnell\", rozszerzając granice wydajności i poszerzając zastosowania.",
"flux-pro-1.1-ultra.description": "Generowanie obrazów w ultra wysokiej rozdzielczości z wyjściem 4MP, tworzące ostre obrazy w 10 sekund.",
"flux-pro-1.1.description": "Ulepszony model generowania obrazów klasy profesjonalnej z doskonałą jakością i precyzyjnym przestrzeganiem promptów.",
"flux-pro.description": "Model generowania obrazów klasy komercyjnej najwyższej jakości, oferujący niezrównaną jakość i różnorodność wyników.",
- "flux-schnell.description": "FLUX.1 [schnell] to najbardziej zaawansowany open-source’owy model kilkuetapowy, przewyższający konkurencję, a nawet silne modele niedestylowane jak Midjourney v6.0 i DALL-E 3 (HD). Zoptymalizowany pod kątem zachowania różnorodności pretreningu, znacznie poprawia jakość wizualną, przestrzeganie instrukcji, obsługę rozmiarów/aspektów, czcionek i różnorodność wyników.",
"flux.1-schnell.description": "FLUX.1-schnell to model generowania obrazów o wysokiej wydajności, zapewniający szybkie wyniki w różnych stylach.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) zapewnia stabilną, konfigurowalną wydajność w złożonych zadaniach.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) oferuje silne wsparcie multimodalne dla złożonych zadań.",
@@ -575,10 +555,8 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.",
"gemini-3-flash-preview.description": "Gemini 3 Flash to najszybszy i najinteligentniejszy model, łączący najnowsze osiągnięcia AI z doskonałym osadzeniem w wynikach wyszukiwania.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również czat multimodalny.",
"gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) to najszybszy natywny model generowania obrazów od Google z obsługą myślenia, generowaniem obrazów w rozmowach i edycją.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) dostarcza jakość obrazu na poziomie Pro z prędkością Flash, z obsługą czatu multimodalnego.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview to najbardziej ekonomiczny model multimodalny Google, zoptymalizowany do zadań agentowych o dużej skali, tłumaczeń i przetwarzania danych.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview ulepsza Gemini 3 Pro, oferując lepsze zdolności rozumowania i wsparcie dla średniego poziomu myślenia.",
"gemini-flash-latest.description": "Najnowsza wersja Gemini Flash",
@@ -806,7 +784,6 @@
"jamba-large.description": "Nasz najbardziej zaawansowany model, zaprojektowany do złożonych zadań korporacyjnych, oferujący wyjątkową wydajność.",
"jamba-mini.description": "Najbardziej efektywny model w swojej klasie, łączący szybkość i jakość przy mniejszym zużyciu zasobów.",
"jina-deepsearch-v1.description": "DeepSearch łączy wyszukiwanie w sieci, czytanie i rozumowanie w celu przeprowadzania dogłębnych analiz. Działa jak agent, który przyjmuje zadanie badawcze, przeprowadza szerokie wyszukiwanie z wieloma iteracjami, a dopiero potem generuje odpowiedź. Proces obejmuje ciągłe badanie, rozumowanie i rozwiązywanie problemów z różnych perspektyw, co zasadniczo różni się od standardowych LLM, które odpowiadają na podstawie danych treningowych lub tradycyjnych systemów RAG opartych na jednorazowym wyszukiwaniu powierzchownym.",
- "k2p5.description": "Kimi K2.5 to najbardziej wszechstronny model Kimi do tej pory, wyposażony w natywną architekturę multimodalną, która obsługuje zarówno dane wizualne, jak i tekstowe, tryby 'myślenia' i 'niemyslenia', a także zadania konwersacyjne i agentowe.",
"kimi-k2-0711-preview.description": "kimi-k2 to model bazowy MoE o silnych możliwościach programistycznych i agentowych (1T parametrów, 32B aktywnych), przewyższający inne popularne otwarte modele w testach rozumowania, programowania, matematyki i agentów.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview oferuje okno kontekstu 256k, lepsze kodowanie agentowe, wyższą jakość kodu front-end i lepsze rozumienie kontekstu.",
"kimi-k2-instruct.description": "Kimi K2 Instruct to oficjalny model rozumowania Kimi z długim kontekstem, przeznaczony do kodu, pytań i odpowiedzi oraz innych zastosowań.",
@@ -1243,11 +1220,7 @@
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 to model, który równoważy wysoką wydajność obliczeniową z doskonałymi zdolnościami rozumowania i wydajnością agentów.",
"spark-x.description": "Przegląd możliwości X2: 1. Wprowadza dynamiczne dostosowanie trybu rozumowania, kontrolowane za pomocą pola `thinking`. 2. Rozszerzona długość kontekstu: 64K tokenów wejściowych i 128K tokenów wyjściowych. 3. Obsługuje funkcjonalność Function Call.",
"stable-diffusion-3-medium.description": "Najnowszy model tekst-na-obraz od Stability AI. Ta wersja znacząco poprawia jakość obrazu, rozumienie tekstu i różnorodność stylów, dokładniej interpretując złożone polecenia językowe i generując precyzyjne, zróżnicowane obrazy.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo wykorzystuje Adversarial Diffusion Distillation (ADD) do przyspieszenia działania modelu stable-diffusion-3.5-large.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large to model tekst-na-obraz MMDiT z 800M parametrów, oferujący doskonałą jakość i zgodność z poleceniami, obsługujący obrazy 1-megapikselowe i wydajne działanie na sprzęcie konsumenckim.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 został zainicjowany z punktu kontrolnego v1.2 i dostrojony przez 595k kroków na \"laion-aesthetics v2 5+\" w rozdzielczości 512x512, zmniejszając wpływ tekstu o 10% w celu poprawy próbkowania bezklasowego.",
"stable-diffusion-xl-base-1.0.description": "Otwartoźródłowy model tekst-na-obraz od Stability AI z wiodącą w branży kreatywnością. Posiada silne rozumienie instrukcji i obsługuje odwrotne definicje promptów dla precyzyjnego generowania.",
- "stable-diffusion-xl.description": "stable-diffusion-xl wprowadza znaczące ulepszenia względem v1.5 i dorównuje najlepszym otwartym modelom tekst-na-obraz. Ulepszenia obejmują 3x większy trzon UNet, moduł udoskonalający jakość obrazu oraz bardziej efektywne techniki treningowe.",
"step-1-128k.description": "Równoważy wydajność i koszty w ogólnych scenariuszach.",
"step-1-256k.description": "Obsługuje bardzo długi kontekst, idealny do analizy długich dokumentów.",
"step-1-32k.description": "Obsługuje rozmowy średniej długości w szerokim zakresie zastosowań.",
diff --git a/locales/pl-PL/plugin.json b/locales/pl-PL/plugin.json
index d0d45bfff8..1e04b56787 100644
--- a/locales/pl-PL/plugin.json
+++ b/locales/pl-PL/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "Łącznie {{count}} parametrów",
"arguments.title": "Argumenty",
"builtins.lobe-activator.apiName.activateTools": "Aktywuj Narzędzia",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} nie znaleziono",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Pobierz dostępne modele",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Pobierz dostępne Umiejętności",
"builtins.lobe-agent-builder.apiName.getConfig": "Pobierz konfigurację",
diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json
index 75cc797a15..587067a066 100644
--- a/locales/pl-PL/providers.json
+++ b/locales/pl-PL/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
"kimicodingplan.description": "Kimi Code od Moonshot AI zapewnia dostęp do modeli Kimi, w tym K2.5, do zadań związanych z kodowaniem.",
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
- "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
"longcat.description": "LongCat to seria dużych modeli generatywnej sztucznej inteligencji, niezależnie opracowanych przez Meituan. Został zaprojektowany, aby zwiększyć produktywność wewnętrzną przedsiębiorstwa i umożliwić innowacyjne zastosowania dzięki wydajnej architekturze obliczeniowej i silnym możliwościom multimodalnym.",
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan zapewnia dostęp do modeli MiniMax, w tym M2.7, do zadań związanych z kodowaniem w ramach subskrypcji o stałej opłacie.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark oferuje potężną wielojęzyczną AI w różnych dziedzinach, umożliwiając innowacje w inteligentnym sprzęcie, opiece zdrowotnej, finansach i innych branżach.",
"stepfun.description": "Modele Stepfun oferują wiodące możliwości multimodalne i złożonego rozumowania, z rozumieniem długiego kontekstu i potężną autonomiczną orkiestracją wyszukiwania.",
"straico.description": "Straico upraszcza integrację AI, oferując zintegrowane środowisko pracy, które łączy najlepsze modele generatywne AI do tekstu, obrazów i dźwięku, umożliwiając marketerom, przedsiębiorcom i entuzjastom łatwy dostęp do różnorodnych narzędzi AI.",
+ "streamlake.description": "StreamLake to korporacyjna platforma usług modelowych i chmury obliczeniowej AI, łącząca wysokowydajną inferencję modeli, niskokosztową personalizację modeli oraz w pełni zarządzane usługi. Umożliwia przedsiębiorstwom skupienie się na innowacjach w zakresie zastosowań AI bez obaw o złożoność i koszty związane z zasobami obliczeniowymi na poziomie infrastruktury.",
"taichu.description": "Model multimodalny nowej generacji od CASIA i Instytutu AI w Wuhan, obsługujący wieloetapowe pytania i odpowiedzi, pisanie, generowanie obrazów, rozumienie 3D i analizę sygnałów z większą kognicją i kreatywnością.",
"tencentcloud.description": "Silnik wiedzy LLM Atomic Power zapewnia kompleksowe pytania i odpowiedzi dla przedsiębiorstw i deweloperów, z modułowymi usługami, takimi jak analiza dokumentów, dzielenie, osadzanie i wieloetapowe przekształcanie, umożliwiając tworzenie niestandardowych rozwiązań AI.",
"togetherai.description": "Together AI oferuje wiodącą wydajność dzięki innowacyjnym modelom, szerokim możliwościom dostosowania, szybkiemu skalowaniu i prostemu wdrażaniu dla potrzeb przedsiębiorstw.",
diff --git a/locales/pl-PL/setting.json b/locales/pl-PL/setting.json
index 0bae16fb3d..6a570705ad 100644
--- a/locales/pl-PL/setting.json
+++ b/locales/pl-PL/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Narzędzia systemowe",
"settingSystemTools.tools.ag.desc": "The Silver Searcher – szybkie narzędzie do przeszukiwania kodu",
"settingSystemTools.tools.agentBrowser.desc": "Agent-przeglądarka - automatyzacja przeglądarki bez interfejsu graficznego CLI dla agentów AI",
+ "settingSystemTools.tools.bun.desc": "Bun – szybkie środowisko uruchomieniowe JavaScript i menedżer pakietów",
+ "settingSystemTools.tools.bunx.desc": "bunx – uruchamiacz pakietów Bun do wykonywania pakietów npm",
"settingSystemTools.tools.fd.desc": "fd – szybka i przyjazna dla użytkownika alternatywa dla find",
"settingSystemTools.tools.find.desc": "Unix find – standardowe polecenie do wyszukiwania plików",
"settingSystemTools.tools.grep.desc": "GNU grep – standardowe narzędzie do wyszukiwania tekstu",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI – zarządzanie i łączenie z usługami LobeHub",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight – szybkie wyszukiwanie z indeksowaniem",
"settingSystemTools.tools.node.desc": "Node.js - środowisko uruchomieniowe JavaScript dla JS/TS",
"settingSystemTools.tools.npm.desc": "npm - menedżer pakietów Node.js do instalacji zależności",
+ "settingSystemTools.tools.pnpm.desc": "pnpm – szybki, oszczędny w przestrzeni dyskowej menedżer pakietów",
"settingSystemTools.tools.python.desc": "Python - środowisko uruchomieniowe języka programowania",
"settingSystemTools.tools.rg.desc": "ripgrep – niezwykle szybkie narzędzie do wyszukiwania tekstu",
+ "settingSystemTools.tools.uv.desc": "uv – wyjątkowo szybki menedżer pakietów dla Pythona",
"settingTTS.openai.sttModel": "Model rozpoznawania mowy OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Model syntezy mowy OpenAI",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Model",
"systemAgent.inputCompletion.modelDesc": "Model używany do sugestii automatycznego uzupełniania wprowadzania (np. tekst duch GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agent Automatycznego Uzupełniania Wprowadzania",
+ "systemAgent.promptRewrite.label": "Model",
+ "systemAgent.promptRewrite.modelDesc": "Określ model używany do przepisywania promptów",
+ "systemAgent.promptRewrite.title": "Agent Przepisywania Promptów",
"systemAgent.queryRewrite.label": "Model",
"systemAgent.queryRewrite.modelDesc": "Określ model używany do optymalizacji zapytań użytkownika",
"systemAgent.queryRewrite.title": "Agent przekształcania zapytań bibliotecznych",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Prześlij lokalny plik .zip lub .skill",
"tab.usage": "Statystyki użycia",
"tools.add": "Dodaj umiejętność",
+ "tools.builtins.find-skills.description": "Pomaga użytkownikom odkrywać i instalować umiejętności agentów, gdy pytają „jak zrobić X”, „znajdź umiejętność do X” lub chcą rozszerzyć możliwości",
+ "tools.builtins.find-skills.title": "Znajdź Umiejętności",
"tools.builtins.groupName": "Wbudowane",
"tools.builtins.install": "Zainstaluj",
"tools.builtins.installed": "Zainstalowano",
+ "tools.builtins.lobe-activator.description": "Odkrywaj i aktywuj narzędzia oraz umiejętności",
+ "tools.builtins.lobe-activator.title": "Aktywator Narzędzi i Umiejętności",
+ "tools.builtins.lobe-agent-browser.description": "CLI do automatyzacji przeglądarki dla agentów AI. Używaj przy zadaniach obejmujących interakcje z witrynami lub Electronem, takich jak nawigacja, wypełnianie formularzy, klikanie, zrzuty ekranu, scrapowanie danych, logowanie i testy end‑to‑end.",
+ "tools.builtins.lobe-agent-browser.title": "Przeglądarka Agenta",
+ "tools.builtins.lobe-agent-builder.description": "Konfiguruj metadane agenta, ustawienia modelu, wtyczki i prompt systemowy",
+ "tools.builtins.lobe-agent-builder.title": "Kreator Agenta",
+ "tools.builtins.lobe-agent-documents.description": "Zarządzaj dokumentami powiązanymi z agentem (lista, tworzenie, odczyt, edycja, usuwanie, zmiana nazwy) oraz regułami ładowania",
+ "tools.builtins.lobe-agent-documents.title": "Dokumenty",
+ "tools.builtins.lobe-agent-management.description": "Twórz, zarządzaj i orkiestruj agentów AI",
+ "tools.builtins.lobe-agent-management.title": "Zarządzanie Agentami",
"tools.builtins.lobe-artifacts.description": "Twórz i podglądaj na żywo interaktywne komponenty UI, wizualizacje danych, wykresy, grafikę SVG i aplikacje internetowe. Twórz bogate treści wizualne, z którymi użytkownicy mogą bezpośrednio wchodzić w interakcję.",
"tools.builtins.lobe-artifacts.readme": "Twórz i podglądaj na żywo interaktywne komponenty UI, wizualizacje danych, wykresy, grafiki SVG oraz aplikacje internetowe. Twórz bogate treści wizualne, z którymi użytkownicy mogą wchodzić w interakcję bezpośrednio.",
"tools.builtins.lobe-artifacts.title": "Artefakty",
+ "tools.builtins.lobe-brief.description": "Raportuj postępy, dostarczaj wyniki i proś użytkownika o decyzje",
+ "tools.builtins.lobe-brief.title": "Narzędzia Brief",
"tools.builtins.lobe-calculator.description": "Wykonuj obliczenia matematyczne, rozwiązuj równania i pracuj z wyrażeniami symbolicznymi",
"tools.builtins.lobe-calculator.readme": "Zaawansowany kalkulator matematyczny obsługujący podstawową arytmetykę, równania algebraiczne, operacje rachunku różniczkowego i matematyki symbolicznej. Obejmuje konwersję podstaw, rozwiązywanie równań, różniczkowanie, całkowanie i więcej.",
"tools.builtins.lobe-calculator.title": "Kalkulator",
"tools.builtins.lobe-cloud-sandbox.description": "Uruchamiaj kod w Pythonie, JavaScripcie i TypeScripcie w izolowanym środowisku chmurowym. Wykonuj polecenia powłoki, zarządzaj plikami, przeszukuj treści za pomocą wyrażeń regularnych i bezpiecznie eksportuj wyniki.",
"tools.builtins.lobe-cloud-sandbox.readme": "Uruchamiaj kod w Pythonie, JavaScript i TypeScript w izolowanym środowisku chmurowym. Wykonuj polecenia powłoki, zarządzaj plikami, przeszukuj treści za pomocą wyrażeń regularnych i bezpiecznie eksportuj wyniki.",
"tools.builtins.lobe-cloud-sandbox.title": "Piaskownica w chmurze",
+ "tools.builtins.lobe-creds.description": "Zarządzaj danymi uwierzytelniającymi użytkownika do autoryzacji, wstrzykiwania zmiennych środowiskowych i weryfikacji API — obsługuj klucze API, tokeny OAuth i sekrety do integracji z usługami zewnętrznymi.",
+ "tools.builtins.lobe-creds.title": "Dane Uwierzytelniające",
+ "tools.builtins.lobe-cron.description": "Zarządzaj zaplanowanymi zadaniami uruchamianymi automatycznie o określonych porach. Twórz, aktualizuj, włączaj/wyłączaj i monitoruj cykliczne zadania dla swoich agentów.",
+ "tools.builtins.lobe-cron.title": "Zadania Cykliczne",
+ "tools.builtins.lobe-group-agent-builder.description": "Konfiguruj metadane grup, członków i treści współdzielone dla grup wieloagentowych",
+ "tools.builtins.lobe-group-agent-builder.title": "Kreator Agenta Grupowego",
+ "tools.builtins.lobe-group-management.description": "Orkiestruj i zarządzaj rozmowami grup wieloagentowych",
+ "tools.builtins.lobe-group-management.title": "Zarządzanie Grupami",
"tools.builtins.lobe-gtd.description": "Planuj cele i śledź postępy, korzystając z metodologii GTD. Twórz plany strategiczne, zarządzaj listami zadań ze śledzeniem statusu i wykonuj długotrwałe zadania asynchroniczne.",
"tools.builtins.lobe-gtd.readme": "Planuj cele i śledź postępy, korzystając z metodologii GTD. Twórz plany strategiczne, zarządzaj listami zadań z monitorowaniem statusu i wykonuj długotrwałe zadania asynchroniczne.",
"tools.builtins.lobe-gtd.title": "Narzędzia GTD",
+ "tools.builtins.lobe-knowledge-base.description": "Przeszukuj przesłane dokumenty i wiedzę domenową za pomocą semantycznego wyszukiwania wektorowego — jako trwałe, wielokrotnego użytku źródło informacji",
+ "tools.builtins.lobe-knowledge-base.title": "Baza Wiedzy",
"tools.builtins.lobe-local-system.description": "Uzyskaj dostęp do lokalnego systemu plików na komputerze. Czytaj, zapisuj, przeszukuj i organizuj pliki. Wykonuj polecenia powłoki z obsługą zadań w tle i przeszukuj treści za pomocą wyrażeń regularnych.",
"tools.builtins.lobe-local-system.readme": "Uzyskaj dostęp do lokalnego systemu plików na komputerze. Czytaj, zapisuj, przeszukuj i organizuj pliki. Wykonuj polecenia powłoki z obsługą zadań w tle i przeszukuj treści za pomocą wyrażeń regularnych.",
"tools.builtins.lobe-local-system.title": "System lokalny",
+ "tools.builtins.lobe-message.description": "Wysyłaj, odczytuj, edytuj i zarządzaj wiadomościami w wielu platformach komunikacyjnych z użyciem jednolitego interfejsu",
+ "tools.builtins.lobe-message.readme": "Wieloplatformowe narzędzie do komunikacji obsługujące Discord, Telegram, Slack, Google Chat i IRC. Zapewnia ujednolicone API dla operacji na wiadomościach, reakcji, przypięć, wątków, zarządzania kanałami i funkcji specyficznych dla platform, takich jak ankiety.",
+ "tools.builtins.lobe-message.title": "Wiadomości",
"tools.builtins.lobe-notebook.description": "Twórz i zarządzaj trwałymi dokumentami w ramach tematów rozmów. Zapisuj notatki, raporty, artykuły i treści w formacie markdown, które będą dostępne w kolejnych sesjach.",
"tools.builtins.lobe-notebook.readme": "Twórz i zarządzaj trwałymi dokumentami w ramach tematów rozmów. Zapisuj notatki, raporty, artykuły i treści w formacie markdown, które pozostają dostępne między sesjami.",
"tools.builtins.lobe-notebook.title": "Notatnik",
+ "tools.builtins.lobe-page-agent.description": "Twórz, odczytuj, aktualizuj i usuwaj węzły w dokumentach o strukturze XML",
+ "tools.builtins.lobe-page-agent.readme": "Twórz i edytuj dokumenty strukturalne z precyzyjną kontrolą na poziomie węzłów. Inicjalizuj z Markdown, wykonuj zbiorcze operacje wstawiania/modyfikacji/usuwania oraz wyszukuj i zamieniaj tekst w dokumentach.",
+ "tools.builtins.lobe-page-agent.title": "Dokument",
+ "tools.builtins.lobe-remote-device.description": "Odkrywaj i zarządzaj połączeniami z urządzeniami desktopowymi w trybie zdalnym",
+ "tools.builtins.lobe-remote-device.readme": "Zarządzaj połączeniami z urządzeniami desktopowymi. Wyświetlaj listę dostępnych urządzeń, aktywuj urządzenie do operacji zdalnych i sprawdzaj status połączenia.",
+ "tools.builtins.lobe-remote-device.title": "Urządzenie Zdalne",
+ "tools.builtins.lobe-skill-store.description": "Przeglądaj i instaluj umiejętności agentów z marketplace LobeHub. Używaj, gdy potrzebujesz rozszerzonych możliwości lub chcesz zainstalować konkretną umiejętność.",
+ "tools.builtins.lobe-skill-store.title": "Sklep z Umiejętnościami",
+ "tools.builtins.lobe-skills.description": "Aktywuj i używaj wielokrotnego użytku pakietów umiejętności",
+ "tools.builtins.lobe-skills.title": "Umiejętności",
+ "tools.builtins.lobe-task.description": "Twórz, wyświetlaj, edytuj i usuwaj zadania z zależnościami i konfiguracją przeglądu",
+ "tools.builtins.lobe-task.title": "Narzędzia Zadań",
+ "tools.builtins.lobe-topic-reference.description": "Pobieraj kontekst z rozmów przypisanych do określonych tematów",
+ "tools.builtins.lobe-topic-reference.title": "Odwołanie do Tematu",
+ "tools.builtins.lobe-user-interaction.description": "Zadawaj użytkownikom pytania poprzez interakcje w interfejsie i obserwuj ich wyniki",
+ "tools.builtins.lobe-user-interaction.title": "Interakcja z Użytkownikiem",
"tools.builtins.lobe-user-memory.description": "Buduj spersonalizowaną bazę wiedzy o sobie. Zapamiętuj preferencje, śledź aktywności i doświadczenia, przechowuj informacje tożsamościowe i przywołuj istotny kontekst w przyszłych rozmowach.",
"tools.builtins.lobe-user-memory.readme": "Buduj spersonalizowaną bazę wiedzy o sobie. Zapamiętuj preferencje, śledź aktywności i doświadczenia, przechowuj informacje tożsamościowe i przywołuj istotny kontekst w przyszłych rozmowach.",
"tools.builtins.lobe-user-memory.title": "Pamięć",
+ "tools.builtins.lobe-web-browsing.description": "Wyszukuj aktualne informacje w sieci i przeglądaj strony internetowe, aby wyodrębniać treści. Obsługuje wiele wyszukiwarek, kategorii i zakresów czasowych.",
+ "tools.builtins.lobe-web-browsing.readme": "Wyszukuj aktualne informacje w sieci i przeglądaj strony internetowe w celu wyodrębniania treści. Obsługuje wiele wyszukiwarek, kategorii i zakresów czasowych dla kompleksowych badań.",
+ "tools.builtins.lobe-web-browsing.title": "Przeglądanie Sieci",
+ "tools.builtins.lobe-web-onboarding.description": "Steruj procesem onboardingu w sieci za pomocą kontrolowanego środowiska agenta",
+ "tools.builtins.lobe-web-onboarding.title": "Web Onboarding",
+ "tools.builtins.lobehub.description": "Zarządzaj platformą LobeHub przez CLI — bazy wiedzy, pamięć, agenci, pliki, wyszukiwanie, generowanie i więcej.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Nie zainstalowano",
+ "tools.builtins.task.description": "Zarządzanie zadaniami i ich wykonywanie — twórz, śledź, przeglądaj i finalizuj zadania przez CLI.",
+ "tools.builtins.task.title": "Zadanie",
"tools.builtins.uninstall": "Odinstaluj",
"tools.builtins.uninstallConfirm.desc": "Czy na pewno chcesz odinstalować {{name}}? Ta umiejętność zostanie usunięta z bieżącego agenta.",
"tools.builtins.uninstallConfirm.title": "Odinstaluj {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Odłączyć {{name}}?",
"tools.lobehubSkill.disconnected": "Rozłączono",
"tools.lobehubSkill.error": "Błąd",
+ "tools.lobehubSkill.providers.github.description": "GitHub to platforma do kontroli wersji i współpracy, umożliwiająca programistom hostowanie, przeglądanie i zarządzanie repozytoriami kodu.",
+ "tools.lobehubSkill.providers.github.readme": "Połącz się z GitHubem, aby uzyskać dostęp do swoich repozytoriów, tworzyć i zarządzać zgłoszeniami, przeglądać pull requesty i współpracować nad kodem — wszystko poprzez naturalną rozmowę z inteligentnym asystentem.",
"tools.lobehubSkill.providers.linear.description": "Linear to nowoczesne narzędzie do śledzenia zgłoszeń i zarządzania projektami, zaprojektowane dla zespołów wysokiej wydajności, które chcą szybciej tworzyć lepsze oprogramowanie",
"tools.lobehubSkill.providers.linear.readme": "Wykorzystaj możliwości Linear bezpośrednio w swoim asystencie AI. Twórz i aktualizuj zgłoszenia, zarządzaj sprintami, śledź postępy projektów i usprawniaj procesy deweloperskie — wszystko za pomocą naturalnej rozmowy.",
"tools.lobehubSkill.providers.microsoft.description": "Kalendarz Outlook to zintegrowane narzędzie do planowania w ramach Microsoft Outlook, umożliwiające tworzenie spotkań, organizowanie wydarzeń i efektywne zarządzanie czasem.",
"tools.lobehubSkill.providers.microsoft.readme": "Zintegruj się z Kalendarzem Outlook, aby przeglądać, tworzyć i zarządzać wydarzeniami bezproblemowo. Planuj spotkania, sprawdzaj dostępność, ustawiaj przypomnienia i koordynuj czas — wszystko za pomocą poleceń w języku naturalnym.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) to platforma społecznościowa do dzielenia się aktualnościami w czasie rzeczywistym, wiadomościami i angażowania odbiorców poprzez posty, odpowiedzi i wiadomości bezpośrednie.",
"tools.lobehubSkill.providers.twitter.readme": "Połącz się z X (Twitter), aby publikować tweety, zarządzać swoim timeline’em i angażować odbiorców. Twórz treści, planuj posty, monitoruj wzmianki i buduj swoją obecność w mediach społecznościowych z pomocą konwersacyjnej AI.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel to platforma chmurowa dla programistów frontendu, oferująca hosting i funkcje serverless do łatwego wdrażania aplikacji webowych.",
+ "tools.lobehubSkill.providers.vercel.readme": "Połącz się z Vercel, aby zarządzać wdrożeniami, monitorować status projektów i kontrolować infrastrukturę. Wdrażaj aplikacje, sprawdzaj logi buildów, zarządzaj zmiennymi środowiskowymi i skaluj projekty za pomocą konwersacji z AI.",
"tools.notInstalled": "Nie zainstalowano",
"tools.notInstalledWarning": "Ta umiejętność nie jest obecnie zainstalowana, co może wpłynąć na funkcjonalność agenta.",
"tools.plugins.enabled": "Włączone: {{num}}",
diff --git a/locales/pl-PL/subscription.json b/locales/pl-PL/subscription.json
index a965526d05..0c524987c2 100644
--- a/locales/pl-PL/subscription.json
+++ b/locales/pl-PL/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Ulepsz do",
"credits.topUp.upgradeSuffix": "aby zaoszczędzić ${{savings}}",
"credits.topUp.validityInfo": "Ważność: {{months}} miesięcy",
+ "crossPlatform.desc": "Ta subskrypcja została zakupiona za pośrednictwem aplikacji mobilnej i nie może być tutaj zmieniona. Proszę zarządzać subskrypcją na swoim urządzeniu mobilnym.",
+ "crossPlatform.manageOnMobile": "Zarządzaj na urządzeniu mobilnym",
+ "crossPlatform.title": "Subskrypcja międzyplatformowa",
"currentPlan.cancelAlert": "Subskrypcja zostanie anulowana po {{canceledAt}}. Do tego czasu możesz ją przywrócić w \"Zarządzaj subskrypcją\"",
"currentPlan.downgradeAlert": "Zostanie obniżony do {{plan}} po {{downgradedAt}}.",
"currentPlan.management": "Zarządzaj subskrypcją",
diff --git a/locales/pl-PL/video.json b/locales/pl-PL/video.json
index 91bf6b02c6..4109bd4568 100644
--- a/locales/pl-PL/video.json
+++ b/locales/pl-PL/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Klatka początkowa",
"config.prompt.placeholder": "Opisz wideo, które chcesz wygenerować",
"config.prompt.placeholderWithRef": "Opisz scenę, którą chcesz wygenerować na obrazie",
+ "config.promptExtend.label": "Rozszerzenie promptu",
"config.referenceImage.label": "Obraz referencyjny",
"config.resolution.label": "Rozdzielczość",
"config.seed.label": "Ziarno",
"config.seed.random": "Losowe",
"config.size.label": "Rozmiar",
+ "config.watermark.label": "Znak wodny",
+ "config.webSearch.label": "Wyszukiwanie w sieci",
"generation.actions.copyError": "Skopiuj komunikat o błędzie",
"generation.actions.errorCopied": "Komunikat o błędzie skopiowany do schowka",
"generation.actions.errorCopyFailed": "Nie udało się skopiować komunikatu o błędzie",
diff --git a/locales/pt-BR/agent.json b/locales/pt-BR/agent.json
index 03b9ca8a1e..3dafa6f4db 100644
--- a/locales/pt-BR/agent.json
+++ b/locales/pt-BR/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot conectado com sucesso",
"channel.connecting": "Conectando...",
"channel.connectionConfig": "Configuração de Conexão",
+ "channel.connectionMode": "Modo de Conexão",
+ "channel.connectionModeHint": "WebSocket é recomendado para novos bots. Use Webhook se seu bot já tiver um URL de callback configurado na Plataforma Aberta do QQ.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Copiado para a área de transferência",
"channel.copy": "Copiar",
"channel.credentials": "Credenciais",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Por favor, copie este URL e cole no campo {{fieldName}} no Portal de Desenvolvedores do {{name}}.",
"channel.exportConfig": "Exportar Configuração",
"channel.feishu.description": "Conecte este assistente ao Feishu para bate-papo privado e em grupo.",
+ "channel.feishu.webhookMigrationDesc": "O modo WebSocket oferece entrega de eventos em tempo real sem a necessidade de um URL público de callback. Para migrar, altere o Modo de Conexão para WebSocket em Configurações Avançadas. Não é necessária configuração adicional na Plataforma Aberta do Feishu/Lark.",
+ "channel.feishu.webhookMigrationTitle": "Considere migrar para o modo WebSocket",
"channel.historyLimit": "Limite de Mensagens no Histórico",
"channel.historyLimitHint": "Número padrão de mensagens a serem buscadas ao ler o histórico do canal",
"channel.importConfig": "Importar Configuração",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Obrigatória para verificação de interação",
"channel.qq.appIdHint": "Seu ID do App Bot do QQ na Plataforma Aberta do QQ",
"channel.qq.description": "Conecte este assistente ao QQ para bate-papos em grupo e mensagens diretas.",
+ "channel.qq.webhookMigrationDesc": "O modo WebSocket oferece entrega de eventos em tempo real e reconexão automática, sem a necessidade de um URL de callback. Para migrar, crie um novo bot na Plataforma Aberta do QQ sem configurar um URL de callback e, em seguida, altere o Modo de Conexão para WebSocket em Configurações Avançadas.",
+ "channel.qq.webhookMigrationTitle": "Considere migrar para o modo WebSocket",
"channel.removeChannel": "Remover Canal",
"channel.removeFailed": "Falha ao remover canal",
"channel.removed": "Canal removido",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Segredo de Assinatura",
"channel.signingSecretHint": "Usado para verificar solicitações de webhook.",
"channel.slack.appIdHint": "Seu ID de App do Slack no painel da API do Slack (começa com A).",
+ "channel.slack.appToken": "Token de Nível de Aplicativo",
+ "channel.slack.appTokenHint": "Necessário para o Socket Mode (WebSocket). Gere um token de nível de aplicativo (xapp-...) em Informações Básicas nas configurações do seu app Slack.",
"channel.slack.description": "Conecte este assistente ao Slack para conversas em canais e mensagens diretas.",
+ "channel.slack.webhookMigrationDesc": "O Socket Mode oferece entrega de eventos em tempo real via WebSocket, sem expor um endpoint HTTP público. Para migrar, ative o Socket Mode nas configurações do seu app Slack, gere um Token de Nível de Aplicativo e então altere o Modo de Conexão para WebSocket em Configurações Avançadas.",
+ "channel.slack.webhookMigrationTitle": "Considere migrar para o Socket Mode (WebSocket)",
"channel.telegram.description": "Conecte este assistente ao Telegram para bate-papo privado e em grupo.",
"channel.testConnection": "Testar Conexão",
"channel.testFailed": "Teste de conexão falhou",
diff --git a/locales/pt-BR/chat.json b/locales/pt-BR/chat.json
index 3f98ab0ac0..a3e2de2242 100644
--- a/locales/pt-BR/chat.json
+++ b/locales/pt-BR/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Grupo excluído com sucesso",
"confirmRemoveSessionItemAlert": "Você está prestes a excluir este agente. Uma vez excluído, não poderá ser recuperado. Confirme sua ação.",
"confirmRemoveSessionSuccess": "Agente removido com sucesso",
+ "createModal.createBlank": "Criar em branco",
+ "createModal.groupPlaceholder": "Descreva o que este grupo deve fazer...",
+ "createModal.groupTitle": "O que o seu grupo deve fazer?",
+ "createModal.placeholder": "Descreva o que o seu agente deve fazer...",
+ "createModal.title": "O que o seu agente deve fazer?",
"defaultAgent": "Agente Padrão",
"defaultGroupChat": "Grupo",
"defaultList": "Lista Padrão",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Contexto muito longo, comprimindo o histórico...",
"operation.execAgentRuntime": "Preparando resposta",
"operation.execClientTask": "Executando tarefa",
+ "operation.execServerAgentRuntime": "Executando… Você pode mudar de tarefa ou fechar a página — a tarefa continuará em andamento.",
"operation.sendMessage": "Enviando mensagem",
"owner": "Proprietário do Grupo",
"pageCopilot.title": "Agente da Página",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Buscando detalhes...",
"task.status.initializing": "Inicializando tarefa...",
"task.subtask": "Subtarefa",
+ "task.title": "Tarefas",
"thread.divider": "Subtópico",
"thread.threadMessageCount": "{{messageCount}} mensagens",
"thread.title": "Subtópico",
@@ -429,9 +436,11 @@
"toolAuth.title": "Autorizar Habilidades para este Agente",
"topic.checkOpenNewTopic": "Iniciar um novo tópico?",
"topic.checkSaveCurrentMessages": "Deseja salvar a conversa atual como um tópico?",
+ "topic.defaultTitle": "Tópico sem título",
"topic.openNewTopic": "Abrir Novo Tópico",
"topic.recent": "Tópicos Recentes",
"topic.saveCurrentMessages": "Salvar sessão atual como tópico",
+ "topic.viewAll": "Ver todos os tópicos",
"translate.action": "Traduzir",
"translate.clear": "Limpar Tradução",
"tts.action": "Texto para Fala",
diff --git a/locales/pt-BR/common.json b/locales/pt-BR/common.json
index 753c3fb399..40298ae781 100644
--- a/locales/pt-BR/common.json
+++ b/locales/pt-BR/common.json
@@ -343,10 +343,19 @@
"mail.support": "Suporte por E-mail",
"more": "Mais",
"navPanel.agent": "Agente",
+ "navPanel.customizeSidebar": "Personalizar barra lateral",
"navPanel.displayItems": "Itens Visíveis",
+ "navPanel.hidden": "Oculto",
+ "navPanel.hideSection": "Ocultar seção",
"navPanel.library": "Biblioteca",
+ "navPanel.moveDown": "Mover para baixo",
+ "navPanel.moveUp": "Mover para cima",
+ "navPanel.pinned": "Fixado",
"navPanel.searchAgent": "Buscar Agente...",
+ "navPanel.searchRecent": "Pesquisar recentes...",
"navPanel.searchResultEmpty": "Nenhum resultado encontrado",
+ "navPanel.show": "Mostrar",
+ "navPanel.visible": "Visível",
"new": "Novo",
"noContent": "Sem conteúdo",
"oauth": "Login SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Apoie-nos",
"productHunt.description": "Apoie-nos no Product Hunt. Seu apoio é muito importante para nós!",
"productHunt.title": "Estamos no Product Hunt!",
+ "promptTransform.action": "Aprimorar ideia",
+ "promptTransform.actions.rewrite": "Expandir detalhes",
+ "promptTransform.actions.translate": "Traduzir",
+ "promptTransform.status.rewrite": "Expandindo detalhes...",
+ "promptTransform.status.translate": "Traduzindo...",
+ "recents": "Recentes",
"regenerate": "Regenerar",
"releaseNotes": "Detalhes da Versão",
"rename": "Renomear",
@@ -400,6 +415,7 @@
"tab.audio": "Áudio",
"tab.chat": "Chat",
"tab.community": "Comunidade",
+ "tab.create": "Criar",
"tab.discover": "Descobrir",
"tab.eval": "Laboratório de Avaliação",
"tab.files": "Arquivos",
diff --git a/locales/pt-BR/image.json b/locales/pt-BR/image.json
index 03dd0cdf24..26411f4756 100644
--- a/locales/pt-BR/image.json
+++ b/locales/pt-BR/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Modelo",
"config.prompt.placeholder": "Descreva o que você deseja gerar",
"config.prompt.placeholderWithRef": "Descreva como você deseja ajustar a imagem",
+ "config.promptExtend.label": "Extensão de Prompt",
"config.quality.label": "Qualidade da Imagem",
"config.quality.options.hd": "Alta Definição",
"config.quality.options.standard": "Padrão",
@@ -24,6 +25,8 @@
"config.size.label": "Tamanho",
"config.steps.label": "Etapas",
"config.title": "Configuração",
+ "config.watermark.label": "Marca d'água",
+ "config.webSearch.label": "Pesquisa na Web",
"config.width.label": "Largura",
"generation.actions.applySeed": "Aplicar Semente",
"generation.actions.copyError": "Copiar Mensagem de Erro",
diff --git a/locales/pt-BR/labs.json b/locales/pt-BR/labs.json
index 47bbe8578a..044e84224a 100644
--- a/locales/pt-BR/labs.json
+++ b/locales/pt-BR/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Agrupe mensagens do agente e os resultados das chamadas de ferramentas para exibição conjunta",
"features.assistantMessageGroup.title": "Agrupamento de Mensagens do Agente",
+ "features.gatewayMode.desc": "Execute tarefas de agente no servidor via Gateway WebSocket em vez de executá-las localmente. Permite uma execução mais rápida e reduz o uso de recursos do cliente.",
+ "features.gatewayMode.title": "Execução de Agente no Servidor (Gateway)",
"features.groupChat.desc": "Ative a coordenação de bate-papo em grupo com múltiplos agentes.",
"features.groupChat.title": "Bate-Papo em Grupo (Multiagente)",
"features.inputMarkdown.desc": "Renderize Markdown na área de entrada em tempo real (texto em negrito, blocos de código, tabelas etc.).",
diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json
index fa8faf5d96..5ba00899aa 100644
--- a/locales/pt-BR/models.json
+++ b/locales/pt-BR/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Modelo de alto desempenho na China, superando modelos internacionais em tarefas em chinês como conhecimento, textos longos e geração criativa. Também possui capacidades multimodais líderes do setor com resultados fortes em benchmarks reconhecidos.",
"Baichuan4.description": "Desempenho doméstico de ponta, superando modelos internacionais líderes em tarefas em chinês como conhecimento enciclopédico, textos longos e geração criativa. Também oferece capacidades multimodais líderes do setor e resultados sólidos em benchmarks.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS é uma família de LLMs open-source da ByteDance Seed, projetada para lidar com contextos longos, raciocínio, agentes e habilidades gerais. O Seed-OSS-36B-Instruct é um modelo de 36B ajustado por instruções com suporte nativo a contextos ultra longos, ideal para processar grandes documentos ou bases de código. É otimizado para raciocínio, geração de código e tarefas de agente (uso de ferramentas), mantendo forte capacidade geral. Um recurso-chave é o \"Orçamento de Pensamento\", que permite flexibilidade no comprimento do raciocínio para melhorar a eficiência.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR é um modelo visão‑linguagem da DeepSeek AI focado em OCR e \"compressão óptica de contexto\". Ele explora a compressão de contexto a partir de imagens, processa documentos de forma eficiente e os converte em texto estruturado (por exemplo, Markdown). Reconhece texto em imagens com alta precisão, sendo ideal para digitalização de documentos, extração de texto e processamento estruturado.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, o modelo maior e mais inteligente da suíte DeepSeek, foi destilado na arquitetura Llama 70B. Benchmarks e avaliações humanas mostram que é mais inteligente que o Llama 70B base, especialmente em tarefas de matemática e precisão factual.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Modelo destilado do DeepSeek-R1 baseado no Qwen2.5-Math-1.5B. Aprendizado por reforço e dados de inicialização a frio otimizam o desempenho em raciocínio, estabelecendo novos benchmarks multitarefa para modelos open-source.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Os modelos DeepSeek-R1-Distill são ajustados a partir de modelos open-source usando dados de amostra gerados pelo DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Fornecedor: sophnet. O DeepSeek V3 Fast é a versão de alta TPS do DeepSeek V3 0324, com precisão total (não quantizado), respostas mais rápidas e desempenho superior em código e matemática.",
"DeepSeek-V3.1-Fast.description": "O DeepSeek V3.1 Fast é a variante rápida de alta TPS do DeepSeek V3.1. Modo de pensamento híbrido: via templates de chat, um único modelo suporta modos com e sem raciocínio. Uso de ferramentas mais inteligente: o pós-treinamento melhora o desempenho em tarefas de agente e uso de ferramentas.",
"DeepSeek-V3.1-Think.description": "Modo de pensamento do DeepSeek-V3.1: um novo modelo híbrido de raciocínio com modos de pensamento e não pensamento, mais eficiente que o DeepSeek-R1-0528. Otimizações no pós-treinamento melhoram significativamente o uso de ferramentas de agente e o desempenho em tarefas de agente.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 introduz um mecanismo de atenção esparsa, com o objetivo de melhorar a eficiência de treinamento e inferência no processamento de textos longos, com preço menor que o deepseek-v3.1.",
"DeepSeek-V3.description": "O DeepSeek-V3 é um modelo MoE desenvolvido pela DeepSeek. Supera outros modelos open-source como Qwen2.5-72B e Llama-3.1-405B em muitos benchmarks e é competitivo com modelos fechados líderes como GPT-4o e Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "O Doubao-lite oferece respostas ultra rápidas e melhor custo-benefício, com opções flexíveis para diversos cenários. Suporta contexto de 128K para inferência e ajuste fino.",
"Doubao-lite-32k.description": "O Doubao-lite oferece respostas ultra rápidas e melhor custo-benefício, com opções flexíveis para diversos cenários. Suporta contexto de 32K para inferência e ajuste fino.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Modelo de alto desempenho para raciocínio, programação e tarefas de agentes.",
"GLM-4.6.description": "GLM-4.6: Modelo da geração anterior.",
"GLM-4.7.description": "GLM-4.7 é o modelo principal mais recente da Zhipu, aprimorado para cenários de Codificação Agente com capacidades de programação melhoradas, planejamento de tarefas de longo prazo e colaboração com ferramentas.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Versão otimizada do GLM-5 com inferência mais rápida para tarefas de programação.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo é um modelo base profundamente otimizado para cenários agentivos. Foi especificamente ajustado desde a fase de treinamento para atender aos requisitos centrais de tarefas de agentes, aprimorando capacidades como invocação de ferramentas, seguir comandos e execução de cadeias longas. É ideal para construir assistentes agentes de alto desempenho.",
"GLM-5.1.description": "GLM-5.1 é o mais recente modelo carro-chefe da Zhipu, uma iteração aprimorada do GLM-5 com capacidades de engenharia agêntica melhoradas para engenharia de sistemas complexos e tarefas de longo prazo.",
- "GLM-5.description": "GLM-5 é o modelo base de próxima geração da Zhipu, projetado para Engenharia Agente. Ele oferece produtividade confiável em sistemas complexos de engenharia e tarefas de longo prazo. Em capacidades de programação e agentes, o GLM-5 alcança desempenho de ponta entre modelos de código aberto.",
+ "GLM-5.description": "GLM-5 é o modelo base de próxima geração da Zhipu, desenvolvido para Agentic Engineering. Ele oferece produtividade confiável em engenharia de sistemas complexos e tarefas agentivas de longo horizonte. Em programação e capacidades de agente, o GLM-5 atinge desempenho de ponta entre modelos open-source. Em cenários reais de programação, sua experiência de uso se aproxima da do Claude Opus 4.5. Ele se destaca em engenharia de sistemas complexos e tarefas agentivas prolongadas, sendo uma base ideal para assistentes agentes de uso geral.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) é um modelo inovador para diversos domínios e tarefas complexas.",
"HY-Image-V3.0.description": "Poderosos recursos de extração de características da imagem original e preservação de detalhes, proporcionando uma textura visual mais rica e produzindo visuais de alta precisão, bem compostos e de qualidade profissional.",
"HelloMeme.description": "HelloMeme é uma ferramenta de IA que gera memes, GIFs ou vídeos curtos a partir de imagens ou movimentos fornecidos. Não requer habilidades de desenho ou programação—basta uma imagem de referência para criar conteúdo divertido, atrativo e estilisticamente consistente.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter é um modelo de geração de personagens personalizados sem necessidade de ajuste, lançado pela Tencent AI em 2025, com foco em geração de personagens de alta fidelidade e consistência entre cenários. Pode modelar um personagem a partir de uma única imagem de referência e transferi-lo com flexibilidade entre estilos, ações e cenários.",
"InternVL2-8B.description": "InternVL2-8B é um poderoso modelo visão-linguagem que suporta processamento multimodal de imagem e texto, reconhecendo com precisão o conteúdo visual e gerando descrições ou respostas relevantes.",
"InternVL2.5-26B.description": "InternVL2.5-26B é um poderoso modelo visão-linguagem que suporta processamento multimodal de imagem e texto, reconhecendo com precisão o conteúdo visual e gerando descrições ou respostas relevantes.",
+ "KAT-Coder-Air-V1.description": "Uma versão leve da série KAT-Coder. Projetada especificamente para Agentic Coding, cobre de forma abrangente tarefas e cenários de programação. Com uso de aprendizado por reforço em larga escala baseado em agentes, possibilita comportamentos inteligentes emergentes e supera significativamente modelos comparáveis em desempenho de codificação.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B é a versão experimental de inovação em RL da série KAT-Coder, alcançando um desempenho notável de 74,6% no benchmark SWE-Bench Verified, estabelecendo um novo recorde entre modelos open-source. Focado em Agentic Coding, atualmente oferece suporte apenas ao framework SWE-Agent, mas também pode ser usado para conversas simples.",
+ "KAT-Coder-Pro-V1.description": "Projetado para Agentic Coding, cobre de forma abrangente tarefas e cenários de programação, alcançando comportamentos inteligentes emergentes por meio de aprendizado por reforço em larga escala, superando significativamente modelos semelhantes em desempenho de escrita de código.",
+ "KAT-Coder-Pro-V2.description": "O mais novo modelo de alto desempenho da equipe Kuaishou Kwaipilot, projetado para projetos empresariais complexos e integração SaaS. Ele se destaca em cenários relacionados a código e é compatível com vários tipos de frameworks de agentes (Claude Code, OpenCode, KiloCode), possui suporte nativo ao OpenClaw e é otimizado especialmente para estética de páginas front-end.",
+ "Kimi-K2.5.description": "Kimi K2.5 é o modelo mais avançado da linha Kimi, oferecendo desempenho SOTA open-source em tarefas agentivas, programação e compreensão visual. Suporta entradas multimodais e modos com e sem raciocínio.",
"Kolors.description": "Kolors é um modelo de texto para imagem desenvolvido pela equipe Kolors da Kuaishou. Treinado com bilhões de parâmetros, apresenta vantagens notáveis em qualidade visual, compreensão semântica do chinês e renderização de texto.",
"Kwai-Kolors/Kolors.description": "Kolors é um modelo de texto para imagem de difusão latente em larga escala da equipe Kolors da Kuaishou. Treinado com bilhões de pares texto-imagem, destaca-se em qualidade visual, precisão semântica complexa e renderização de texto em chinês/inglês, com forte compreensão e geração de conteúdo em chinês.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) é um modelo de código aberto com 32 bilhões de parâmetros para tarefas de engenharia de software. Alcança uma taxa de resolução de 62,4% no SWE-Bench Verified, ocupando o 5º lugar entre os modelos abertos. É otimizado por meio de mid-training, SFT e RL para preenchimento de código, correção de bugs e revisão de código.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modelo de linguagem pequeno e de ponta com forte compreensão linguística, excelente raciocínio e geração de texto.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 é o modelo Llama multilíngue de código aberto mais avançado, oferecendo desempenho próximo ao de modelos de 405B a um custo muito baixo. Baseado em Transformer e aprimorado com SFT e RLHF para utilidade e segurança. A versão ajustada por instruções é otimizada para conversas multilíngues e supera muitos modelos abertos e fechados em benchmarks da indústria. Data de corte do conhecimento: dezembro de 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick é um modelo MoE de grande porte com ativação eficiente de especialistas para desempenho robusto em raciocínio.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro é projetado especificamente para fluxos de trabalho agentivos de alta intensidade em cenários do mundo real. Possui mais de 1 trilhão de parâmetros totais (42B ativados), adota uma arquitetura inovadora de atenção híbrida e suporta um comprimento de contexto ultralongo de até 1 milhão de tokens. Baseado em um modelo fundamental poderoso, ampliamos continuamente os recursos computacionais em um conjunto mais amplo de cenários agentivos, expandindo o espaço de ação da inteligência e alcançando forte generalização — da codificação à execução de tarefas reais (\"claw\").",
"MiniMax-Hailuo-02.description": "O modelo de geração de vídeo de próxima geração, MiniMax Hailuo 02, foi oficialmente lançado, suportando resolução 1080P e geração de vídeos de 10 segundos.",
"MiniMax-Hailuo-2.3-Fast.description": "Novo modelo de geração de vídeo com melhorias abrangentes em movimento corporal, realismo físico e seguimento de instruções.",
"MiniMax-Hailuo-2.3.description": "Novo modelo de geração de vídeo com melhorias abrangentes em movimento corporal, realismo físico e seguimento de instruções.",
"MiniMax-M1.description": "Um novo modelo de raciocínio interno com 80 mil cadeias de pensamento e 1 milhão de tokens de entrada, oferecendo desempenho comparável aos principais modelos globais.",
"MiniMax-M2-Stable.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes, com maior concorrência para uso comercial.",
- "MiniMax-M2.1-Lightning.description": "Capacidades poderosas de programação multilíngue com inferência mais rápida e eficiente.",
"MiniMax-M2.1-highspeed.description": "Poderosas capacidades de programação multilíngue, experiência de programação amplamente aprimorada. Mais rápido e eficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 é o principal modelo open-source da MiniMax, focado em resolver tarefas complexas do mundo real. Seus principais pontos fortes são as capacidades de programação multilíngue e a habilidade de atuar como um Agente para resolver tarefas complexas.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Mesmo desempenho do M2.5 com inferência mais rápida.",
"MiniMax-M2.5.description": "MiniMax-M2.5 é um modelo de grande porte de código aberto da MiniMax, focado em resolver tarefas complexas do mundo real. Seus principais pontos fortes são as capacidades de programação multilíngue e a habilidade de resolver tarefas complexas como um Agente.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Mesmo desempenho do M2.7 com inferência significativamente mais rápida.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Iniciando a jornada de autoaperfeiçoamento recursivo, capacidades de engenharia de ponta no mundo real.",
+ "MiniMax-M2.7.description": "Primeiro modelo autoevolutivo com desempenho de topo em programação e tarefas agentivas (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Modelo da geração anterior.",
"MiniMax-Text-01.description": "O MiniMax-01 introduz atenção linear em larga escala além dos Transformers clássicos, com 456 bilhões de parâmetros e 45,9 bilhões ativados por passagem. Alcança desempenho de ponta e suporta até 4 milhões de tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 é um modelo de raciocínio de atenção híbrida de grande escala com pesos abertos, contendo 456 bilhões de parâmetros totais e ~45,9 bilhões ativos por token. Ele suporta nativamente 1 milhão de contexto e utiliza Flash Attention para reduzir FLOPs em 75% na geração de 100 mil tokens em comparação ao DeepSeek R1. Com uma arquitetura MoE, além de CISPO e treinamento RL de atenção híbrida, ele alcança desempenho líder em raciocínio de entrada longa e tarefas reais de engenharia de software.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 é o mais novo e poderoso modelo Kimi K2. Trata-se de um modelo MoE de alto nível com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos. Seus principais recursos incluem inteligência de codificação agentica aprimorada, com ganhos significativos em benchmarks e tarefas reais de agentes, além de melhorias na estética e usabilidade da codificação de frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo é a variante Turbo otimizada para velocidade de raciocínio e rendimento, mantendo o raciocínio em múltiplas etapas e o uso de ferramentas do K2 Thinking. É um modelo MoE com aproximadamente 1 trilhão de parâmetros totais, contexto nativo de 256K e chamadas de ferramentas em larga escala estáveis para cenários de produção com exigências mais rigorosas de latência e concorrência.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 é um modelo agente multimodal nativo open-source, baseado no Kimi-K2-Base, treinado com aproximadamente 1,5 trilhão de tokens mistos de visão e texto. O modelo adota uma arquitetura MoE com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos, suportando uma janela de contexto de 256K, integrando perfeitamente capacidades de compreensão visual e linguística.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 é um modelo carro-chefe de próxima geração projetado para engenharia de agentes, utilizando uma arquitetura Mixture of Experts (MoE) com 754B parâmetros. Ele aprimora significativamente as capacidades de programação, alcançando resultados líderes no SWE-Bench Pro, e supera amplamente seu predecessor em benchmarks como NL2Repo e Terminal-Bench 2.0. Projetado para tarefas agentivas longas, lida com perguntas ambíguas com melhor discernimento, decompõe tarefas complexas, executa experimentos, analisa resultados e otimiza continuamente ao longo de centenas de iterações e milhares de chamadas de ferramentas.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 é o modelo principal de nova geração da Zhipu com 355 bilhões de parâmetros totais e 32 bilhões ativos, totalmente atualizado em diálogo geral, raciocínio e capacidades de agentes. GLM-4.7 aprimora o Pensamento Intercalado e introduz Pensamento Preservado e Pensamento em Nível de Turno.",
"Pro/zai-org/glm-5.description": "GLM-5 é o modelo de linguagem de próxima geração da Zhipu, focado em engenharia de sistemas complexos e tarefas de Agente de longa duração. Os parâmetros do modelo foram expandidos para 744 bilhões (40 bilhões ativos) e integram DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ é um modelo de pesquisa experimental focado em aprimorar o raciocínio.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 é otimizado para raciocínio avançado e seguimento de instruções, utilizando MoE para manter a eficiência em escala.",
"Qwen3-235B.description": "Qwen3-235B-A22B é um modelo MoE que introduz um modo híbrido de raciocínio, permitindo alternância fluida entre pensamento e não pensamento. Ele oferece compreensão e raciocínio em 119 idiomas e dialetos, com forte capacidade de uso de ferramentas, competindo com modelos como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro em benchmarks de habilidades gerais, programação, matemática, multilinguismo e raciocínio baseado em conhecimento.",
"Qwen3-32B.description": "Qwen3-32B é um modelo denso que introduz um modo híbrido de raciocínio, permitindo alternância entre pensamento e não pensamento. Com melhorias na arquitetura, mais dados e melhor treinamento, seu desempenho é comparável ao Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus suporta entrada de texto, imagem e vídeo. Seu desempenho em tarefas puramente textuais é comparável ao Qwen3 Max, com melhor performance e menor custo. Suas capacidades multimodais são significativamente aprimoradas em comparação com a série Qwen3 VL.",
"S2V-01.description": "O modelo básico de referência-para-vídeo da série 01.",
"SenseChat-128K.description": "Base V4 com janela de contexto de 128K, excelente em compreensão e geração de textos longos.",
"SenseChat-32K.description": "Base V4 com janela de contexto de 32K, flexível para diversos cenários.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e pensamento ampliado.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade impressionante e raciocínio ampliado.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio ampliado.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
- "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e poderoso da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais potente da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
- "claude-opus-4-6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para construção de agentes e codificação.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para criação de agentes e programação.",
"claude-opus-4.5.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência de ponta com desempenho escalável para tarefas complexas de raciocínio de alta qualidade.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para criação de agentes e codificação.",
"claude-opus-4.6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para criação de agentes e codificação.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou pensamento passo a passo com controle refinado para usuários de API.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou raciocínio detalhado passo a passo com processo visível.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 é a melhor combinação de velocidade e inteligência da Anthropic.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 oferece a melhor combinação entre velocidade e inteligência da Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 é a melhor combinação de velocidade e inteligência da Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 pode produzir respostas quase instantâneas ou raciocínio detalhado passo a passo que os usuários podem acompanhar. Usuários da API podem controlar com precisão o tempo de processamento do modelo.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo de raciocínio de próxima geração com capacidades mais fortes de raciocínio complexo e cadeia de pensamento.",
- "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Benchmarks públicos alcançam níveis do GPT-5, sendo o primeiro a integrar pensamento ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
+ "deepseek-chat.description": "Um novo modelo open-source que combina habilidades gerais e de programação. Ele mantém o diálogo natural de modelos de chat e a forte capacidade de codificação dos modelos coder, com melhor alinhamento de preferências. DeepSeek-V2.5 também aprimora escrita e execução de instruções.",
"deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
"deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
"deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
"deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das saídas para maior precisão, com resultados de competição de ponta e raciocínio comparável ao Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 produz uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
"deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
"deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
"deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
"ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
"ernie-x1.1.description": "ERNIE X1.1 é um modelo de pensamento em pré-visualização para avaliação e testes.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desenvolvido pela equipe Seed da ByteDance, suporta edição e composição de múltiplas imagens. Apresenta consistência aprimorada de sujeitos, seguimento preciso de instruções, compreensão de lógica espacial, expressão estética, layout de pôster e design de logotipo com renderização de texto-imagem de alta precisão.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela ByteDance Seed, suporta entradas de texto e imagem para geração de imagens altamente controláveis e de alta qualidade a partir de prompts.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, suportando entradas de texto e imagem, com geração altamente controlável e de alta qualidade. Ele gera imagens a partir de descrições textuais.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
"fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
"fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
"fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
- "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen, suportando edições semânticas e de aparência, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e muito mais.",
- "fal-ai/qwen-image.description": "Um modelo poderoso de geração de imagens da equipe Qwen com forte renderização de texto em chinês e estilos visuais diversificados.",
+ "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen que suporta edições semânticas e visuais, edita texto em chinês e inglês com precisão e permite edições avançadas como transferência de estilo e rotação de objetos.",
+ "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e diversos estilos visuais.",
"flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
- "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
+ "flux-dev.description": "Modelo open-source de geração de imagens para P&D, otimizado de forma eficiente para pesquisa inovadora não comercial.",
"flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
"flux-kontext-pro.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
- "flux-merged.description": "FLUX.1 [merged] combina os recursos avançados explorados em \"DEV\" com as vantagens de alta velocidade do \"Schnell\", ampliando os limites de desempenho e expandindo as aplicações.",
"flux-pro-1.1-ultra.description": "Geração de imagens em ultra-alta resolução com saída de 4MP, produzindo imagens nítidas em 10 segundos.",
"flux-pro-1.1.description": "Modelo profissional de geração de imagens atualizado, com excelente qualidade e aderência precisa aos comandos.",
"flux-pro.description": "Modelo comercial de geração de imagens de alto nível, com qualidade incomparável e saídas diversas.",
- "flux-schnell.description": "FLUX.1 [schnell] é o modelo de código aberto mais avançado com poucas etapas, superando concorrentes similares e até modelos não destilados como Midjourney v6.0 e DALL-E 3 (HD). É ajustado para preservar a diversidade do pré-treinamento, melhorando significativamente a qualidade visual, seguimento de instruções, variação de tamanho/aspecto, manipulação de fontes e diversidade de saída.",
"flux.1-schnell.description": "FLUX.1-schnell é um modelo de geração de imagens de alto desempenho para saídas rápidas e com múltiplos estilos.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) oferece desempenho estável e ajustável para tarefas complexas.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) oferece suporte multimodal robusto para tarefas complexas.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
"gemini-3-flash-preview.description": "Gemini 3 Flash é o modelo mais inteligente desenvolvido para velocidade, combinando inteligência de ponta com excelente fundamentação em buscas.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google que também suporta diálogo multimodal.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google e também suporta chat multimodal.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google e também oferece suporte a chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) é o modelo de geração de imagens nativo mais rápido do Google, com suporte a raciocínio, geração e edição de imagens conversacionais.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferece qualidade de imagem em nível Pro com velocidade Flash e suporte a chat multimodal.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) é o modelo nativo de geração de imagens mais rápido do Google, com suporte a raciocínio, geração conversacional de imagens e edição.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview é o modelo multimodal mais econômico do Google, otimizado para tarefas agentivas de alto volume, tradução e processamento de dados.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview melhora o Gemini 3 Pro com capacidades de raciocínio aprimoradas e adiciona suporte a nível médio de pensamento.",
"gemini-flash-latest.description": "Última versão do Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Nosso modelo mais poderoso e avançado, projetado para tarefas empresariais complexas com desempenho excepcional.",
"jamba-mini.description": "O modelo mais eficiente de sua categoria, equilibrando velocidade e qualidade com baixo consumo de recursos.",
"jina-deepsearch-v1.description": "DeepSearch combina busca na web, leitura e raciocínio para investigações aprofundadas. Pense nele como um agente que assume sua tarefa de pesquisa, realiza buscas amplas com múltiplas iterações e só então produz uma resposta. O processo envolve pesquisa contínua, raciocínio e resolução de problemas sob múltiplas perspectivas, diferindo fundamentalmente dos LLMs padrão que respondem com base em dados pré-treinados ou sistemas RAG tradicionais que dependem de buscas superficiais pontuais.",
- "k2p5.description": "Kimi K2.5 é o modelo mais versátil da Kimi até hoje, apresentando uma arquitetura multimodal nativa que suporta entradas de visão e texto, modos de 'pensamento' e 'não-pensamento', além de tarefas conversacionais e de agente.",
"kimi-k2-0711-preview.description": "kimi-k2 é um modelo base MoE com fortes capacidades de programação e agentes (1T de parâmetros totais, 32B ativos), superando outros modelos abertos populares em benchmarks de raciocínio, programação, matemática e agentes.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview oferece uma janela de contexto de 256k, codificação agente mais robusta, melhor qualidade de código front-end e compreensão de contexto aprimorada.",
"kimi-k2-instruct.description": "Kimi K2 Instruct é o modelo oficial de raciocínio da Kimi com contexto longo para código, perguntas e respostas e mais.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ é um modelo de raciocínio da família Qwen. Em comparação com modelos ajustados por instruções padrão, oferece habilidades de pensamento e raciocínio que melhoram significativamente o desempenho em tarefas difíceis. O QwQ-32B é um modelo de porte médio que compete com os principais modelos como DeepSeek-R1 e o1-mini.",
"qwq_32b.description": "Modelo de raciocínio de porte médio da família Qwen. Em comparação com modelos ajustados por instruções padrão, as habilidades de pensamento e raciocínio do QwQ aumentam significativamente o desempenho em tarefas difíceis.",
"r1-1776.description": "R1-1776 é uma variante pós-treinada do DeepSeek R1 projetada para fornecer informações factuais sem censura e imparciais.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro da ByteDance suporta texto-para-vídeo, imagem-para-vídeo (primeiro quadro, primeiro+último quadro) e geração de áudio sincronizado com visuais.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite da BytePlus apresenta geração aumentada por recuperação na web para informações em tempo real, interpretação aprimorada de prompts complexos e consistência de referência melhorada para criação visual profissional.",
"solar-mini-ja.description": "Solar Mini (Ja) estende o Solar Mini com foco no japonês, mantendo desempenho eficiente e forte em inglês e coreano.",
"solar-mini.description": "Solar Mini é um LLM compacto que supera o GPT-3.5, com forte capacidade multilíngue suportando inglês e coreano, oferecendo uma solução eficiente e de baixo custo.",
"solar-pro.description": "Solar Pro é um LLM de alta inteligência da Upstage, focado em seguir instruções em uma única GPU, com pontuações IFEval acima de 80. Atualmente suporta inglês; o lançamento completo está previsto para novembro de 2024 com suporte expandido a idiomas e contexto mais longo.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 é nosso novo modelo poderoso de geração de mídia, gerando vídeos com áudio sincronizado. Pode criar clipes dinâmicos e ricamente detalhados a partir de linguagem natural ou imagens.",
"spark-x.description": "Visão geral das capacidades do X2: 1. Introduz ajuste dinâmico do modo de raciocínio, controlado pelo campo `thinking`. 2. Comprimento de contexto expandido: 64K tokens de entrada e 128K tokens de saída. 3. Suporta funcionalidade Function Call.",
"stable-diffusion-3-medium.description": "O mais recente modelo de texto para imagem da Stability AI. Esta versão melhora significativamente a qualidade da imagem, compreensão de texto e diversidade de estilo, interpretando comandos em linguagem natural complexa com mais precisão e gerando imagens mais precisas e diversas.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica difusão adversarial destilada (ADD) ao stable-diffusion-3.5-large para maior velocidade.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large é um modelo MMDiT de texto para imagem com 800 milhões de parâmetros, oferecendo excelente qualidade e alinhamento com prompts, suportando imagens de 1 megapixel e execução eficiente em hardwares de consumo.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 é inicializado a partir do checkpoint v1.2 e ajustado por 595 mil etapas no conjunto \"laion-aesthetics v2 5+\" com resolução de 512x512, reduzindo o condicionamento de texto em 10% para melhorar a amostragem com orientação livre de classificadores.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo é focado em geração de imagens de alta qualidade, com forte renderização de detalhes e fidelidade de cena.",
"stable-diffusion-xl-base-1.0.description": "Um modelo de texto para imagem de código aberto da Stability AI com geração criativa de imagens líder na indústria. Possui forte compreensão de instruções e suporta definições de prompt reverso para geração precisa.",
- "stable-diffusion-xl.description": "stable-diffusion-xl traz melhorias significativas em relação à versão v1.5 e alcança resultados comparáveis aos melhores modelos abertos de texto para imagem. As melhorias incluem um backbone UNet 3x maior, um módulo de refinamento para melhor qualidade de imagem e técnicas de treinamento mais eficientes.",
"step-1-128k.description": "Equilibra desempenho e custo para cenários gerais.",
"step-1-256k.description": "Manipulação de contexto extra longo, ideal para análise de documentos extensos.",
"step-1-32k.description": "Suporta conversas de comprimento médio para uma ampla gama de cenários.",
diff --git a/locales/pt-BR/plugin.json b/locales/pt-BR/plugin.json
index b135ad76a3..38408651c4 100644
--- a/locales/pt-BR/plugin.json
+++ b/locales/pt-BR/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} parâmetros no total",
"arguments.title": "Argumentos",
"builtins.lobe-activator.apiName.activateTools": "Ativar Ferramentas",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} não encontrado",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obter modelos disponíveis",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obter Habilidades disponíveis",
"builtins.lobe-agent-builder.apiName.getConfig": "Obter configuração",
diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json
index 7f57057396..78eede1ec0 100644
--- a/locales/pt-BR/providers.json
+++ b/locales/pt-BR/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
"kimicodingplan.description": "O Kimi Code da Moonshot AI oferece acesso aos modelos Kimi, incluindo o K2.5, para tarefas de codificação.",
"lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
"longcat.description": "LongCat é uma série de grandes modelos de IA generativa desenvolvidos de forma independente pela Meituan. Ele foi projetado para aumentar a produtividade interna da empresa e possibilitar aplicações inovadoras por meio de uma arquitetura computacional eficiente e fortes capacidades multimodais.",
"minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
"minimaxcodingplan.description": "O Plano de Tokens MiniMax oferece acesso aos modelos MiniMax, incluindo o M2.7, para tarefas de codificação por meio de uma assinatura de taxa fixa.",
@@ -60,6 +59,7 @@
"spark.description": "O iFLYTEK Spark oferece IA multilíngue poderosa em diversos domínios, possibilitando inovações em hardware inteligente, saúde, finanças e outros setores.",
"stepfun.description": "Os modelos Stepfun oferecem capacidades líderes em multimodalidade e raciocínio complexo, com compreensão de contexto longo e orquestração autônoma de busca poderosa.",
"straico.description": "O Straico simplifica a integração de IA ao oferecer um espaço de trabalho unificado que reúne os melhores modelos generativos de IA para texto, imagem e áudio, capacitando profissionais de marketing, empreendedores e entusiastas com acesso fácil a diversas ferramentas de IA.",
+ "streamlake.description": "StreamLake é uma plataforma empresarial de serviços de modelos e computação em nuvem para IA, que integra inferência de modelos de alto desempenho, personalização de modelos de baixo custo e serviços totalmente gerenciados, ajudando as empresas a focarem na inovação de aplicações de IA sem se preocuparem com a complexidade e os custos dos recursos computacionais subjacentes.",
"taichu.description": "Um modelo multimodal de nova geração do CASIA e do Instituto de IA de Wuhan, com suporte a perguntas e respostas em múltiplas etapas, redação, geração de imagens, compreensão 3D e análise de sinais, com cognição e criatividade aprimoradas.",
"tencentcloud.description": "O LLM Knowledge Engine Atomic Power oferece perguntas e respostas de conhecimento de ponta a ponta para empresas e desenvolvedores, com serviços modulares como análise de documentos, divisão, embeddings e reescrita em múltiplas etapas para montar soluções de IA personalizadas.",
"togetherai.description": "A Together AI oferece desempenho líder com modelos inovadores, ampla personalização, escalabilidade rápida e implantação simplificada para necessidades empresariais.",
diff --git a/locales/pt-BR/setting.json b/locales/pt-BR/setting.json
index 5a5ebee669..4a5999b250 100644
--- a/locales/pt-BR/setting.json
+++ b/locales/pt-BR/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Ferramentas do Sistema",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - ferramenta rápida para busca de código",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI de automação de navegador sem interface gráfica para agentes de IA",
+ "settingSystemTools.tools.bun.desc": "Bun - runtime JavaScript e gerenciador de pacotes rápido",
+ "settingSystemTools.tools.bunx.desc": "bunx - executor de pacotes Bun para rodar pacotes npm",
"settingSystemTools.tools.fd.desc": "fd - alternativa rápida e fácil de usar ao comando find",
"settingSystemTools.tools.find.desc": "find do Unix - comando padrão para busca de arquivos",
"settingSystemTools.tools.grep.desc": "GNU grep - ferramenta padrão para busca de texto",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - gerencie e conecte serviços do LobeHub",
"settingSystemTools.tools.mdfind.desc": "Busca do Spotlight do macOS (busca indexada e rápida)",
"settingSystemTools.tools.node.desc": "Node.js - runtime JavaScript para executar JS/TS",
"settingSystemTools.tools.npm.desc": "npm - gerenciador de pacotes Node.js para instalar dependências",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - gerenciador de pacotes rápido e eficiente em espaço",
"settingSystemTools.tools.python.desc": "Python - runtime da linguagem de programação",
"settingSystemTools.tools.rg.desc": "ripgrep - ferramenta extremamente rápida para busca de texto",
+ "settingSystemTools.tools.uv.desc": "uv - gerenciador de pacotes Python extremamente rápido",
"settingTTS.openai.sttModel": "Modelo de Reconhecimento de Voz da OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Modelo de Texto para Fala da OpenAI",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modelo",
"systemAgent.inputCompletion.modelDesc": "Modelo usado para sugestões de preenchimento automático de entrada (como o texto fantasma do GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agente de Preenchimento Automático de Entrada",
+ "systemAgent.promptRewrite.label": "Modelo",
+ "systemAgent.promptRewrite.modelDesc": "Especifique o modelo usado para reescrever prompts",
+ "systemAgent.promptRewrite.title": "Agente de Reescrita de Prompt",
"systemAgent.queryRewrite.label": "Modelo",
"systemAgent.queryRewrite.modelDesc": "Especifique o modelo usado para otimizar as perguntas dos usuários",
"systemAgent.queryRewrite.title": "Agente de Reescrita de Consultas da Biblioteca",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Envie um arquivo local .zip ou .skill",
"tab.usage": "Estatísticas de Uso",
"tools.add": "Adicionar Habilidade",
+ "tools.builtins.find-skills.description": "Ajuda usuários a descobrir e instalar habilidades quando perguntam \"como faço X\", \"encontre uma habilidade para X\" ou desejam ampliar capacidades",
+ "tools.builtins.find-skills.title": "Encontrar Habilidades",
"tools.builtins.groupName": "Integrados",
"tools.builtins.install": "Instalar",
"tools.builtins.installed": "Instalado",
+ "tools.builtins.lobe-activator.description": "Descubra e ative ferramentas e habilidades",
+ "tools.builtins.lobe-activator.title": "Ativador de Ferramentas e Habilidades",
+ "tools.builtins.lobe-agent-browser.description": "CLI de automação de navegador para agentes de IA. Use quando tarefas envolvem interação com sites ou Electron, como navegação, preenchimento de formulários, cliques, capturas de tela, raspagem de dados, fluxos de login e testes ponta a ponta.",
+ "tools.builtins.lobe-agent-browser.title": "Navegador do Agente",
+ "tools.builtins.lobe-agent-builder.description": "Configure metadados do agente, definições de modelo, plugins e o prompt do sistema",
+ "tools.builtins.lobe-agent-builder.title": "Construtor de Agentes",
+ "tools.builtins.lobe-agent-documents.description": "Gerencie documentos no escopo do agente (listar, criar, ler, editar, remover, renomear) e regras de carregamento",
+ "tools.builtins.lobe-agent-documents.title": "Documentos",
+ "tools.builtins.lobe-agent-management.description": "Crie, gerencie e orquestre agentes de IA",
+ "tools.builtins.lobe-agent-management.title": "Gerenciamento de Agentes",
"tools.builtins.lobe-artifacts.description": "Gere e visualize em tempo real componentes de interface interativos, visualizações de dados, gráficos, imagens SVG e aplicações web. Crie conteúdos visuais ricos com os quais os usuários possam interagir diretamente.",
"tools.builtins.lobe-artifacts.readme": "Gere e visualize em tempo real componentes de interface interativos, visualizações de dados, gráficos, gráficos SVG e aplicações web. Crie conteúdos visuais ricos com os quais os usuários possam interagir diretamente.",
"tools.builtins.lobe-artifacts.title": "Artefatos",
+ "tools.builtins.lobe-brief.description": "Relate progresso, entregue resultados e solicite decisões do usuário",
+ "tools.builtins.lobe-brief.title": "Ferramentas de Briefing",
"tools.builtins.lobe-calculator.description": "Realize cálculos matemáticos, resolva equações e trabalhe com expressões simbólicas",
"tools.builtins.lobe-calculator.readme": "Calculadora matemática avançada que suporta aritmética básica, equações algébricas, operações de cálculo e matemática simbólica. Inclui conversão de bases, resolução de equações, diferenciação, integração e mais.",
"tools.builtins.lobe-calculator.title": "Calculadora",
"tools.builtins.lobe-cloud-sandbox.description": "Execute códigos em Python, JavaScript e TypeScript em um ambiente isolado na nuvem. Rode comandos de terminal, gerencie arquivos, pesquise conteúdos com regex e exporte resultados com segurança.",
"tools.builtins.lobe-cloud-sandbox.readme": "Execute códigos em Python, JavaScript e TypeScript em um ambiente isolado na nuvem. Rode comandos de terminal, gerencie arquivos, pesquise conteúdos com regex e exporte resultados com segurança.",
"tools.builtins.lobe-cloud-sandbox.title": "Sandbox na Nuvem",
+ "tools.builtins.lobe-creds.description": "Gerencie credenciais do usuário para autenticação, injeção de variáveis de ambiente e verificação de APIs — incluindo chaves de API, tokens OAuth e segredos para integrações de terceiros.",
+ "tools.builtins.lobe-creds.title": "Credenciais",
+ "tools.builtins.lobe-cron.description": "Gerencie tarefas agendadas que rodam automaticamente em horários específicos. Crie, atualize, ative/desative e monitore tarefas recorrentes para seus agentes.",
+ "tools.builtins.lobe-cron.title": "Tarefas Agendadas",
+ "tools.builtins.lobe-group-agent-builder.description": "Configure metadados de grupo, membros e conteúdo compartilhado para grupos multiagentes",
+ "tools.builtins.lobe-group-agent-builder.title": "Construtor de Agentes em Grupo",
+ "tools.builtins.lobe-group-management.description": "Orquestre e gerencie conversas de grupos multiagentes",
+ "tools.builtins.lobe-group-management.title": "Gerenciamento de Grupo",
"tools.builtins.lobe-gtd.description": "Planeje metas e acompanhe o progresso usando a metodologia GTD. Crie planos estratégicos, gerencie listas de tarefas com acompanhamento de status e execute tarefas assíncronas de longa duração.",
"tools.builtins.lobe-gtd.readme": "Planeje metas e acompanhe o progresso utilizando a metodologia GTD. Crie planos estratégicos, gerencie listas de tarefas com acompanhamento de status e execute tarefas assíncronas de longa duração.",
"tools.builtins.lobe-gtd.title": "Ferramentas GTD",
+ "tools.builtins.lobe-knowledge-base.description": "Pesquise documentos enviados e conhecimento de domínio via busca semântica por vetores — para referência persistente e reutilizável",
+ "tools.builtins.lobe-knowledge-base.title": "Base de Conhecimento",
"tools.builtins.lobe-local-system.description": "Acesse seu sistema de arquivos local no desktop. Leia, escreva, pesquise e organize arquivos. Execute comandos de terminal com suporte a tarefas em segundo plano e busque conteúdos com padrões regex.",
"tools.builtins.lobe-local-system.readme": "Acesse o sistema de arquivos local no desktop. Leia, escreva, pesquise e organize arquivos. Execute comandos de terminal com suporte a tarefas em segundo plano e busque conteúdos com padrões regex.",
"tools.builtins.lobe-local-system.title": "Sistema Local",
+ "tools.builtins.lobe-message.description": "Envie, leia, edite e gerencie mensagens em múltiplas plataformas com uma interface unificada",
+ "tools.builtins.lobe-message.readme": "Ferramenta de mensagens multiplataforma com suporte a Discord, Telegram, Slack, Google Chat e IRC. Fornece APIs unificadas para operações de mensagens, reações, fixações, tópicos, gerenciamento de canais e recursos específicos como enquetes.",
+ "tools.builtins.lobe-message.title": "Mensagem",
"tools.builtins.lobe-notebook.description": "Crie e gerencie documentos persistentes dentro dos tópicos de conversa. Salve anotações, relatórios, artigos e conteúdos em markdown acessíveis entre sessões.",
"tools.builtins.lobe-notebook.readme": "Crie e gerencie documentos persistentes dentro de tópicos de conversa. Salve anotações, relatórios, artigos e conteúdos em markdown acessíveis entre sessões.",
"tools.builtins.lobe-notebook.title": "Caderno",
+ "tools.builtins.lobe-page-agent.description": "Crie, leia, atualize e exclua nós em documentos estruturados em XML",
+ "tools.builtins.lobe-page-agent.readme": "Crie e edite documentos estruturados com controle preciso por nó. Inicialize a partir de Markdown, realize operações em lote de inserção/modificação/remoção e execute busca e substituição em documentos.",
+ "tools.builtins.lobe-page-agent.title": "Documento",
+ "tools.builtins.lobe-remote-device.description": "Descubra e gerencie conexões de dispositivos desktop remotos",
+ "tools.builtins.lobe-remote-device.readme": "Gerencie conexões com seus dispositivos desktop. Liste dispositivos online, ative um dispositivo para operações remotas e verifique o status da conexão.",
+ "tools.builtins.lobe-remote-device.title": "Dispositivo Remoto",
+ "tools.builtins.lobe-skill-store.description": "Navegue e instale habilidades de agentes a partir do marketplace do LobeHub. Use quando precisar ampliar capacidades ou instalar uma habilidade específica.",
+ "tools.builtins.lobe-skill-store.title": "Loja de Habilidades",
+ "tools.builtins.lobe-skills.description": "Ative e use pacotes de habilidades reutilizáveis",
+ "tools.builtins.lobe-skills.title": "Habilidades",
+ "tools.builtins.lobe-task.description": "Crie, liste, edite e exclua tarefas com dependências e configuração de revisão",
+ "tools.builtins.lobe-task.title": "Ferramentas de Tarefas",
+ "tools.builtins.lobe-topic-reference.description": "Recupere contexto de conversas em tópicos referenciados",
+ "tools.builtins.lobe-topic-reference.title": "Referência de Tópico",
+ "tools.builtins.lobe-user-interaction.description": "Faça perguntas aos usuários através de interações na interface e acompanhe os resultados",
+ "tools.builtins.lobe-user-interaction.title": "Interação com o Usuário",
"tools.builtins.lobe-user-memory.description": "Construa uma base de conhecimento personalizada sobre você. Lembre preferências, acompanhe atividades e experiências, armazene informações de identidade e recupere contextos relevantes em conversas futuras.",
"tools.builtins.lobe-user-memory.readme": "Construa uma base de conhecimento personalizada sobre você. Lembre preferências, acompanhe atividades e experiências, armazene informações de identidade e recupere contextos relevantes em conversas futuras.",
"tools.builtins.lobe-user-memory.title": "Memória",
+ "tools.builtins.lobe-web-browsing.description": "Pesquise na web por informações atualizadas e rastreie páginas para extrair conteúdo. Suporta vários mecanismos de busca, categorias e intervalos de tempo.",
+ "tools.builtins.lobe-web-browsing.readme": "Pesquise na web por informações atualizadas e rastreie páginas para extrair conteúdo. Suporta múltiplos mecanismos de busca, categorias e intervalos de tempo para pesquisas completas.",
+ "tools.builtins.lobe-web-browsing.title": "Navegação Web",
+ "tools.builtins.lobe-web-onboarding.description": "Conduza o fluxo de integração web com um runtime de agente controlado",
+ "tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
+ "tools.builtins.lobehub.description": "Gerencie a plataforma LobeHub via CLI — bases de conhecimento, memória, agentes, arquivos, busca, geração e mais.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Não instalado",
+ "tools.builtins.task.description": "Gerenciamento e execução de tarefas — crie, acompanhe, revise e conclua tarefas via CLI.",
+ "tools.builtins.task.title": "Tarefa",
"tools.builtins.uninstall": "Desinstalar",
"tools.builtins.uninstallConfirm.desc": "Tem certeza de que deseja desinstalar {{name}}? Essa habilidade será removida do agente atual.",
"tools.builtins.uninstallConfirm.title": "Desinstalar {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Desconectar {{name}}?",
"tools.lobehubSkill.disconnected": "Desconectado",
"tools.lobehubSkill.error": "Erro",
+ "tools.lobehubSkill.providers.github.description": "GitHub é uma plataforma de controle de versão e colaboração, permitindo que desenvolvedores hospedem, revisem e gerenciem repositórios de código.",
+ "tools.lobehubSkill.providers.github.readme": "Conecte-se ao GitHub para acessar seus repositórios, criar e gerenciar issues, revisar pull requests e colaborar em código — tudo por meio de conversas naturais com seu assistente de IA.",
"tools.lobehubSkill.providers.linear.description": "O Linear é uma ferramenta moderna de rastreamento de issues e gerenciamento de projetos, projetada para equipes de alta performance desenvolverem software melhor e mais rápido",
"tools.lobehubSkill.providers.linear.readme": "Traga o poder do Linear diretamente para seu assistente de IA. Crie e atualize issues, gerencie sprints, acompanhe o progresso de projetos e otimize seu fluxo de desenvolvimento — tudo por meio de conversas naturais.",
"tools.lobehubSkill.providers.microsoft.description": "O Calendário do Outlook é uma ferramenta de agendamento integrada ao Microsoft Outlook que permite aos usuários criar compromissos, organizar reuniões e gerenciar seu tempo e eventos de forma eficaz.",
"tools.lobehubSkill.providers.microsoft.readme": "Integre com o Outlook Calendar para visualizar, criar e gerenciar seus eventos com facilidade. Agende reuniões, verifique disponibilidades, defina lembretes e coordene seu tempo com comandos em linguagem natural.",
"tools.lobehubSkill.providers.twitter.description": "O X (Twitter) é uma plataforma de mídia social para compartilhar atualizações em tempo real, notícias e interagir com seu público por meio de postagens, respostas e mensagens diretas.",
"tools.lobehubSkill.providers.twitter.readme": "Conecte-se ao X (Twitter) para publicar tweets, gerenciar sua timeline e interagir com seu público. Crie conteúdos, agende postagens, monitore menções e fortaleça sua presença nas redes sociais com IA conversacional.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel é uma plataforma em nuvem para desenvolvedores frontend, oferecendo hospedagem e funções serverless para implantar aplicações web com facilidade.",
+ "tools.lobehubSkill.providers.vercel.readme": "Conecte-se ao Vercel para gerenciar implantações, monitorar status de projetos e controlar sua infraestrutura. Implante aplicações, verifique logs de build, gerencie variáveis de ambiente e escale seus projetos por meio de IA conversacional.",
"tools.notInstalled": "Não Instalado",
"tools.notInstalledWarning": "Esta habilidade não está instalada atualmente, o que pode afetar a funcionalidade do agente.",
"tools.plugins.enabled": "Ativadas: {{num}}",
diff --git a/locales/pt-BR/subscription.json b/locales/pt-BR/subscription.json
index 20b8d8f3ab..d986c6ee0b 100644
--- a/locales/pt-BR/subscription.json
+++ b/locales/pt-BR/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Atualize para",
"credits.topUp.upgradeSuffix": "para economizar ${{savings}}",
"credits.topUp.validityInfo": "Validade de {{months}} meses",
+ "crossPlatform.desc": "Esta assinatura foi adquirida através do aplicativo móvel e não pode ser modificada aqui. Por favor, gerencie sua assinatura no seu dispositivo móvel.",
+ "crossPlatform.manageOnMobile": "Gerenciar no dispositivo móvel",
+ "crossPlatform.title": "Assinatura Multiplataforma",
"currentPlan.cancelAlert": "A assinatura será cancelada após {{canceledAt}}. Você ainda pode restaurá-la em \"Gerenciar Assinatura\" antes disso",
"currentPlan.downgradeAlert": "Será rebaixado para {{plan}} após {{downgradedAt}}.",
"currentPlan.management": "Gerenciar Assinatura",
diff --git a/locales/pt-BR/video.json b/locales/pt-BR/video.json
index 84eb89775f..1795dcfb0a 100644
--- a/locales/pt-BR/video.json
+++ b/locales/pt-BR/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Quadro Inicial",
"config.prompt.placeholder": "Descreva o vídeo que você deseja gerar",
"config.prompt.placeholderWithRef": "Descreva a cena que você deseja gerar com a imagem",
+ "config.promptExtend.label": "Extensão de Prompt",
"config.referenceImage.label": "Imagem de Referência",
"config.resolution.label": "Resolução",
"config.seed.label": "Semente",
"config.seed.random": "Aleatório",
"config.size.label": "Tamanho",
+ "config.watermark.label": "Marca d'água",
+ "config.webSearch.label": "Pesquisa na Web",
"generation.actions.copyError": "Copiar Mensagem de Erro",
"generation.actions.errorCopied": "Mensagem de Erro Copiada para a Área de Transferência",
"generation.actions.errorCopyFailed": "Falha ao Copiar a Mensagem de Erro",
diff --git a/locales/ru-RU/agent.json b/locales/ru-RU/agent.json
index 2757eca560..ee2865c780 100644
--- a/locales/ru-RU/agent.json
+++ b/locales/ru-RU/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Бот успешно подключен",
"channel.connecting": "Подключение...",
"channel.connectionConfig": "Конфигурация подключения",
+ "channel.connectionMode": "Режим подключения",
+ "channel.connectionModeHint": "Для новых ботов рекомендуется WebSocket. Используйте Webhook, если для вашего бота уже настроен URL обратного вызова на платформе QQ Open Platform.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Скопировано в буфер обмена",
"channel.copy": "Копировать",
"channel.credentials": "Учетные данные",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Пожалуйста, скопируйте этот URL и вставьте его в поле {{fieldName}} на портале разработчика {{name}}.",
"channel.exportConfig": "Экспортировать конфигурацию",
"channel.feishu.description": "Подключите этого помощника к Feishu для общения в личных и групповых чатах.",
+ "channel.feishu.webhookMigrationDesc": "Режим WebSocket обеспечивает доставку событий в реальном времени без необходимости публичного URL для обратного вызова. Чтобы перейти на него, переключите режим подключения на WebSocket в дополнительных настройках. Дополнительная конфигурация на платформе Feishu/Lark Open Platform не требуется.",
+ "channel.feishu.webhookMigrationTitle": "Рекомендуем перейти на режим WebSocket",
"channel.historyLimit": "Лимит сообщений в истории",
"channel.historyLimitHint": "Количество сообщений по умолчанию для загрузки при просмотре истории канала",
"channel.importConfig": "Импортировать конфигурацию",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Требуется для проверки взаимодействия",
"channel.qq.appIdHint": "Ваш App ID бота QQ с платформы QQ Open Platform",
"channel.qq.description": "Подключите этого ассистента к QQ для групповых чатов и личных сообщений.",
+ "channel.qq.webhookMigrationDesc": "Режим WebSocket обеспечивает доставку событий в реальном времени и автоматическое переподключение без необходимости URL обратного вызова. Чтобы перейти на него, создайте нового бота на QQ Open Platform без настройки URL обратного вызова, затем переключите режим подключения на WebSocket в дополнительных настройках.",
+ "channel.qq.webhookMigrationTitle": "Рекомендуем перейти на режим WebSocket",
"channel.removeChannel": "Удалить канал",
"channel.removeFailed": "Не удалось удалить канал",
"channel.removed": "Канал удален",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Секрет подписи",
"channel.signingSecretHint": "Используется для проверки запросов вебхуков.",
"channel.slack.appIdHint": "Ваш ID приложения Slack из панели управления API Slack (начинается с A).",
+ "channel.slack.appToken": "Токен уровня приложения",
+ "channel.slack.appTokenHint": "Необходим для Socket Mode (WebSocket). Сгенерируйте токен уровня приложения (xapp-...) в разделе Basic Information настроек вашего Slack‑приложения.",
"channel.slack.description": "Подключите этого помощника к Slack для общения в каналах и личных сообщениях.",
+ "channel.slack.webhookMigrationDesc": "Socket Mode обеспечивает доставку событий в реальном времени через WebSocket без необходимости публичной HTTP‑конечной точки. Чтобы перейти на него, включите Socket Mode в настройках вашего Slack‑приложения, сгенерируйте токен уровня приложения, затем переключите режим подключения на WebSocket в дополнительных настройках.",
+ "channel.slack.webhookMigrationTitle": "Рекомендуем перейти на Socket Mode (WebSocket)",
"channel.telegram.description": "Подключите этого помощника к Telegram для общения в личных и групповых чатах.",
"channel.testConnection": "Проверить подключение",
"channel.testFailed": "Тест подключения не удался",
diff --git a/locales/ru-RU/chat.json b/locales/ru-RU/chat.json
index 239434372f..b8846c821f 100644
--- a/locales/ru-RU/chat.json
+++ b/locales/ru-RU/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Группа успешно удалена",
"confirmRemoveSessionItemAlert": "Вы собираетесь удалить этого агента. После удаления восстановление будет невозможно. Подтвердите действие.",
"confirmRemoveSessionSuccess": "Агент успешно удалён",
+ "createModal.createBlank": "Создать пустой",
+ "createModal.groupPlaceholder": "Опишите, что должна делать эта группа...",
+ "createModal.groupTitle": "Что должна делать ваша группа?",
+ "createModal.placeholder": "Опишите, что должен делать ваш агент...",
+ "createModal.title": "Что должен делать ваш агент?",
"defaultAgent": "Агент по умолчанию",
"defaultGroupChat": "Группа",
"defaultList": "Список по умолчанию",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Контекст слишком длинный, выполняется сжатие истории...",
"operation.execAgentRuntime": "Подготовка ответа",
"operation.execClientTask": "Выполнение задачи",
+ "operation.execServerAgentRuntime": "Выполняется… Вы можете переключиться на другие задачи или закрыть страницу — задача продолжит выполняться.",
"operation.sendMessage": "Отправка сообщения",
"owner": "Владелец группы",
"pageCopilot.title": "Агент страницы",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Получение данных...",
"task.status.initializing": "Инициализация задачи...",
"task.subtask": "Подзадача",
+ "task.title": "Задачи",
"thread.divider": "Подтема",
"thread.threadMessageCount": "{{messageCount}} сообщений",
"thread.title": "Подтема",
@@ -429,9 +436,11 @@
"toolAuth.title": "Авторизация навыков для этого агента",
"topic.checkOpenNewTopic": "Начать новую тему?",
"topic.checkSaveCurrentMessages": "Сохранить текущую беседу как тему?",
+ "topic.defaultTitle": "Тема без названия",
"topic.openNewTopic": "Открыть новую тему",
"topic.recent": "Недавние темы",
"topic.saveCurrentMessages": "Сохранить текущую сессию как тему",
+ "topic.viewAll": "Показать все темы",
"translate.action": "Перевести",
"translate.clear": "Очистить перевод",
"tts.action": "Озвучить текст",
diff --git a/locales/ru-RU/common.json b/locales/ru-RU/common.json
index 9790fb8ccb..40f7a7807b 100644
--- a/locales/ru-RU/common.json
+++ b/locales/ru-RU/common.json
@@ -343,10 +343,19 @@
"mail.support": "Поддержка по электронной почте",
"more": "Ещё",
"navPanel.agent": "Агент",
+ "navPanel.customizeSidebar": "Настроить боковую панель",
"navPanel.displayItems": "Отображаемые элементы",
+ "navPanel.hidden": "Скрыто",
+ "navPanel.hideSection": "Скрыть раздел",
"navPanel.library": "Библиотека",
+ "navPanel.moveDown": "Переместить вниз",
+ "navPanel.moveUp": "Переместить вверх",
+ "navPanel.pinned": "Закреплено",
"navPanel.searchAgent": "Поиск агента...",
+ "navPanel.searchRecent": "Поиск недавних...",
"navPanel.searchResultEmpty": "Результаты не найдены",
+ "navPanel.show": "Показать",
+ "navPanel.visible": "Видимо",
"new": "Новый",
"noContent": "Нет содержимого",
"oauth": "Вход через SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Поддержите нас",
"productHunt.description": "Поддержите нас на Product Hunt. Ваша поддержка очень важна для нас!",
"productHunt.title": "Мы на Product Hunt!",
+ "promptTransform.action": "Уточнить идею",
+ "promptTransform.actions.rewrite": "Расширить детали",
+ "promptTransform.actions.translate": "Перевести",
+ "promptTransform.status.rewrite": "Расширение деталей...",
+ "promptTransform.status.translate": "Перевод...",
+ "recents": "Недавние",
"regenerate": "Сгенерировать заново",
"releaseNotes": "Информация о версии",
"rename": "Переименовать",
@@ -400,6 +415,7 @@
"tab.audio": "Аудио",
"tab.chat": "Чат",
"tab.community": "Сообщество",
+ "tab.create": "Создать",
"tab.discover": "Обзор",
"tab.eval": "Лаборатория оценки",
"tab.files": "Файлы",
diff --git a/locales/ru-RU/image.json b/locales/ru-RU/image.json
index eb483e4345..4466f6c687 100644
--- a/locales/ru-RU/image.json
+++ b/locales/ru-RU/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Модель",
"config.prompt.placeholder": "Опишите, что вы хотите сгенерировать",
"config.prompt.placeholderWithRef": "Опишите, как вы хотите изменить изображение",
+ "config.promptExtend.label": "Расширение подсказки",
"config.quality.label": "Качество изображения",
"config.quality.options.hd": "Высокое качество",
"config.quality.options.standard": "Стандартное",
@@ -24,6 +25,8 @@
"config.size.label": "Размер",
"config.steps.label": "Шаги",
"config.title": "Конфигурация",
+ "config.watermark.label": "Водяной знак",
+ "config.webSearch.label": "Веб-поиск",
"config.width.label": "Ширина",
"generation.actions.applySeed": "Применить сид",
"generation.actions.copyError": "Скопировать сообщение об ошибке",
diff --git a/locales/ru-RU/labs.json b/locales/ru-RU/labs.json
index b15d9b5947..fd8f5433ea 100644
--- a/locales/ru-RU/labs.json
+++ b/locales/ru-RU/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Группируйте сообщения агента и результаты вызова инструментов для совместного отображения",
"features.assistantMessageGroup.title": "Группировка сообщений агента",
+ "features.gatewayMode.desc": "Выполняйте задачи агента на сервере через WebSocket Gateway вместо локального запуска. Обеспечивает более быструю работу и снижает нагрузку на ресурсы клиента.",
+ "features.gatewayMode.title": "Серверное выполнение агента (Gateway)",
"features.groupChat.desc": "Включите координацию группового чата с несколькими агентами.",
"features.groupChat.title": "Групповой чат (мультиагентный)",
"features.inputMarkdown.desc": "Отображение Markdown в поле ввода в реальном времени (жирный текст, блоки кода, таблицы и т. д.).",
diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json
index 78834c290b..dedf0f18f3 100644
--- a/locales/ru-RU/models.json
+++ b/locales/ru-RU/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Одна из лучших моделей в Китае, превосходит ведущие зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и творческая генерация. Также обладает передовыми мультимодальными возможностями с высокими результатами на авторитетных бенчмарках.",
"Baichuan4.description": "Лидер по производительности среди отечественных моделей, превосходит ведущие зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и творческая генерация. Также предлагает передовые мультимодальные возможности и высокие результаты на бенчмарках.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS — семейство открытых LLM от ByteDance Seed, разработанных для обработки длинного контекста, логического мышления, агентных задач и общих способностей. Seed-OSS-36B-Instruct — это модель с 36 миллиардами параметров, адаптированная под инструкции, с нативной поддержкой ультрадлинного контекста для обработки больших документов или кодовых баз. Оптимизирована для логики, генерации кода и агентных задач (использование инструментов), сохраняя при этом общую универсальность. Ключевая особенность — \"Бюджет мышления\", позволяющий гибко управлять длиной рассуждений для повышения эффективности.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR — это модель восприятия и языка от DeepSeek AI, ориентированная на OCR и «контекстное оптическое сжатие». Она исследует методы сжатия контекста из изображений, эффективно обрабатывает документы и преобразует их в структурированный текст (например, Markdown). Точно распознаёт текст на изображениях и подходит для оцифровки документов, извлечения текста и структурированной обработки.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, более крупная и умная модель из набора DeepSeek, дистиллирована в архитектуру Llama 70B. Бенчмарки и оценки людей показывают, что она умнее базовой Llama 70B, особенно в задачах по математике и точности фактов.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Дистиллированная модель DeepSeek-R1 на основе Qwen2.5-Math-1.5B. Обучение с подкреплением и данные холодного старта оптимизируют производительность в логических задачах, устанавливая новые мультизадачные бенчмарки среди открытых моделей.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Модели DeepSeek-R1-Distill дообучены на основе открытых моделей с использованием выборок, сгенерированных DeepSeek-R1.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Провайдер: sophnet. DeepSeek V3 Fast — высокоэффективная версия DeepSeek V3 0324, с полной точностью (без квантования), улучшенной производительностью в коде и математике и более быстрыми ответами.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast — высокоэффективный вариант DeepSeek V3.1. Гибридный режим мышления: через шаблоны чата одна модель поддерживает как мышление, так и немышление. Умное использование инструментов: дообучение улучшает производительность в агентных задачах и при использовании инструментов.",
"DeepSeek-V3.1-Think.description": "Режим мышления DeepSeek-V3.1: новая гибридная модель рассуждения с режимами мышления и немышления, более эффективная, чем DeepSeek-R1-0528. Оптимизации после обучения значительно улучшают использование инструментов и выполнение агентных задач.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 использует разреженный механизм внимания, что повышает эффективность обучения и инференса при обработке длинных текстов. Стоимость ниже, чем у deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 — модель MoE, разработанная DeepSeek. Превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, по многим бенчмаркам и конкурирует с ведущими закрытыми моделями, такими как GPT-4o и Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite обеспечивает сверхбыстрые ответы и отличное соотношение цены и качества, предлагая гибкие варианты для различных сценариев. Поддерживает контекст объемом 128K для вывода и дообучения.",
"Doubao-lite-32k.description": "Doubao-lite обеспечивает сверхбыстрые ответы и отличное соотношение цены и качества, предлагая гибкие варианты для различных сценариев. Поддерживает контекст объемом 32K для вывода и дообучения.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Высокопроизводительная модель для рассуждений, программирования и агентных задач.",
"GLM-4.6.description": "GLM-4.6: Модель предыдущего поколения.",
"GLM-4.7.description": "GLM-4.7: Последняя флагманская модель Zhipu, улучшенная для сценариев агентного программирования с расширенными возможностями кодирования, долгосрочного планирования задач и взаимодействия с инструментами.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Оптимизированная версия GLM-5 с ускоренным выводом для задач программирования.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo — базовая модель, глубоко оптимизированная для агентных сценариев. Специально улучшена под ключевые требования агентных задач ещё на этапе обучения, усиливая такие возможности, как вызов инструментов, следование командам и выполнение длинных цепочек действий. Идеально подходит для создания высокопроизводительных агент-ассистентов.",
"GLM-5.1.description": "GLM-5.1 — это новейшая флагманская модель Zhipu, улучшенная версия GLM-5 с расширенными возможностями агентной инженерии для сложных системных разработок и задач с длинным горизонтом.",
- "GLM-5.description": "GLM-5: Флагманская модель следующего поколения от Zhipu, специально разработанная для агентной инженерии. Обеспечивает надежную производительность в сложных системах инженерии и задачах с долгосрочным горизонтом. В области программирования и агентных возможностей GLM-5 достигает передовых результатов среди моделей с открытым исходным кодом.",
+ "GLM-5.description": "GLM-5 — флагманская модель нового поколения от Zhipu, созданная специально для Agentic Engineering. Обеспечивает надёжную продуктивность в задачах сложной системной инженерии и долгосрочных агентных сценариях. В программировании и агентных возможностях GLM-5 достигает уровня SOTA среди открытых моделей. В реальных условиях кодирования пользовательский опыт приближается к Claude Opus 4.5. Отличается высокой эффективностью в сложной инженерии и длительных агентных задачах, что делает её идеальной базовой моделью для универсальных агент-ассистентов.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) — инновационная модель для различных областей и сложных задач.",
"HY-Image-V3.0.description": "Мощные возможности извлечения особенностей оригинального изображения и сохранения деталей, обеспечивающие более богатую визуальную текстуру и создающие высокоточные, хорошо скомпонованные визуальные материалы производственного уровня.",
"HelloMeme.description": "HelloMeme — это ИИ-инструмент, который создает мемы, GIF-файлы или короткие видео на основе предоставленных вами изображений или движений. Не требует навыков рисования или программирования — достаточно эталонного изображения, чтобы получить веселый, привлекательный и стилистически согласованный контент.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter — это модель персонализированной генерации персонажей без необходимости настройки, выпущенная Tencent AI в 2025 году. Она обеспечивает высокую точность и согласованность персонажей в различных сценариях. Модель может создать персонажа по одному эталонному изображению и гибко переносить его в разные стили, действия и фоны.",
"InternVL2-8B.description": "InternVL2-8B — это мощная модель визуально-языкового понимания, поддерживающая мультимодальную обработку изображений и текста, точно распознающая содержимое изображений и генерирующая соответствующие описания или ответы.",
"InternVL2.5-26B.description": "InternVL2.5-26B — это мощная модель визуально-языкового понимания, поддерживающая мультимодальную обработку изображений и текста, точно распознающая содержимое изображений и генерирующая соответствующие описания или ответы.",
+ "KAT-Coder-Air-V1.description": "Облегчённая версия серии KAT-Coder. Специально разработана для Agentic Coding и охватывает широкий спектр программных задач и сценариев. Благодаря крупномасштабному агентному обучению с подкреплением демонстрирует возникновение интеллектуального поведения и значительно превосходит сопоставимые модели по качеству кода.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B — экспериментальная версия серии KAT-Coder с инновациями в области RL. Показывает выдающийся результат 74.6% на бенчмарке SWE-Bench verified, установив новый рекорд для открытых моделей. Сфокусирована на Agentic Coding и в настоящее время поддерживает только SWE-Agent scaffold, но также подходит для простых диалогов.",
+ "KAT-Coder-Pro-V1.description": "Создана для Agentic Coding, охватывает все основные программные задачи и сценарии. Демонстрирует появление интеллектуального поведения благодаря крупномасштабному обучению с подкреплением и значительно превосходит аналогичные модели в написании кода.",
+ "KAT-Coder-Pro-V2.description": "Новейшая высокопроизводительная модель команды Kuaishou Kwaipilot, разработанная для сложных корпоративных проектов и интеграции с SaaS. Отличается выдающимися возможностями в задачах кодирования и совместима с различными типами агентных фреймворков (Claude Code, OpenCode, KiloCode), нативно поддерживает OpenClaw и специально оптимизирована для эстетики фронтенда.",
+ "Kimi-K2.5.description": "Kimi K2.5 — самая мощная модель Kimi, обеспечивающая SOTA среди открытых моделей в агентных задачах, программировании и визуальном понимании. Поддерживает мультимодальные входы и режимы с размышлением и без него.",
"Kolors.description": "Kolors — это модель преобразования текста в изображение, разработанная командой Kuaishou Kolors. Обученная на миллиардах параметров, она обладает заметными преимуществами в визуальном качестве, понимании китайской семантики и отображении текста.",
"Kwai-Kolors/Kolors.description": "Kolors — это крупномасштабная латентно-диффузионная модель преобразования текста в изображение от команды Kuaishou Kolors. Обученная на миллиардах пар текст-изображение, она превосходит в визуальном качестве, точности сложной семантики и отображении текста на китайском и английском языках, с сильным пониманием и генерацией китайского контента.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) — это модель с открытым исходным кодом для задач программной инженерии. Она достигает 62,4% успешности на SWE-Bench Verified, занимая 5-е место среди открытых моделей. Оптимизирована с помощью промежуточного обучения, SFT и RL для автодополнения кода, исправления ошибок и рецензирования кода.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Передовая компактная языковая модель с высоким уровнем понимания языка, отличной логикой и генерацией текста.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Версия, настроенная на выполнение инструкций, оптимизирована для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых тестах. Дата отсечения знаний: декабрь 2023 года.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick — это крупная модель MoE с эффективной активацией экспертов для высокой производительности в логических задачах.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro специально создана для высокоинтенсивных агентных рабочих процессов в реальных условиях. Содержит более 1 триллиона общих параметров (42B активных), использует гибридную архитектуру внимания и поддерживает сверхдлинный контекст до 1 миллиона токенов. На основе мощной базовой модели мы постепенно масштабируем вычислительные ресурсы под более широкий спектр агентных сценариев, расширяя пространство действий и достигая значительной обобщающей способности — от кодирования до выполнения реальных задач («claw»).",
"MiniMax-Hailuo-02.description": "Модель генерации видео следующего поколения MiniMax Hailuo 02 официально выпущена, поддерживает разрешение 1080P и генерацию видео длиной до 10 секунд.",
"MiniMax-Hailuo-2.3-Fast.description": "Совершенно новая модель генерации видео с комплексными улучшениями в движении тела, физическом реализме и следовании инструкциям.",
"MiniMax-Hailuo-2.3.description": "Совершенно новая модель генерации видео с комплексными улучшениями в движении тела, физическом реализме и следовании инструкциям.",
"MiniMax-M1.description": "Новая внутренняя модель рассуждений с поддержкой 80K цепочек размышлений и 1M входных токенов, обеспечивающая производительность на уровне ведущих мировых моделей.",
"MiniMax-M2-Stable.description": "Создана для эффективного программирования и работы агентов, с повышенной параллельностью для коммерческого использования.",
- "MiniMax-M2.1-Lightning.description": "Мощные многоязычные программные возможности с более быстрой и эффективной интерпретацией.",
"MiniMax-M2.1-highspeed.description": "Мощные многоязычные программные возможности, всесторонне улучшенный опыт программирования. Быстрее и эффективнее.",
"MiniMax-M2.1.description": "MiniMax-M2.1 — это флагманская модель с открытым исходным кодом от MiniMax, ориентированная на решение сложных задач из реального мира. Её ключевые преимущества — поддержка многозадачного программирования и способность выступать в роли интеллектуального агента.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Та же производительность, что и у M2.5, но с ускоренным выводом.",
"MiniMax-M2.5.description": "MiniMax-M2.5 — это флагманская открытая крупная модель от MiniMax, ориентированная на решение сложных реальных задач. Её основные преимущества — многоязычные программные возможности и способность решать сложные задачи в качестве агента.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Та же производительность, что и у M2.7, но с значительно ускоренным выводом.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Начало пути к рекурсивному самоулучшению, выдающиеся инженерные возможности в реальных условиях.",
+ "MiniMax-M2.7.description": "Первая саморазвивающаяся модель с высококлассной производительностью в кодировании и агентных задачах (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Модель предыдущего поколения.",
"MiniMax-Text-01.description": "MiniMax-01 представляет масштабное линейное внимание, выходящее за рамки классических трансформеров, с 456B параметрами и 45.9B активируемыми за проход. Обеспечивает производительность высшего уровня и поддерживает до 4M токенов контекста (в 32 раза больше GPT-4o, в 20 раз больше Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1: крупномасштабная модель гибридного внимания с открытыми весами, содержащая 456 миллиардов параметров, из которых ~45,9 миллиарда активны на каждый токен. Поддерживает контекст объемом 1 миллион токенов и использует Flash Attention для сокращения FLOPs на 75% при генерации 100 тысяч токенов по сравнению с DeepSeek R1. Благодаря архитектуре MoE, CISPO и обучению с гибридным вниманием RL, достигает передовых результатов в задачах долгосрочного рассуждения и реального программирования.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 — новейшая и самая мощная версия Kimi K2. Это передовая модель MoE с общим числом параметров 1 трлн и 32 млрд активных. Ключевые особенности включают усиленный агентный интеллект в программировании с заметным улучшением результатов на тестах и в реальных задачах, а также улучшенную эстетику и удобство интерфейсного кода.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo — это ускоренный вариант, оптимизированный для скорости рассуждений и пропускной способности, при сохранении многошагового мышления и использования инструментов K2 Thinking. Это модель MoE с ~1 трлн параметров, нативной поддержкой контекста 256K и стабильным вызовом инструментов в масштабных производственных сценариях с жёсткими требованиями к задержке и параллельности.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 — это нативная мультимодальная агентная модель с открытым исходным кодом, построенная на базе Kimi-K2-Base и обученная на ~1,5 трлн токенов текста и изображений. Модель использует архитектуру MoE с 1 трлн общих параметров и 32 млрд активных, поддерживает контекст до 256K и объединяет визуальное и языковое понимание.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 — флагманская модель нового поколения для агентной инженерии, использующая архитектуру Mixture of Experts (MoE) с 754B параметров. Существенно улучшает способности программирования, демонстрируя лидирующие результаты на SWE-Bench Pro, и значительно превосходит предшественника в NL2Repo и Terminal-Bench 2.0. Предназначена для длительных агентных задач: лучше справляется с неоднозначными вопросами, разлагает сложные задачи, проводит эксперименты, анализирует результаты и оптимизирует решения через сотни итераций и тысячи вызовов инструментов.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7: новая флагманская модель Zhipu с 355 миллиардами общих и 32 миллиардами активных параметров, полностью обновленная для общего диалога, рассуждений и агентных возможностей. GLM-4.7 улучшает межуровневое мышление и вводит сохраненное мышление и мышление на уровне хода.",
"Pro/zai-org/glm-5.description": "GLM-5 — это модель следующего поколения от Zhipu, ориентированная на сложную системную инженерию и длительные задачи агентов. Параметры модели расширены до 744 миллиардов (40 миллиардов активных) и интегрируют DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ — это экспериментальная исследовательская модель, направленная на улучшение логического мышления.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 оптимизирована для продвинутого логического рассуждения и следования инструкциям, использует архитектуру MoE для эффективного масштабирования рассуждений.",
"Qwen3-235B.description": "Qwen3-235B-A22B — это модель MoE с гибридным режимом рассуждения, позволяющим пользователям переключаться между режимами мышления и немышления. Она поддерживает понимание и рассуждение на 119 языках и диалектах, обладает мощными возможностями вызова инструментов и конкурирует с ведущими моделями, такими как DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro, по общим способностям, программированию, математике, многоязычности и логическому мышлению.",
"Qwen3-32B.description": "Qwen3-32B — это плотная модель с гибридным режимом рассуждения, позволяющая пользователям переключаться между режимами мышления и немышления. Благодаря улучшениям в архитектуре, большему объёму данных и более качественному обучению, она демонстрирует производительность, сопоставимую с Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus поддерживает ввод текста, изображений и видео. Производительность в текстовых задачах сопоставима с Qwen3 Max, но модель быстрее и дешевле. Мультимодальные возможности значительно улучшены по сравнению с серией Qwen3 VL.",
"S2V-01.description": "Базовая модель преобразования ссылки в видео серии 01.",
"SenseChat-128K.description": "Базовая модель V4 с контекстом 128K, сильна в понимании и генерации длинных текстов.",
"SenseChat-32K.description": "Базовая модель V4 с контекстом 32K, гибкая для различных сценариев.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, с молниеносной скоростью и расширенным мышлением.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель серии Haiku от Anthropic, с молниеносной скоростью и расширенными возможностями рассуждений.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 — это самая быстрая и умная модель Haiku от Anthropic, с молниеносной скоростью и расширенными возможностями рассуждения.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
- "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель Anthropic для высокосложных задач, превосходящая в производительности, интеллекте, плавности и понимании.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель Anthropic для высокосложных задач, отличающаяся выдающейся производительностью, интеллектом, плавностью и пониманием.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
- "claude-opus-4-6.description": "Claude Opus 4.6 — самая интеллектуальная модель Anthropic для создания агентов и программирования.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 — самая интеллектуальная модель Anthropic для создания агентов и разработки кода.",
"claude-opus-4.5.description": "Claude Opus 4.5 — это флагманская модель Anthropic, сочетающая первоклассный интеллект с масштабируемой производительностью для сложных задач высокого качества.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 — это самая интеллектуальная модель Anthropic для создания агентов и программирования.",
"claude-opus-4.6.description": "Claude Opus 4.6 — это самая интеллектуальная модель Anthropic для создания агентов и программирования.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 — самая интеллектуальная модель Anthropic на сегодняшний день, предлагающая мгновенные ответы или пошаговое мышление с тонкой настройкой для пользователей API.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель Anthropic на сегодняшний день.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 — лучшее сочетание скорости и интеллекта от Anthropic.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать почти мгновенные ответы либо развернутые поэтапные рассуждения с видимым ходом мыслей.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель серии Sonnet на сегодняшний день.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 — лучшая комбинация скорости и интеллекта в линейке.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 — это самая интеллектуальная модель Anthropic на сегодняшний день.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 — это лучшее сочетание скорости и интеллекта от Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 может выдавать почти мгновенные ответы или пошаговые рассуждения, которые пользователи могут наблюдать. Пользователи API могут точно контролировать, сколько времени модель тратит на размышления.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 — это модель рассуждений следующего поколения с улучшенными возможностями сложных рассуждений и цепочки размышлений.",
- "deepseek-chat.description": "DeepSeek V3.2 балансирует рассуждения и длину вывода для повседневных задач вопросов и ответов и работы агентов. Публичные тесты достигают уровня GPT-5, и это первая модель, интегрирующая мышление в использование инструментов, что приводит к лидирующим оценкам среди открытых агентов.",
+ "deepseek-chat.description": "Новая открытая модель, объединяющая возможности общего назначения и кодирования. Сохраняет универсальность диалоговой модели и сильные навыки кодера, с улучшенной настройкой предпочтений. DeepSeek-V2.5 также улучшает письмо и следование инструкциям.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности, с результатами на уровне конкуренции и рассуждениями, сравнимыми с Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "Режим размышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
"deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
"ernie-x1.1.description": "ERNIE X1.1 — это предварительная версия модели мышления для оценки и тестирования.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, созданная командой ByteDance Seed, поддерживает редактирование и компоновку нескольких изображений. Улучшена согласованность объектов, точное следование инструкциям, понимание пространственной логики, эстетическое выражение, макет постеров и дизайн логотипов с высокоточной визуализацией текста и изображений.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, созданная ByteDance Seed, поддерживает текстовые и графические входные данные для высококонтролируемой генерации изображений высокого качества на основе подсказок.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений и обеспечивающая высококонтролируемую и высококачественную генерацию. Создаёт изображения по текстовым описаниям.",
"fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
"fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
"fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
"fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
- "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантическое и визуальное редактирование, точное редактирование текста на китайском/английском языках, перенос стиля, поворот и многое другое.",
- "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с сильной визуализацией китайского текста и разнообразными визуальными стилями.",
+ "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантическое и визуальное редактирование, точную правку китайского и английского текста, а также высококачественные эффекты вроде переноса стиля и вращения объектов.",
+ "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с впечатляющим качеством отображения китайского текста и широким набором визуальных стилей.",
"flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 1–4 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
- "flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
+ "flux-dev.description": "Открытая исследовательская модель генерации изображений, оптимизированная для некоммерческих инновационных исследований.",
"flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
"flux-kontext-pro.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
- "flux-merged.description": "FLUX.1 [merged] объединяет глубокие функции, исследованные в \"DEV\", с высокоскоростными преимуществами \"Schnell\", расширяя пределы производительности и расширяя области применения.",
"flux-pro-1.1-ultra.description": "Генерация изображений сверхвысокого разрешения с выходом 4 МП, создаёт чёткие изображения за 10 секунд.",
"flux-pro-1.1.description": "Обновлённая профессиональная модель генерации изображений с отличным качеством и точным следованием подсказкам.",
"flux-pro.description": "Коммерческая модель генерации изображений высшего уровня с непревзойдённым качеством и разнообразием результатов.",
- "flux-schnell.description": "FLUX.1 [schnell] — самая продвинутая open-source модель с малым числом шагов, превосходящая аналогичные модели и даже сильные недистиллированные модели, такие как Midjourney v6.0 и DALL-E 3 (HD). Тщательно настроена для сохранения разнообразия предобучения, значительно улучшая визуальное качество, следование инструкциям, вариативность размеров/пропорций, работу со шрифтами и разнообразие вывода.",
"flux.1-schnell.description": "FLUX.1-schnell — высокопроизводительная модель генерации изображений для быстрой генерации в разных стилях.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) обеспечивает стабильную и настраиваемую производительность для сложных задач.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) обеспечивает мощную мультимодальную поддержку для сложных задач.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro — флагманская модель рассуждения от Google с поддержкой длинного контекста для сложных задач.",
"gemini-3-flash-preview.description": "Gemini 3 Flash — самая быстрая и интеллектуальная модель, сочетающая передовые ИИ-возможности с точной привязкой к поисковым данным.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — это модель генерации изображений от Google, которая также поддерживает мультимодальный диалог.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google, также поддерживающая мультимодальный чат.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google, также поддерживающая мультимодальный диалог.",
"gemini-3-pro-preview.description": "Gemini 3 Pro — самая мощная агентная модель от Google с поддержкой визуализации и глубокой интерактивности, основанная на передовых возможностях рассуждения.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) — это самая быстрая нативная модель генерации изображений от Google с поддержкой мышления, генерации и редактирования изображений в диалоговом режиме.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) обеспечивает качество изображения уровня Pro с высокой скоростью Flash и поддержкой мультимодального чата.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) — самая быстрая нативная модель генерации изображений Google с поддержкой размышлений, диалоговой генерацией и редактированием изображений.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview — самая экономичная мультимодальная модель от Google, оптимизированная для задач с высоким объемом, перевода и обработки данных.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview улучшает Gemini 3 Pro с расширенными возможностями рассуждений и добавляет поддержку среднего уровня мышления.",
"gemini-flash-latest.description": "Последний выпуск Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Наша самая мощная и продвинутая модель, предназначенная для сложных корпоративных задач с выдающейся производительностью.",
"jamba-mini.description": "Самая эффективная модель в своем классе, обеспечивающая баланс между скоростью и качеством при минимальных ресурсах.",
"jina-deepsearch-v1.description": "DeepSearch объединяет веб-поиск, чтение и логический анализ для глубокого исследования. Представьте себе агента, который берет вашу исследовательскую задачу, проводит многократный поиск, анализирует и только потом выдает ответ. Этот процесс включает непрерывное исследование, логическое мышление и многогранное решение задач, что принципиально отличается от стандартных LLM, отвечающих на основе предобученных данных или традиционных RAG-систем с одноразовым поиском.",
- "k2p5.description": "Kimi K2.5 — это самая универсальная модель Kimi на сегодняшний день, оснащенная нативной мультимодальной архитектурой, поддерживающей как визуальные, так и текстовые вводы, режимы «мышления» и «немышления», а также как разговорные, так и агентные задачи.",
"kimi-k2-0711-preview.description": "kimi-k2 — базовая модель MoE с мощными возможностями программирования и агентных задач (1T параметров, 32B активных), превосходящая другие открытые модели в логике, программировании, математике и агентных бенчмарках.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлагает окно контекста 256k, улучшенное агентное программирование, более качественный фронтенд-код и лучшее понимание контекста.",
"kimi-k2-instruct.description": "Kimi K2 Instruct — официальная модель логического мышления от Kimi с поддержкой длинного контекста для кода, вопросов-ответов и других задач.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обладает способностями к мышлению и логике, которые значительно улучшают производительность на сложных задачах. QwQ-32B — среднеразмерная модель, успешно конкурирующая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.",
"qwq_32b.description": "Среднеразмерная модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, способности QwQ к мышлению и логике значительно повышают производительность на сложных задачах.",
"r1-1776.description": "R1-1776 — дообученный вариант DeepSeek R1, предназначенный для предоставления нецензурированной, объективной и достоверной информации.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддерживает преобразование текста в видео, изображения в видео (первый кадр, первый+последний кадр) и генерацию аудио, синхронизированного с визуальными эффектами.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus включает генерацию с дополнением веб-поиска для получения актуальной информации, улучшенную интерпретацию сложных подсказок и повышенную согласованность ссылок для профессионального визуального творчества.",
"solar-mini-ja.description": "Solar Mini (Ja) расширяет возможности Solar Mini с акцентом на японский язык, сохраняя при этом высокую эффективность и производительность на английском и корейском.",
"solar-mini.description": "Solar Mini — компактная LLM-модель, превосходящая GPT-3.5, с мощной многоязычной поддержкой английского и корейского языков, предлагающая эффективное решение с малым объемом.",
"solar-pro.description": "Solar Pro — интеллектуальная LLM-модель от Upstage, ориентированная на следование инструкциям на одном GPU, с результатами IFEval выше 80. В настоящее время поддерживает английский язык; полный релиз с расширенной языковой поддержкой и увеличенным контекстом запланирован на ноябрь 2024 года.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 — наша новая мощная модель генерации медиа, создающая видео с синхронизированным звуком. Она может создавать детализированные, динамичные клипы из естественного языка или изображений.",
"spark-x.description": "Обзор возможностей X2: 1. Вводит динамическую настройку режима рассуждений, управляемую через поле `thinking`. 2. Расширенная длина контекста: 64K входных токенов и 128K выходных токенов. 3. Поддерживает функциональность Function Call.",
"stable-diffusion-3-medium.description": "Последняя модель преобразования текста в изображение от Stability AI. Эта версия значительно улучшает качество изображений, понимание текста и разнообразие стилей, точнее интерпретирует сложные текстовые запросы и генерирует более точные и разнообразные изображения.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo использует метод диффузионной дистилляции (ADD) для ускорения модели stable-diffusion-3.5-large.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large — модель преобразования текста в изображение с 800 миллионами параметров (MMDiT), обеспечивающая высокое качество и соответствие запросам, поддерживает изображения до 1 мегапикселя и эффективно работает на потребительском оборудовании.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 инициализирована из контрольной точки v1.2 и дообучена в течение 595 тыс. шагов на наборе данных \"laion-aesthetics v2 5+\" с разрешением 512x512, снижая влияние текстовой настройки на 10% для улучшения выборки без классификатора.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo ориентирована на высококачественную генерацию изображений с точной проработкой деталей и высокой достоверностью сцен.",
"stable-diffusion-xl-base-1.0.description": "Открытая модель преобразования текста в изображение от Stability AI с передовыми возможностями генерации креативных изображений. Обладает высоким уровнем понимания инструкций и поддерживает обратное определение запросов для точной генерации.",
- "stable-diffusion-xl.description": "stable-diffusion-xl значительно превосходит версию v1.5 и соответствует лучшим открытым моделям преобразования текста в изображение. Улучшения включают в себя в 3 раза большую архитектуру UNet, модуль уточнения для повышения качества изображений и более эффективные методы обучения.",
"step-1-128k.description": "Оптимальный баланс между производительностью и стоимостью для общих сценариев.",
"step-1-256k.description": "Обработка сверхдлинного контекста, идеально подходит для анализа длинных документов.",
"step-1-32k.description": "Поддержка диалогов средней длины для широкого круга задач.",
diff --git a/locales/ru-RU/plugin.json b/locales/ru-RU/plugin.json
index c7f4494a0e..2e0b6eb376 100644
--- a/locales/ru-RU/plugin.json
+++ b/locales/ru-RU/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "Всего параметров: {{count}}",
"arguments.title": "Аргументы",
"builtins.lobe-activator.apiName.activateTools": "Активировать инструменты",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} не найдено",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Получить доступные модели",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Получить доступные навыки",
"builtins.lobe-agent-builder.apiName.getConfig": "Получить конфигурацию",
diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json
index fab8a4767e..c688b7e8e2 100644
--- a/locales/ru-RU/providers.json
+++ b/locales/ru-RU/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
"kimicodingplan.description": "Kimi Code от Moonshot AI предоставляет доступ к моделям Kimi, включая K2.5, для выполнения задач кодирования.",
"lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
- "lobehub.description": "LobeHub Cloud использует официальные API для доступа к моделям ИИ и измеряет использование с помощью Кредитов, связанных с токенами моделей.",
"longcat.description": "LongCat — это серия больших моделей генеративного ИИ, разработанных Meituan. Она предназначена для повышения внутренней производительности предприятия и создания инновационных приложений благодаря эффективной вычислительной архитектуре и мощным мультимодальным возможностям.",
"minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
"minimaxcodingplan.description": "План токенов MiniMax предоставляет доступ к моделям MiniMax, включая M2.7, для выполнения задач кодирования по подписке с фиксированной оплатой.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark предоставляет мощные многоязычные ИИ-решения для различных отраслей, включая умные устройства, здравоохранение, финансы и другие вертикали.",
"stepfun.description": "Модели Stepfun обладают передовыми мультимодальными и логическими возможностями, поддерживают понимание длинного контекста и мощную автономную оркестрацию поиска.",
"straico.description": "Straico упрощает интеграцию ИИ, предоставляя единое рабочее пространство, которое объединяет лучшие модели генеративного ИИ для текста, изображений и аудио, обеспечивая маркетологов, предпринимателей и энтузиастов удобным доступом к разнообразным инструментам ИИ.",
+ "streamlake.description": "StreamLake — это корпоративная платформа сервисов моделей и облако для AI‑вычислений, объединяющее высокопроизводительный вывод моделей, малозатратную кастомизацию моделей и полностью управляемые сервисы. Она помогает компаниям сосредоточиться на внедрении инноваций в сфере ИИ, не беспокоясь о сложности и стоимости базовых вычислительных ресурсов.",
"taichu.description": "Модель нового поколения от CASIA и Уханьского института ИИ, поддерживающая многотуровые вопросы и ответы, письмо, генерацию изображений, 3D-понимание и анализ сигналов с улучшенным когнитивным и креативным потенциалом.",
"tencentcloud.description": "Ядро знаний LLM Atomic Power предоставляет сквозные решения для вопросов и ответов для предприятий и разработчиков, с модульными сервисами, такими как разбор документов, разбиение, эмбеддинги и многотуровая переформулировка для создания кастомных ИИ-решений.",
"togetherai.description": "Together AI обеспечивает передовую производительность с инновационными моделями, широкой кастомизацией, быстрым масштабированием и простым развертыванием для нужд бизнеса.",
diff --git a/locales/ru-RU/setting.json b/locales/ru-RU/setting.json
index b20bb61927..40134cf99b 100644
--- a/locales/ru-RU/setting.json
+++ b/locales/ru-RU/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Системные инструменты",
"settingSystemTools.tools.ag.desc": "The Silver Searcher — быстрый инструмент для поиска по коду",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI для автоматизации безголового браузера для AI-агентов",
+ "settingSystemTools.tools.bun.desc": "Bun — быстрый JavaScript‑рантайм и менеджер пакетов",
+ "settingSystemTools.tools.bunx.desc": "bunx — инструмент Bun для запуска npm‑пакетов",
"settingSystemTools.tools.fd.desc": "fd — быстрая и удобная альтернатива find",
"settingSystemTools.tools.find.desc": "Unix find — стандартная команда для поиска файлов",
"settingSystemTools.tools.grep.desc": "GNU grep — стандартный инструмент для поиска текста",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI — управление сервисами LobeHub и подключение к ним",
"settingSystemTools.tools.mdfind.desc": "Поиск Spotlight в macOS (быстрый индексированный поиск)",
"settingSystemTools.tools.node.desc": "Node.js - среда выполнения JavaScript для JS/TS",
"settingSystemTools.tools.npm.desc": "npm - менеджер пакетов Node.js для установки зависимостей",
+ "settingSystemTools.tools.pnpm.desc": "pnpm — быстрый и экономичный менеджер пакетов",
"settingSystemTools.tools.python.desc": "Python - среда выполнения языка программирования",
"settingSystemTools.tools.rg.desc": "ripgrep — чрезвычайно быстрый инструмент для поиска текста",
+ "settingSystemTools.tools.uv.desc": "uv — сверхбыстрый менеджер пакетов Python",
"settingTTS.openai.sttModel": "Модель распознавания речи OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Модель синтеза речи OpenAI",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Модель",
"systemAgent.inputCompletion.modelDesc": "Модель, используемая для предложений автозаполнения ввода (например, текст-призрак GitHub Copilot)",
"systemAgent.inputCompletion.title": "Агент автозаполнения ввода",
+ "systemAgent.promptRewrite.label": "Модель",
+ "systemAgent.promptRewrite.modelDesc": "Укажите модель, используемую для переформулирования запросов",
+ "systemAgent.promptRewrite.title": "Агент перезаписи запросов",
"systemAgent.queryRewrite.label": "Модель",
"systemAgent.queryRewrite.modelDesc": "Укажите модель для оптимизации пользовательских запросов",
"systemAgent.queryRewrite.title": "Агент переформулировки запросов",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Загрузите локальный файл .zip или .skill",
"tab.usage": "Статистика использования",
"tools.add": "Добавить навык",
+ "tools.builtins.find-skills.description": "Помогает пользователям находить и устанавливать навыки агентов, когда они спрашивают «как сделать X», «найди навык для X» или хотят расширить возможности",
+ "tools.builtins.find-skills.title": "Поиск навыков",
"tools.builtins.groupName": "Встроенные",
"tools.builtins.install": "Установить",
"tools.builtins.installed": "Установлено",
+ "tools.builtins.lobe-activator.description": "Обнаружение и активация инструментов и навыков",
+ "tools.builtins.lobe-activator.title": "Активатор инструментов и навыков",
+ "tools.builtins.lobe-agent-browser.description": "CLI для автоматизации браузера агентами ИИ. Используйте для задач, связанных с взаимодействием с сайтами или Electron: навигация, заполнение форм, клики, скриншоты, сбор данных, авторизация и сквозное тестирование приложений.",
+ "tools.builtins.lobe-agent-browser.title": "Агент-браузер",
+ "tools.builtins.lobe-agent-builder.description": "Настройка метаданных агента, параметров модели, плагинов и системного промпта",
+ "tools.builtins.lobe-agent-builder.title": "Конструктор агента",
+ "tools.builtins.lobe-agent-documents.description": "Управление документами агента (список, создание, чтение, редактирование, удаление, переименование) и правилами загрузки",
+ "tools.builtins.lobe-agent-documents.title": "Документы",
+ "tools.builtins.lobe-agent-management.description": "Создание, управление и оркестрация агентов ИИ",
+ "tools.builtins.lobe-agent-management.title": "Управление агентами",
"tools.builtins.lobe-artifacts.description": "Создавайте и просматривайте в реальном времени интерактивные UI-компоненты, визуализации данных, графики, SVG-изображения и веб-приложения. Создавайте насыщенный визуальный контент с возможностью взаимодействия.",
"tools.builtins.lobe-artifacts.readme": "Создавайте и просматривайте в реальном времени интерактивные UI-компоненты, визуализации данных, графики, SVG-изображения и веб-приложения. Создавайте насыщенный визуальный контент, с которым пользователи могут взаимодействовать напрямую.",
"tools.builtins.lobe-artifacts.title": "Артефакты",
+ "tools.builtins.lobe-brief.description": "Сообщение о прогрессе, предоставление результатов и запрос решений у пользователя",
+ "tools.builtins.lobe-brief.title": "Инструменты отчётности",
"tools.builtins.lobe-calculator.description": "Выполняйте математические расчеты, решайте уравнения и работайте с символьными выражениями",
"tools.builtins.lobe-calculator.readme": "Продвинутый математический калькулятор, поддерживающий базовую арифметику, алгебраические уравнения, операции с исчислением и символьную математику. Включает преобразование оснований, решение уравнений, дифференцирование, интегрирование и многое другое.",
"tools.builtins.lobe-calculator.title": "Калькулятор",
"tools.builtins.lobe-cloud-sandbox.description": "Выполняйте код на Python, JavaScript и TypeScript в изолированной облачной среде. Запускайте команды оболочки, управляйте файлами, ищите с помощью регулярных выражений и безопасно экспортируйте результаты.",
"tools.builtins.lobe-cloud-sandbox.readme": "Выполняйте код на Python, JavaScript и TypeScript в изолированной облачной среде. Запускайте команды оболочки, управляйте файлами, ищите контент с помощью регулярных выражений и безопасно экспортируйте результаты.",
"tools.builtins.lobe-cloud-sandbox.title": "Облачная песочница",
+ "tools.builtins.lobe-creds.description": "Управление пользовательскими учётными данными для аутентификации, переменных окружения и проверки API — работа с API‑ключами, OAuth‑токенами и секретами для сторонних интеграций.",
+ "tools.builtins.lobe-creds.title": "Учётные данные",
+ "tools.builtins.lobe-cron.description": "Управление запланированными задачами, которые выполняются автоматически. Создание, обновление, включение/отключение и мониторинг повторяющихся задач агентов.",
+ "tools.builtins.lobe-cron.title": "Планировщик задач",
+ "tools.builtins.lobe-group-agent-builder.description": "Настройка метаданных группы, её участников и общего контента для мультиагентных групп",
+ "tools.builtins.lobe-group-agent-builder.title": "Конструктор групп агентов",
+ "tools.builtins.lobe-group-management.description": "Оркестрация и управление групповыми беседами нескольких агентов",
+ "tools.builtins.lobe-group-management.title": "Управление группами",
"tools.builtins.lobe-gtd.description": "Планируйте цели и отслеживайте прогресс с использованием методологии GTD. Создавайте стратегические планы, управляйте списками дел с отслеживанием статуса и выполняйте длительные асинхронные задачи.",
"tools.builtins.lobe-gtd.readme": "Планируйте цели и отслеживайте прогресс с использованием методологии GTD. Создавайте стратегические планы, управляйте списками задач с отслеживанием статуса и выполняйте длительные асинхронные задачи.",
"tools.builtins.lobe-gtd.title": "Инструменты GTD",
+ "tools.builtins.lobe-knowledge-base.description": "Поиск по загруженным документам и доменным знаниям с помощью семантического векторного поиска — для постоянного и повторного использования",
+ "tools.builtins.lobe-knowledge-base.title": "База знаний",
"tools.builtins.lobe-local-system.description": "Получите доступ к локальной файловой системе на компьютере. Читайте, записывайте, ищите и организуйте файлы. Выполняйте команды оболочки с поддержкой фоновых задач и ищите содержимое с помощью регулярных выражений.",
"tools.builtins.lobe-local-system.readme": "Получите доступ к локальной файловой системе на компьютере. Читайте, записывайте, ищите и организуйте файлы. Выполняйте команды оболочки с поддержкой фоновых задач и ищите содержимое с помощью регулярных выражений.",
"tools.builtins.lobe-local-system.title": "Локальная система",
+ "tools.builtins.lobe-message.description": "Отправка, чтение, редактирование и управление сообщениями в разных платформах через единый интерфейс",
+ "tools.builtins.lobe-message.readme": "Кроссплатформенный инструмент обмена сообщениями, поддерживающий Discord, Telegram, Slack, Google Chat и IRC. Предоставляет единые API для сообщений, реакций, закреплений, веток, управления каналами и функций, специфичных для платформ (например, опросов).",
+ "tools.builtins.lobe-message.title": "Сообщения",
"tools.builtins.lobe-notebook.description": "Создавайте и управляйте постоянными документами в рамках тем беседы. Сохраняйте заметки, отчёты, статьи и markdown-контент, доступный между сессиями.",
"tools.builtins.lobe-notebook.readme": "Создавайте и управляйте постоянными документами в рамках тем беседы. Сохраняйте заметки, отчёты, статьи и контент в формате Markdown, доступный между сессиями.",
"tools.builtins.lobe-notebook.title": "Блокнот",
+ "tools.builtins.lobe-page-agent.description": "Создание, чтение, обновление и удаление узлов в документах с XML‑структурой",
+ "tools.builtins.lobe-page-agent.readme": "Создавайте и редактируйте структурированные документы с точным управлением на уровне узлов. Инициализация из Markdown, пакетные операции вставки/изменения/удаления и поиск‑замена по всему документу.",
+ "tools.builtins.lobe-page-agent.title": "Документ",
+ "tools.builtins.lobe-remote-device.description": "Обнаружение и управление подключениями к удалённым рабочим устройствам",
+ "tools.builtins.lobe-remote-device.readme": "Управляйте подключениями к вашим рабочим устройствам. Просматривайте доступные устройства, активируйте устройство для удалённых операций и проверяйте статус подключения.",
+ "tools.builtins.lobe-remote-device.title": "Удалённое устройство",
+ "tools.builtins.lobe-skill-store.description": "Просмотр и установка навыков агентов из маркетплейса LobeHub. Используйте для расширения возможностей или установки конкретного навыка.",
+ "tools.builtins.lobe-skill-store.title": "Магазин навыков",
+ "tools.builtins.lobe-skills.description": "Активация и использование повторно применяемых пакетов навыков",
+ "tools.builtins.lobe-skills.title": "Навыки",
+ "tools.builtins.lobe-task.description": "Создание, список, редактирование и удаление задач с зависимостями и настройками проверки",
+ "tools.builtins.lobe-task.title": "Инструменты задач",
+ "tools.builtins.lobe-topic-reference.description": "Получение контекста из связанных тематических бесед",
+ "tools.builtins.lobe-topic-reference.title": "Тематические ссылки",
+ "tools.builtins.lobe-user-interaction.description": "Задавайте вопросы пользователям через UI‑взаимодействие и отслеживайте результаты",
+ "tools.builtins.lobe-user-interaction.title": "Взаимодействие с пользователем",
"tools.builtins.lobe-user-memory.description": "Создайте персонализированную базу знаний о себе. Запоминайте предпочтения, отслеживайте действия и события, сохраняйте информацию о личности и вспоминайте важный контекст в будущих беседах.",
"tools.builtins.lobe-user-memory.readme": "Создайте персонализированную базу знаний о себе. Запоминайте предпочтения, отслеживайте действия и события, сохраняйте информацию о личности и вспоминайте важный контекст в будущих беседах.",
"tools.builtins.lobe-user-memory.title": "Память",
+ "tools.builtins.lobe-web-browsing.description": "Поиск актуальной информации в интернете и обход веб‑страниц для извлечения контента. Поддержка различных поисковых систем, категорий и временных диапазонов.",
+ "tools.builtins.lobe-web-browsing.readme": "Ищите актуальную информацию в интернете и извлекайте данные с веб‑страниц. Поддерживаются несколько поисковых систем, категории и временные диапазоны для комплексных исследований.",
+ "tools.builtins.lobe-web-browsing.title": "Веб‑поиск",
+ "tools.builtins.lobe-web-onboarding.description": "Управление процессом веб‑онбординга с контролируемой средой выполнения агента",
+ "tools.builtins.lobe-web-onboarding.title": "Веб‑онбординг",
+ "tools.builtins.lobehub.description": "Управление платформой LobeHub через CLI — базы знаний, память, агенты, файлы, поиск, генерация и многое другое.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Не установлено",
+ "tools.builtins.task.description": "Управление и выполнение задач — создание, отслеживание, проверка и завершение задач через CLI.",
+ "tools.builtins.task.title": "Задача",
"tools.builtins.uninstall": "Удалить",
"tools.builtins.uninstallConfirm.desc": "Вы уверены, что хотите удалить {{name}}? Этот навык будет удалён у текущего агента.",
"tools.builtins.uninstallConfirm.title": "Удалить {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Отключить {{name}}?",
"tools.lobehubSkill.disconnected": "Отключено",
"tools.lobehubSkill.error": "Ошибка",
+ "tools.lobehubSkill.providers.github.description": "GitHub — платформа для контроля версий и совместной разработки, позволяющая размещать, просматривать и управлять репозиториями.",
+ "tools.lobehubSkill.providers.github.readme": "Подключитесь к GitHub, чтобы получать доступ к репозиториям, создавать и управлять задачами, просматривать pull‑request’ы и сотрудничать над кодом — всё через естественный диалог с вашим ИИ‑ассистентом.",
"tools.lobehubSkill.providers.linear.description": "Linear — это современный инструмент отслеживания задач и управления проектами, созданный для высокоэффективных команд, стремящихся разрабатывать программное обеспечение быстрее и лучше.",
"tools.lobehubSkill.providers.linear.readme": "Используйте возможности Linear прямо в вашем ИИ-ассистенте. Создавайте и обновляйте задачи, управляйте спринтами, отслеживайте прогресс проектов и оптимизируйте рабочий процесс разработки — всё через диалог.",
"tools.lobehubSkill.providers.microsoft.description": "Календарь Outlook — это встроенный инструмент планирования в Microsoft Outlook, позволяющий создавать встречи, организовывать собрания и эффективно управлять временем.",
"tools.lobehubSkill.providers.microsoft.readme": "Интеграция с календарём Outlook для просмотра, создания и управления событиями. Планируйте встречи, проверяйте доступность, устанавливайте напоминания и координируйте своё время с помощью естественного языка.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) — это социальная платформа для обмена новостями и общения с аудиторией через посты, ответы и личные сообщения.",
"tools.lobehubSkill.providers.twitter.readme": "Подключитесь к X (Twitter) для публикации твитов, управления лентой и взаимодействия с аудиторией. Создавайте контент, планируйте публикации, отслеживайте упоминания и развивайте своё присутствие в соцсетях с помощью ИИ.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel — облачная платформа для фронтенд‑разработчиков, предлагающая хостинг и серверлесс‑функции для простого развёртывания веб‑приложений.",
+ "tools.lobehubSkill.providers.vercel.readme": "Подключитесь к Vercel, чтобы управлять развёртываниями, отслеживать состояние проектов и контролировать инфраструктуру. Развёртывайте приложения, смотрите логи сборки, управляйте переменными окружения и масштабируйте проекты через диалог с ИИ.",
"tools.notInstalled": "Не установлено",
"tools.notInstalledWarning": "Этот навык не установлен, что может повлиять на работу агента.",
"tools.plugins.enabled": "Включено: {{num}}",
diff --git a/locales/ru-RU/subscription.json b/locales/ru-RU/subscription.json
index 82b779ff00..ea15868bf2 100644
--- a/locales/ru-RU/subscription.json
+++ b/locales/ru-RU/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Обновите до",
"credits.topUp.upgradeSuffix": "и сэкономьте ${{savings}}",
"credits.topUp.validityInfo": "Срок действия {{months}} мес.",
+ "crossPlatform.desc": "Эта подписка была оформлена через мобильное приложение и не может быть изменена здесь. Пожалуйста, управляйте своей подпиской на мобильном устройстве.",
+ "crossPlatform.manageOnMobile": "Управлять на мобильном устройстве",
+ "crossPlatform.title": "Кроссплатформенная подписка",
"currentPlan.cancelAlert": "Подписка будет отменена после {{canceledAt}}. До этого момента вы можете восстановить её в разделе «Управление подпиской»",
"currentPlan.downgradeAlert": "Будет понижен до {{plan}} после {{downgradedAt}}.",
"currentPlan.management": "Управление подпиской",
diff --git a/locales/ru-RU/video.json b/locales/ru-RU/video.json
index a93031dc4e..9cc3943423 100644
--- a/locales/ru-RU/video.json
+++ b/locales/ru-RU/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Начальный кадр",
"config.prompt.placeholder": "Опишите видео, которое хотите создать",
"config.prompt.placeholderWithRef": "Опишите сцену, которую вы хотите создать с изображением",
+ "config.promptExtend.label": "Расширение запроса",
"config.referenceImage.label": "Референсное изображение",
"config.resolution.label": "Разрешение",
"config.seed.label": "Сид",
"config.seed.random": "Случайный",
"config.size.label": "Размер",
+ "config.watermark.label": "Водяной знак",
+ "config.webSearch.label": "Веб‑поиск",
"generation.actions.copyError": "Скопировать сообщение об ошибке",
"generation.actions.errorCopied": "Сообщение об ошибке скопировано в буфер обмена",
"generation.actions.errorCopyFailed": "Не удалось скопировать сообщение об ошибке",
diff --git a/locales/tr-TR/agent.json b/locales/tr-TR/agent.json
index 7d04da077c..9ea02b1b9e 100644
--- a/locales/tr-TR/agent.json
+++ b/locales/tr-TR/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot başarıyla bağlandı",
"channel.connecting": "Bağlanıyor...",
"channel.connectionConfig": "Bağlantı Yapılandırması",
+ "channel.connectionMode": "Bağlantı Modu",
+ "channel.connectionModeHint": "Yeni botlar için WebSocket önerilir. Botunuz QQ Açık Platformunda zaten yapılandırılmış bir geri çağırma URL’sine sahipse Webhook kullanın.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Panoya kopyalandı",
"channel.copy": "Kopyala",
"channel.credentials": "Kimlik Bilgileri",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Lütfen bu URL'yi kopyalayın ve {{name}} Geliştirici Portalındaki {{fieldName}} alanına yapıştırın.",
"channel.exportConfig": "Yapılandırmayı Dışa Aktar",
"channel.feishu.description": "Bu asistanı Feishu'ya özel ve grup sohbetleri için bağlayın.",
+ "channel.feishu.webhookMigrationDesc": "WebSocket modu, genel bir geri çağırma URL’sine ihtiyaç duymadan gerçek zamanlı etkinlik iletimi sağlar. Geçiş yapmak için Gelişmiş Ayarlar’dan Bağlantı Modunu WebSocket olarak değiştirin. Feishu/Lark Açık Platformunda ek bir yapılandırma gerekmez.",
+ "channel.feishu.webhookMigrationTitle": "WebSocket moduna geçmeyi düşünün",
"channel.historyLimit": "Geçmiş Mesaj Sınırı",
"channel.historyLimitHint": "Kanal geçmişini okurken alınacak varsayılan mesaj sayısı",
"channel.importConfig": "Yapılandırmayı İçe Aktar",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Etkileşim doğrulama için gerekli",
"channel.qq.appIdHint": "QQ Açık Platformundan QQ Bot Uygulama Kimliğiniz",
"channel.qq.description": "Bu asistanı grup sohbetleri ve doğrudan mesajlar için QQ'ya bağlayın.",
+ "channel.qq.webhookMigrationDesc": "WebSocket modu, geri çağırma URL’sine ihtiyaç duymadan gerçek zamanlı etkinlik iletimi ve otomatik yeniden bağlanma özelliği sunar. Geçiş yapmak için QQ Açık Platformunda yeni bir bot oluşturun, geri çağırma URL’si yapılandırmayın ve ardından Gelişmiş Ayarlar’dan Bağlantı Modunu WebSocket olarak değiştirin.",
+ "channel.qq.webhookMigrationTitle": "WebSocket moduna geçmeyi düşünün",
"channel.removeChannel": "Kanalı Kaldır",
"channel.removeFailed": "Kanal kaldırılamadı",
"channel.removed": "Kanal kaldırıldı",
@@ -93,7 +101,11 @@
"channel.signingSecret": "İmza Gizli Anahtarı",
"channel.signingSecretHint": "Webhook isteklerini doğrulamak için kullanılır.",
"channel.slack.appIdHint": "Slack API kontrol panelinden Slack Uygulama Kimliğiniz (A ile başlar).",
+ "channel.slack.appToken": "Uygulama Düzeyi Tokenu",
+ "channel.slack.appTokenHint": "Socket Mode (WebSocket) için gereklidir. Slack uygulama ayarlarınızdaki Temel Bilgiler bölümünden bir uygulama düzeyi tokenı (xapp-...) oluşturun.",
"channel.slack.description": "Bu asistanı kanal konuşmaları ve doğrudan mesajlar için Slack'e bağlayın.",
+ "channel.slack.webhookMigrationDesc": "Socket Mode, genel bir HTTP uç noktası gerektirmeden WebSocket üzerinden gerçek zamanlı etkinlik iletimi sağlar. Geçiş yapmak için Slack uygulama ayarlarında Socket Mode’u etkinleştirin, bir Uygulama Düzeyi Tokenı oluşturun ve ardından Gelişmiş Ayarlar’dan Bağlantı Modunu WebSocket olarak değiştirin.",
+ "channel.slack.webhookMigrationTitle": "Socket Mode (WebSocket) moduna geçmeyi düşünün",
"channel.telegram.description": "Bu asistanı Telegram'a özel ve grup sohbetleri için bağlayın.",
"channel.testConnection": "Bağlantıyı Test Et",
"channel.testFailed": "Bağlantı testi başarısız oldu",
diff --git a/locales/tr-TR/chat.json b/locales/tr-TR/chat.json
index 73b62ae540..d33f452d1d 100644
--- a/locales/tr-TR/chat.json
+++ b/locales/tr-TR/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Grup başarıyla silindi",
"confirmRemoveSessionItemAlert": "Bu ajanı silmek üzeresiniz. Silindikten sonra geri alınamaz. Lütfen işleminizi onaylayın.",
"confirmRemoveSessionSuccess": "Ajan başarıyla silindi",
+ "createModal.createBlank": "Boş Oluştur",
+ "createModal.groupPlaceholder": "Bu grubun ne yapması gerektiğini açıklayın...",
+ "createModal.groupTitle": "Grubunuz ne yapmalı?",
+ "createModal.placeholder": "Aracınızın ne yapması gerektiğini açıklayın...",
+ "createModal.title": "Aracınız ne yapmalı?",
"defaultAgent": "Varsayılan Ajan",
"defaultGroupChat": "Grup",
"defaultList": "Varsayılan Liste",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Bağlam çok uzun, geçmiş sıkıştırılıyor...",
"operation.execAgentRuntime": "Yanıt hazırlanıyor",
"operation.execClientTask": "Görev yürütülüyor",
+ "operation.execServerAgentRuntime": "Çalışıyor… Görev devam ederken sayfayı değiştirebilir veya kapatabilirsiniz.",
"operation.sendMessage": "Mesaj gönderiliyor",
"owner": "Grup sahibi",
"pageCopilot.title": "Sayfa Ajanı",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Ayrıntılar getiriliyor...",
"task.status.initializing": "Görev başlatılıyor...",
"task.subtask": "Alt Görev",
+ "task.title": "Görevler",
"thread.divider": "Alt Konu",
"thread.threadMessageCount": "{{messageCount}} mesaj",
"thread.title": "Alt Konu",
@@ -429,9 +436,11 @@
"toolAuth.title": "Bu Ajan için Yetenekleri Yetkilendir",
"topic.checkOpenNewTopic": "Yeni bir konu başlatılsın mı?",
"topic.checkSaveCurrentMessages": "Mevcut konuşmayı konu olarak kaydetmek ister misiniz?",
+ "topic.defaultTitle": "Başlıksız Konu",
"topic.openNewTopic": "Yeni Konu Aç",
"topic.recent": "Son Konular",
"topic.saveCurrentMessages": "Mevcut oturumu konu olarak kaydet",
+ "topic.viewAll": "Tüm Konuları Görüntüle",
"translate.action": "Çevir",
"translate.clear": "Çeviriyi Temizle",
"tts.action": "Metni Sese Dönüştür",
diff --git a/locales/tr-TR/common.json b/locales/tr-TR/common.json
index 6afa6caa01..eb80ff9c46 100644
--- a/locales/tr-TR/common.json
+++ b/locales/tr-TR/common.json
@@ -343,10 +343,19 @@
"mail.support": "E-posta Desteği",
"more": "Daha Fazla",
"navPanel.agent": "Temsilci",
+ "navPanel.customizeSidebar": "Kenar çubuğunu özelleştir",
"navPanel.displayItems": "Görüntülenen Öğeler",
+ "navPanel.hidden": "Gizli",
+ "navPanel.hideSection": "Bölümü gizle",
"navPanel.library": "Kütüphane",
+ "navPanel.moveDown": "Aşağı taşı",
+ "navPanel.moveUp": "Yukarı taşı",
+ "navPanel.pinned": "Sabitlendi",
"navPanel.searchAgent": "Temsilci Ara...",
+ "navPanel.searchRecent": "Son Arananlar...",
"navPanel.searchResultEmpty": "Arama sonucu bulunamadı",
+ "navPanel.show": "Göster",
+ "navPanel.visible": "Görünür",
"new": "Yeni",
"noContent": "İçerik yok",
"oauth": "SSO Girişi",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Bizi destekleyin",
"productHunt.description": "Product Hunt'ta bize destek olun. Desteğiniz bizim için çok değerli!",
"productHunt.title": "Product Hunt'tayız!",
+ "promptTransform.action": "Fikri Geliştir",
+ "promptTransform.actions.rewrite": "Ayrıntıları Genişlet",
+ "promptTransform.actions.translate": "Çevir",
+ "promptTransform.status.rewrite": "Ayrıntılar genişletiliyor...",
+ "promptTransform.status.translate": "Çevriliyor...",
+ "recents": "Son kullanılanlar",
"regenerate": "Yeniden Oluştur",
"releaseNotes": "Sürüm Detayları",
"rename": "Yeniden Adlandır",
@@ -400,6 +415,7 @@
"tab.audio": "Ses",
"tab.chat": "Sohbet",
"tab.community": "Topluluk",
+ "tab.create": "Oluştur",
"tab.discover": "Keşfet",
"tab.eval": "Değerlendirme Laboratuvarı",
"tab.files": "Dosyalar",
diff --git a/locales/tr-TR/image.json b/locales/tr-TR/image.json
index 65b9ed47b1..546eb14f40 100644
--- a/locales/tr-TR/image.json
+++ b/locales/tr-TR/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Model",
"config.prompt.placeholder": "Oluşturmak istediğinizi tanımlayın",
"config.prompt.placeholderWithRef": "Resmi nasıl ayarlamak istediğinizi açıklayın",
+ "config.promptExtend.label": "İstem Genişletme",
"config.quality.label": "Görüntü Kalitesi",
"config.quality.options.hd": "Yüksek Çözünürlük",
"config.quality.options.standard": "Standart",
@@ -24,6 +25,8 @@
"config.size.label": "Boyut",
"config.steps.label": "Adımlar",
"config.title": "Yapılandırma",
+ "config.watermark.label": "Filigran",
+ "config.webSearch.label": "Web Arama",
"config.width.label": "Genişlik",
"generation.actions.applySeed": "Tohumu Uygula",
"generation.actions.copyError": "Hata Mesajını Kopyala",
diff --git a/locales/tr-TR/labs.json b/locales/tr-TR/labs.json
index 8e3a73ee07..b6f949ce5b 100644
--- a/locales/tr-TR/labs.json
+++ b/locales/tr-TR/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Temsilci mesajlarını ve bunlara ait araç çağrısı sonuçlarını birlikte gruplayarak görüntüleyin",
"features.assistantMessageGroup.title": "Temsilci Mesaj Gruplama",
+ "features.gatewayMode.desc": "Aracı görevlerini yerel olarak çalıştırmak yerine Gateway WebSocket üzerinden sunucuda yürütün. Daha hızlı yürütme sağlar ve istemci kaynak kullanımını azaltır.",
+ "features.gatewayMode.title": "Sunucu Taraflı Aracı Yürütme (Gateway)",
"features.groupChat.desc": "Çoklu temsilci grup sohbeti koordinasyonunu etkinleştirin.",
"features.groupChat.title": "Grup Sohbeti (Çoklu Temsilci)",
"features.inputMarkdown.desc": "Girdi alanında Markdown biçimlendirmesini (kalın metin, kod blokları, tablolar vb.) gerçek zamanlı olarak görüntüleyin.",
diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json
index 15e206d1a5..63136ef5d6 100644
--- a/locales/tr-TR/models.json
+++ b/locales/tr-TR/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Çin'deki en iyi performansa sahip modellerden biri olup, bilgi, uzun metin ve yaratıcı üretim gibi Çince görevlerde önde gelen yabancı modelleri geride bırakır. Ayrıca, otoriter kıyaslamalarda güçlü sonuçlar sunan sektör lideri çok modlu yeteneklere sahiptir.",
"Baichuan4.description": "Yerli modeller arasında en yüksek performansa sahip olup, ansiklopedik bilgi, uzun metin ve yaratıcı üretim gibi Çince görevlerde önde gelen yabancı modelleri geride bırakır. Ayrıca, sektör lideri çok modlu yetenekler ve güçlü kıyaslama sonuçları sunar.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS, ByteDance Seed tarafından geliştirilen açık kaynaklı LLM ailesidir. Uzun bağlam işleme, akıl yürütme, ajan görevleri ve genel yeteneklerde güçlüdür. Seed-OSS-36B-Instruct, 36 milyar parametreli, ultra uzun bağlamı doğal olarak destekleyen, büyük belgeler veya kod tabanlarını işleyebilen bir talimat odaklı modeldir. Akıl yürütme, kod üretimi ve araç kullanımı gibi görevler için optimize edilmiştir. \"Düşünme Bütçesi\" özelliği, verimliliği artırmak için esnek akıl yürütme uzunluğu sağlar.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR, DeepSeek AI tarafından geliştirilen, OCR ve bağlam optik sıkıştırmaya odaklanan bir görsel-dil modelidir. Görsellerden bağlam sıkıştırmayı araştırır, belgeleri verimli şekilde işler ve bunları yapılandırılmış metne (ör. Markdown) dönüştürür. Görsellerdeki metni yüksek doğrulukla tanır; belge dijitalleştirme, metin çıkarma ve yapılandırılmış işleme için uygundur.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, DeepSeek serisinin daha büyük ve daha akıllı modeli olarak Llama 70B mimarisine damıtılmıştır. Kıyaslamalar ve insan değerlendirmeleri, özellikle matematik ve bilgi doğruluğu görevlerinde temel Llama 70B'den daha akıllı olduğunu göstermektedir.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Qwen2.5-Math-1.5B tabanlı bir DeepSeek-R1 damıtılmış modelidir. Pekiştirmeli öğrenme ve soğuk başlangıç verileri, akıl yürütme performansını optimize eder ve açık modeller için yeni çok görevli kıyaslamalar belirler.",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill modelleri, DeepSeek-R1 tarafından üretilen örnek verilerle açık kaynaklı modellerden ince ayarlanmıştır.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Sağlayıcı: sophnet. DeepSeek V3 Fast, DeepSeek V3 0324’ün yüksek TPS sürümüdür; tam hassasiyetlidir (kuantize edilmemiştir), daha güçlü kod ve matematik yeteneklerine sahiptir ve daha hızlı yanıtlar sunar.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast, DeepSeek V3.1’in yüksek TPS hızlı varyantıdır. Hibrit düşünme modu: sohbet şablonları aracılığıyla bir model hem düşünme hem de düşünmeme modlarını destekler. Daha akıllı araç kullanımı: son eğitim, araç ve ajan görev performansını artırır.",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 düşünme modu: düşünme ve düşünmeme modlarını birleştiren yeni bir hibrit akıl yürütme modeli, DeepSeek-R1-0528’den daha verimlidir. Son eğitim optimizasyonları, ajan araç kullanımı ve görev performansını önemli ölçüde artırır.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2, uzun metinleri işlerken eğitim ve çıkarım verimliliğini artırmayı amaçlayan seyrek dikkat (sparse attention) mekanizmasını tanıtır ve deepseek-v3.1’e kıyasla daha düşük maliyetlidir.",
"DeepSeek-V3.description": "DeepSeek-V3, DeepSeek tarafından geliştirilen bir MoE modelidir. Qwen2.5-72B ve Llama-3.1-405B gibi diğer açık modelleri birçok kıyaslamada geride bırakır ve GPT-4o ile Claude 3.5 Sonnet gibi önde gelen kapalı modellerle rekabet eder.",
"Doubao-lite-128k.description": "Doubao-lite, ultra hızlı yanıtlar ve daha iyi değer sunar; senaryolar arasında esnek seçenekler sunar. 128K bağlamı çıkarım ve ince ayar için destekler.",
"Doubao-lite-32k.description": "Doubao-lite, ultra hızlı yanıtlar ve daha iyi değer sunar; senaryolar arasında esnek seçenekler sunar. 32K bağlamı çıkarım ve ince ayar için destekler.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Akıl yürütme, kodlama ve ajan görevleri için yüksek performanslı model.",
"GLM-4.6.description": "GLM-4.6: Önceki nesil model.",
"GLM-4.7.description": "GLM-4.7, Zhipu'nun en son amiral gemisi modeli olup, geliştirilmiş kodlama yetenekleri, uzun vadeli görev planlaması ve araç iş birliği ile Agentic Kodlama senaryoları için optimize edilmiştir.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Kodlama görevleri için daha hızlı çıkarım sağlayan GLM-5'in optimize edilmiş sürümü.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo, ajan senaryoları için derinlemesine optimize edilmiş bir temel modeldir. Eğitim aşamasında ajan görevlerinin çekirdek gereksinimlerine göre özel olarak optimize edilmiştir; araç kullanımı, komut takibi ve uzun zincirli yürütme gibi temel yetenekleri geliştirir. Yüksek performanslı ajan asistanları geliştirmek için idealdir.",
"GLM-5.1.description": "GLM-5.1, Zhipu'nun en son amiral gemisi modelidir. GLM-5'in geliştirilmiş bir versiyonu olup, karmaşık sistem mühendisliği ve uzun vadeli görevler için geliştirilmiş ajan mühendisliği yeteneklerine sahiptir.",
- "GLM-5.description": "GLM-5, Zhipu'nun Agentic Mühendislik için özel olarak tasarlanmış yeni nesil amiral gemisi temel modelidir. Karmaşık sistem mühendisliği ve uzun vadeli ajan görevlerinde güvenilir üretkenlik sunar. Kodlama ve ajan yeteneklerinde, GLM-5 açık kaynak modeller arasında en son teknolojiyi temsil eder.",
+ "GLM-5.description": "GLM-5, Agentic Engineering için özel olarak tasarlanmış Zhipu'nun yeni nesil amiral gemisi temel modelidir. Karmaşık sistem mühendisliğinde ve uzun vadeli ajan görevlerinde güvenilir üretkenlik sağlar. Kodlama ve ajan yeteneklerinde açık kaynak modeller arasında en üst düzey performansa ulaşır. Gerçek dünya yazılım senaryolarında kullanıcı deneyimi, Claude Opus 4.5’e yaklaşır. Karmaşık sistem mühendisliği ve uzun vadeli ajan görevlerinde mükemmeldir; genel amaçlı ajan asistanları için ideal bir temel modeldir.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B), çeşitli alanlar ve karmaşık görevler için yenilikçi bir modeldir.",
"HY-Image-V3.0.description": "Güçlü orijinal görüntü özellik çıkarma ve detay koruma yetenekleri, daha zengin görsel doku sunarak yüksek doğrulukta, iyi kompozisyonlu ve üretim kalitesinde görseller oluşturur.",
"HelloMeme.description": "HelloMeme, sağladığınız görseller veya hareketlerden meme, GIF veya kısa video oluşturan bir yapay zeka aracıdır. Çizim veya kodlama becerisi gerekmez—sadece bir referans görsel yeterlidir. Eğlenceli, dikkat çekici ve stil açısından tutarlı içerikler üretir.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter, Tencent AI tarafından 2025 yılında yayınlanan, ayarlama gerektirmeyen kişiselleştirilmiş karakter üretim modelidir. Tek bir referans görselden karakter modelleyebilir ve bu karakteri farklı stiller, hareketler ve arka planlara esnek şekilde aktarabilir. Yüksek doğrulukta ve senaryolar arası tutarlı karakter üretimi hedefler.",
"InternVL2-8B.description": "InternVL2-8B, çok modlu görsel-metin işleme destekleyen güçlü bir görsel-dil modelidir. Görsel içeriği doğru şekilde tanır ve ilgili açıklamalar veya yanıtlar üretir.",
"InternVL2.5-26B.description": "InternVL2.5-26B, çok modlu görsel-metin işleme destekleyen güçlü bir görsel-dil modelidir. Görsel içeriği doğru şekilde tanır ve ilgili açıklamalar veya yanıtlar üretir.",
+ "KAT-Coder-Air-V1.description": "KAT-Coder serisi içinde hafif bir sürümdür. Agentic Coding için özel olarak tasarlanmış olup programlama görevlerini ve senaryolarını kapsamlı şekilde destekler. Büyük ölçekli ajan tabanlı pekiştirmeli öğrenmeden yararlanarak ortaya çıkan akıllı davranışları mümkün kılar ve benzer modellere göre kodlama performansında önemli ölçüde üstündür.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B, KAT-Coder serisinin RL inovasyonuna yönelik deneysel sürümüdür ve SWE-Bench verified benchmark’ta yüzde 74,6 gibi etkileyici bir performans elde ederek açık kaynak modeller için yeni bir rekor kırmıştır. Agentic Coding’e odaklanmıştır ve şu anda yalnızca SWE-Agent çatısını destekler, ancak basit sohbetler için de kullanılabilir.",
+ "KAT-Coder-Pro-V1.description": "Agentic Coding için tasarlanmıştır; programlama görevlerini ve senaryolarını kapsamlı şekilde destekler. Büyük ölçekli pekiştirmeli öğrenme sayesinde ortaya çıkan akıllı davranışları mümkün kılar ve benzer modellere kıyasla kod yazma performansında önemli ölçüde üstündür.",
+ "KAT-Coder-Pro-V2.description": "Kuaishou Kwaipilot ekibinin en yeni yüksek performanslı modelidir; karmaşık kurumsal projeler ve SaaS entegrasyonu için tasarlanmıştır. Kodlama odaklı senaryolarda mükemmel performans gösterir ve çeşitli ajan çatılarıyla (Claude Code, OpenCode, KiloCode) uyumludur; OpenClaw’ı yerel olarak destekler ve özellikle ön uç sayfa tasarımı için optimize edilmiştir.",
+ "Kimi-K2.5.description": "Kimi K2.5, Kimi modelleri arasında en yetenekli olanıdır; ajan görevleri, kodlama ve görsel anlama alanlarında açık kaynak SOTA performans sunar. Çok modlu girdileri ve hem düşünme hem de düşünmesiz modları destekler.",
"Kolors.description": "Kolors, Kuaishou Kolors ekibi tarafından geliştirilen bir metinden-görüntüye modeldir. Milyarlarca parametreyle eğitilmiş olup görsel kalite, Çince anlamsal anlama ve metin işleme konularında belirgin avantajlara sahiptir.",
"Kwai-Kolors/Kolors.description": "Kolors, Kuaishou Kolors ekibi tarafından geliştirilen büyük ölçekli gizli difüzyon metinden-görüntüye modelidir. Milyarlarca metin-görsel çiftiyle eğitilmiş olup görsel kalite, karmaşık anlamsal doğruluk ve Çince/İngilizce metin işleme konularında öne çıkar. Güçlü Çince içerik anlama ve üretim yeteneklerine sahiptir.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B), yazılım mühendisliği görevleri için optimize edilmiş açık kaynaklı bir 32B modelidir. SWE-Bench Verified üzerinde %62.4 çözüm oranı ile açık modeller arasında 5. sıradadır. Orta eğitim, SFT ve RL ile kod tamamlama, hata düzeltme ve kod inceleme için optimize edilmiştir.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Güçlü dil anlama, üstün akıl yürütme ve metin üretimi sunan son teknoloji küçük dil modeli.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3, en gelişmiş çok dilli açık kaynaklı Llama modelidir. Çok düşük maliyetle neredeyse 405B performansı sunar. Dönüştürücü tabanlıdır ve faydalılık ve güvenlik için SFT ve RLHF ile geliştirilmiştir. Yönerge ayarlı sürüm, çok dilli sohbet için optimize edilmiştir ve birçok açık ve kapalı sohbet modelini endüstri kıyaslamalarında geride bırakır. Bilgi kesimi: Aralık 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick, güçlü akıl yürütme performansı için verimli uzman etkinleştirme sunan büyük bir MoE modelidir.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro, gerçek dünya senaryolarındaki yüksek yoğunluklu ajan iş akışları için özel olarak tasarlanmıştır. 1 trilyondan fazla toplam parametreye (42B etkin parametre) sahiptir, yenilikçi bir hibrit dikkat mimarisi kullanır ve 1 milyon token’a kadar ultra uzun bağlam desteği sunar. Güçlü bir temel model üzerine inşa edilmiştir; daha geniş ajan senaryoları için hesaplama kaynaklarını sürekli artırır, zekânın eylem alanını genişletir ve kodlamadan gerçek dünya görev yürütmeye (“claw”) kadar güçlü genelleme sağlar.",
"MiniMax-Hailuo-02.description": "Yeni nesil video üretim modeli MiniMax Hailuo 02, 1080P çözünürlük ve 10 saniyelik video üretimini destekleyerek resmi olarak yayınlandı.",
"MiniMax-Hailuo-2.3-Fast.description": "Vücut hareketi, fiziksel gerçekçilik ve talimat takibinde kapsamlı yükseltmelerle yepyeni bir video üretim modeli.",
"MiniMax-Hailuo-2.3.description": "Vücut hareketi, fiziksel gerçekçilik ve talimat takibinde kapsamlı yükseltmelerle yepyeni bir video üretim modeli.",
"MiniMax-M1.description": "80K düşünce zinciri ve 1M giriş desteğiyle üst düzey modellerle karşılaştırılabilir performans sunan yeni bir yerli akıl yürütme modeli.",
"MiniMax-M2-Stable.description": "Ticari kullanım için daha yüksek eşzamanlılık sunan, verimli kodlama ve ajan iş akışları için tasarlanmıştır.",
- "MiniMax-M2.1-Lightning.description": "Daha hızlı ve daha verimli çıkarım ile güçlü çok dilli programlama yetenekleri.",
"MiniMax-M2.1-highspeed.description": "Güçlü çok dilli programlama yetenekleri, kapsamlı olarak geliştirilmiş bir programlama deneyimi. Daha hızlı ve daha verimli.",
"MiniMax-M2.1.description": "MiniMax-M2.1, MiniMax tarafından geliştirilen amiral gemisi açık kaynak büyük modeldir ve karmaşık gerçek dünya görevlerini çözmeye odaklanır. Temel güçlü yönleri çok dilli programlama yetenekleri ve bir Ajan olarak karmaşık görevleri çözme becerisidir.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5 ile aynı performans, ancak daha hızlı çıkarım.",
"MiniMax-M2.5.description": "MiniMax-M2.5, MiniMax'in karmaşık gerçek dünya görevlerini çözmeye odaklanan amiral gemisi açık kaynaklı büyük modelidir. Temel güçlü yönleri çok dilli programlama yetenekleri ve bir Agent olarak karmaşık görevleri çözme yeteneğidir.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: M2.7 ile aynı performans, ancak önemli ölçüde daha hızlı çıkarım.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Kendini yineleyen iyileştirme yolculuğuna başlama, üst düzey gerçek dünya mühendislik yetenekleri.",
+ "MiniMax-M2.7.description": "Kendi kendini geliştiren ilk modeldir; üst düzey kodlama ve ajan performansı sunar (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Önceki nesil model.",
"MiniMax-Text-01.description": "MiniMax-01, klasik Dönüştürücüler ötesinde büyük ölçekli doğrusal dikkat sunar. 456B parametreye ve geçiş başına 45.9B etkin parametreye sahiptir. Üst düzey performans sunar ve 4M bağlam (32× GPT-4o, 20× Claude-3.5-Sonnet) destekler.",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1, 456 milyar toplam parametre ve token başına yaklaşık 45.9 milyar aktif parametre ile açık ağırlıklı büyük ölçekli hibrit dikkat akıl yürütme modelidir. 1 milyon bağlamı doğal olarak destekler ve DeepSeek R1'e kıyasla 100K-token üretiminde FLOP'ları %75 oranında azaltmak için Flash Attention kullanır. MoE mimarisi, CISPO ve hibrit dikkat RL eğitimi ile uzun giriş akıl yürütme ve gerçek yazılım mühendisliği görevlerinde lider performans sağlar.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905, en yeni ve en güçlü Kimi K2 modelidir. 1T toplam ve 32B aktif parametreye sahip üst düzey bir MoE modelidir. Temel özellikleri arasında, kıyaslama testlerinde ve gerçek dünya ajan görevlerinde önemli kazanımlar sağlayan daha güçlü ajan kodlama zekası, geliştirilmiş ön yüz kodlama estetiği ve kullanılabilirlik yer alır.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo, K2 Thinking’in çok adımlı akıl yürütme ve araç kullanımı yeteneklerini korurken, akıl yürütme hızı ve işlem hacmi için optimize edilmiş Turbo varyantıdır. Yaklaşık 1T toplam parametreye sahip bir MoE modelidir, yerel olarak 256K bağlamı destekler ve üretim senaryoları için kararlı büyük ölçekli araç çağrısı sağlar; düşük gecikme ve yüksek eşzamanlılık gereksinimlerini karşılar.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5, Kimi-K2-Base üzerine inşa edilmiş açık kaynaklı yerel çok modlu bir ajan modelidir. Yaklaşık 1,5 trilyon görsel ve metin karışımı token ile eğitilmiştir. Model, toplamda 1T parametreye ve 32B aktif parametreye sahip MoE mimarisini benimser, 256K bağlam penceresini destekler ve görsel ile dil anlama yeteneklerini sorunsuz bir şekilde entegre eder.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1, Mixture of Experts (MoE) mimarisi kullanan, 754B parametreli yeni nesil amiral gemisi bir modeldir ve ajan mühendisliği için tasarlanmıştır. Programlama yeteneklerini önemli ölçüde geliştirir; SWE-Bench Pro’da lider sonuçlara ulaşır ve NL2Repo ve Terminal-Bench 2.0 gibi değerlendirmelerde selefinden büyük farkla daha iyi performans gösterir. Uzun süreli ajan görevleri için tasarlanmıştır; belirsiz soruları daha iyi değerlendirir, karmaşık görevleri parçalar, deneyler yürütür, sonuçları analiz eder ve yüzlerce yineleme ve binlerce araç çağrısıyla sürekli optimize eder.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7, Zhipu'nun 355 milyar toplam parametre ve 32 milyar aktif parametre ile yeni nesil amiral gemisi modelidir. Genel diyalog, akıl yürütme ve ajan yeteneklerinde tamamen yükseltilmiştir. GLM-4.7, İç İçe Düşünme'yi geliştirir ve Korunan Düşünme ile Dönüş Seviyesi Düşünme'yi tanıtır.",
"Pro/zai-org/glm-5.description": "GLM-5, karmaşık sistem mühendisliği ve uzun süreli Agent görevlerine odaklanan Zhipu'nun yeni nesil büyük dil modelidir. Model parametreleri 744B'ye (40B aktif) genişletilmiş ve DeepSeek Sparse Attention entegrasyonu sağlanmıştır.",
"QwQ-32B-Preview.description": "Qwen QwQ, akıl yürütme yeteneğini geliştirmeye odaklanan deneysel bir araştırma modelidir.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507, ölçekli verimli akıl yürütme için MoE kullanan, gelişmiş akıl yürütme ve talimat takibi için optimize edilmiştir.",
"Qwen3-235B.description": "Qwen3-235B-A22B, kullanıcıların düşünme ve düşünmeme modları arasında sorunsuz geçiş yapmasına olanak tanıyan hibrit akıl yürütme modunu tanıtan bir MoE modelidir. 119 dil ve lehçede anlama ve akıl yürütmeyi destekler, güçlü araç çağırma yeteneklerine sahiptir ve genel yetenek, kod ve matematik, çok dilli yetenek ve bilgi akıl yürütme ölçütlerinde DeepSeek R1, OpenAI o1, o3-mini, Grok 3 ve Google Gemini 2.5 Pro gibi ana akım modellerle rekabet eder.",
"Qwen3-32B.description": "Qwen3-32B, kullanıcıların düşünme ve düşünmeme modları arasında geçiş yapmasına olanak tanıyan hibrit akıl yürütme modunu tanıtan yoğun bir modeldir. Mimari iyileştirmeler, daha fazla veri ve daha iyi eğitimle Qwen2.5-72B ile eşdeğer performans sunar.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus, metin, görüntü ve video girdilerini destekler. Saf metin görevlerindeki performansı Qwen3 Max ile karşılaştırılabilir olup daha iyi performans ve daha düşük maliyet sunar. Çok modlu yetenekleri, Qwen3 VL serisine kıyasla önemli ölçüde geliştirilmiştir.",
"S2V-01.description": "01 serisinin temel referanstan videoya modeli.",
"SenseChat-128K.description": "128K bağlam penceresine sahip Base V4 modeli; uzun metin anlama ve üretiminde güçlüdür.",
"SenseChat-32K.description": "32K bağlam penceresine sahip Base V4 modeli; çok çeşitli senaryolar için esnektir.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modeli olup, yıldırım hızında ve genişletilmiş düşünme yeteneklerine sahiptir.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic’in en hızlı ve en akıllı Haiku modelidir; son derece yüksek hız ve gelişmiş çıkarım sunar.",
"claude-haiku-4.5.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modeli olup, yıldırım hızında ve gelişmiş akıl yürütme yeteneklerine sahiptir.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic'in en yeni ve en yetenekli modeli olup, performans, zeka, akıcılık ve anlayışta üstünlük sağlar.",
- "claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in karmaşık görevler için en güçlü modeli olup, performans, zeka, akıcılık ve anlayışta üstünlük sağlar.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic’in en yeni ve en yetenekli modelidir; yüksek karmaşıklıktaki görevlerde performans, zekâ, akıcılık ve anlama açısından mükemmeldir.",
+ "claude-opus-4-20250514.description": "Claude Opus 4, Anthropic’in en güçlü modelidir; karmaşık görevlerde performans, zekâ, akıcılık ve kavrama açısından üstünlük sağlar.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
- "claude-opus-4-6.description": "Claude Opus 4.6, Anthropic'in ajanlar oluşturma ve kodlama için en akıllı modelidir.",
+ "claude-opus-4-6.description": "Claude Opus 4.6, ajan geliştirme ve kodlama için Anthropic’in en akıllı modelidir.",
"claude-opus-4.5.description": "Claude Opus 4.5, Anthropic'in amiral gemisi modeli olup, üst düzey zeka ile ölçeklenebilir performansı birleştirerek karmaşık ve yüksek kaliteli akıl yürütme görevleri için tasarlanmıştır.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6, Anthropic'in ajanlar oluşturma ve kodlama için en akıllı modelidir.",
"claude-opus-4.6.description": "Claude Opus 4.6, Anthropic'in ajanlar oluşturma ve kodlama için en akıllı modelidir.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic'in bugüne kadarki en akıllı modeli olup, API kullanıcıları için ince ayarlı kontrol ile anında yanıtlar veya adım adım düşünme sunar.",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic'in bugüne kadarki en akıllı modelidir.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6, hız ve zekanın en iyi kombinasyonunu sunar.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya görünür düşünme süreciyle adım adım mantıksal çıkarım üretebilir.",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en akıllı modelidir.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6, hız ve zekânın en iyi birleşimini sunar.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5, Anthropic'in bugüne kadarki en akıllı modelidir.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6, hız ve zekanın en iyi kombinasyonunu sunar.",
"claude-sonnet-4.description": "Claude Sonnet 4, anında yanıtlar veya kullanıcıların görebileceği şekilde adım adım genişletilmiş akıl yürütme üretebilir. API kullanıcıları, modelin ne kadar süre düşüneceğini hassas bir şekilde kontrol edebilir.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2, daha güçlü karmaşık akıl yürütme ve düşünce zinciri yeteneklerine sahip yeni nesil bir akıl yürütme modelidir.",
- "deepseek-chat.description": "DeepSeek V3.2, günlük QA ve ajan görevleri için akıl yürütme ve çıktı uzunluğunu dengeler. Kamuya açık ölçütlerde GPT-5 seviyelerine ulaşır ve araç kullanımına düşünmeyi entegre eden ilk modeldir, açık kaynaklı ajan değerlendirmelerine öncülük eder.",
+ "deepseek-chat.description": "Genel ve kod becerilerini birleştiren yeni bir açık kaynak modeldir. Sohbet modelinin genel diyalog yeteneklerini ve kodlayıcı modelinin güçlü kodlama performansını korur; tercih hizalamasını iyileştirir. DeepSeek-V2.5 ayrıca yazma ve talimat takip etme yeteneklerini geliştirir.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.",
"deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenek ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
"deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramasına sahip DeepSeek R1 tam sürüm; güçlü anlama ve üretim sunar.",
"deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verileri kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans sunar.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking, daha yüksek doğruluk için çıktıdan önce düşünce zinciri üreten derin bir akıl yürütme modelidir. En iyi yarışma sonuçları ve Gemini-3.0-Pro ile karşılaştırılabilir akıl yürütme yetenekleri sunar.",
+ "deepseek-reasoner.description": "DeepSeek V3.2 düşünme modu, doğruluğu artırmak için nihai cevaptan önce bir düşünce zinciri üretir.",
"deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
"deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeek’in kod odaklı modelidir.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.",
"ernie-x1.1.description": "ERNIE X1.1, değerlendirme ve test için bir düşünme-modeli önizlemesidir.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, ByteDance Seed ekibi tarafından geliştirilen, çoklu görüntü düzenleme ve kompozisyonu destekleyen bir modeldir. Konu tutarlılığı, talimat takibi, mekansal mantık anlayışı, estetik ifade, poster düzeni ve logo tasarımı ile yüksek hassasiyetli metin-görüntü işleme özelliklerini geliştirir.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ByteDance Seed tarafından geliştirilen, metin ve görüntü girdilerini destekleyen ve istemlerden yüksek derecede kontrol edilebilir, yüksek kaliteli görüntü üretimi sağlayan bir modeldir.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ByteDance Seed tarafından geliştirilen bir görsel üretim modelidir; metin ve görsel girdileri destekler, yüksek kontrollü ve yüksek kaliteli görsel üretir. Metin istemlerinden görseller oluşturabilir.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro], metin ve referans görselleri girdi olarak alarak hedefe yönelik yerel düzenlemeler ve karmaşık sahne dönüşümleri sağlar.",
"fal-ai/flux/krea.description": "Flux Krea [dev], daha gerçekçi ve doğal görseller üretmeye eğilimli estetik önyargıya sahip bir görsel üretim modelidir.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Güçlü bir yerel çok modlu görsel üretim modelidir.",
"fal-ai/imagen4/preview.description": "Google tarafından geliştirilen yüksek kaliteli görsel üretim modeli.",
"fal-ai/nano-banana.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma yoluyla görsel üretim ve düzenleme sağlar.",
- "fal-ai/qwen-image-edit.description": "Qwen ekibinden profesyonel bir görüntü düzenleme modeli olup, anlamsal ve görünüm düzenlemeleri, hassas Çince/İngilizce metin düzenleme, stil transferi, döndürme ve daha fazlasını destekler.",
- "fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görüntü üretim modeli olup, güçlü Çince metin işleme ve çeşitli görsel stiller sunar.",
+ "fal-ai/qwen-image-edit.description": "Qwen ekibinin geliştirdiği profesyonel bir görsel düzenleme modelidir; anlam ve görünüm düzenlemesini destekler, Çince ve İngilizce metni hassas şekilde düzenler ve stil aktarımı, nesne döndürme gibi yüksek kaliteli düzenlemeler sunar.",
+ "fal-ai/qwen-image.description": "Qwen ekibinin güçlü bir görsel üretim modelidir; etkileyici Çince metin işleme ve çeşitli görsel stiller sunar.",
"flux-1-schnell.description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görsele model. Latent adversarial diffusion distillation yöntemiyle 1-4 adımda yüksek kaliteli görseller üretir. Kapalı kaynaklı alternatiflerle rekabet eder ve kişisel, araştırma ve ticari kullanım için Apache-2.0 lisansı ile sunulur.",
- "flux-dev.description": "FLUX.1 [dev], açık ağırlıklı ve ticari olmayan kullanım için damıtılmış bir modeldir. Neredeyse profesyonel görsel kalitesini ve yönerge takibini korurken daha verimli çalışır ve aynı boyuttaki standart modellere göre kaynakları daha iyi kullanır.",
+ "flux-dev.description": "Açık kaynaklı Ar-Ge görsel üretim modelidir; ticari olmayan yenilikçi araştırmalar için verimli şekilde optimize edilmiştir.",
"flux-kontext-max.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
"flux-kontext-pro.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
- "flux-merged.description": "FLUX.1 [birleştirilmiş], \"DEV\"de keşfedilen derin özellikleri \"Schnell\"in yüksek hız avantajlarıyla birleştirerek performans sınırlarını genişletir ve uygulama alanlarını artırır.",
"flux-pro-1.1-ultra.description": "10 saniyede net 4MP çözünürlükte ultra yüksek çözünürlüklü görsel üretimi.",
"flux-pro-1.1.description": "Mükemmel görsel kalitesi ve hassas istem uyumu sunan yükseltilmiş profesyonel seviye görsel üretim modeli.",
"flux-pro.description": "Eşsiz görsel kalitesi ve çeşitli çıktılar sunan üst düzey ticari görsel üretim modeli.",
- "flux-schnell.description": "FLUX.1 [schnell], en gelişmiş açık kaynaklı az adımlı modeldir. Midjourney v6.0 ve DALL-E 3 (HD) gibi güçlü damıtılmamış modelleri bile geride bırakır. Ön eğitim çeşitliliğini koruyacak şekilde hassas ayarlanmıştır ve görsel kalite, yönerge takibi, boyut/oran çeşitliliği, yazı tipi işleme ve çıktı çeşitliliğinde önemli gelişmeler sağlar.",
"flux.1-schnell.description": "FLUX.1-schnell, hızlı çok stilli çıktılar için yüksek performanslı bir görsel üretim modelidir.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Ayarlı), karmaşık görevler için istikrarlı ve ayarlanabilir performans sunar.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Ayarlı), karmaşık görevler için güçlü çok modlu destek sağlar.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro, Google’ın en gelişmiş akıl yürütme modelidir. Uzun bağlam desteğiyle karmaşık görevleri analiz edebilir.",
"gemini-3-flash-preview.description": "Gemini 3 Flash, hız için tasarlanmış en akıllı modeldir. En son yapay zeka zekasını mükemmel arama temellendirmesiyle birleştirir.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın çok modlu diyaloğu da destekleyen görüntü oluşturma modelidir.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın görüntü üretim modelidir ve çok modlu sohbeti de destekler.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görsel üretim modelidir ve çok modlu sohbeti de destekler.",
"gemini-3-pro-preview.description": "Gemini 3 Pro, Google’ın en güçlü ajan ve vibe-coding modelidir. En yeni akıl yürütme yeteneklerinin üzerine zengin görseller ve derin etkileşim sunar.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2), Google'ın düşünme desteği, konuşmalı görüntü oluşturma ve düzenleme özelliklerine sahip en hızlı yerel görüntü oluşturma modelidir.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2), Flash hızında Pro seviyesinde görüntü kalitesi sunar ve çok modlu sohbet desteği sağlar.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2), Google’ın düşünme destekli en hızlı yerel görsel üretim modelidir; sohbet tabanlı görsel üretim ve düzenleme sağlar.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview, Google'ın en maliyet etkin çok modlu modeli olup, yüksek hacimli ajan görevleri, çeviri ve veri işleme için optimize edilmiştir.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview, Gemini 3 Pro'ya kıyasla geliştirilmiş akıl yürütme yetenekleri sunar ve orta düzey düşünme desteği ekler.",
"gemini-flash-latest.description": "Gemini Flash'ın en son sürümü",
@@ -806,7 +812,6 @@
"jamba-large.description": "Karmaşık kurumsal görevler için tasarlanmış, en güçlü ve gelişmiş modelimizdir; olağanüstü performans sunar.",
"jamba-mini.description": "Sınıfındaki en verimli modeldir; hız ve kalite arasında denge sağlar, daha küçük bir kaynak kullanımı sunar.",
"jina-deepsearch-v1.description": "DeepSearch, web araması, okuma ve akıl yürütmeyi birleştirerek derinlemesine araştırmalar yapar. Araştırma görevinizi alır, çoklu yinelemelerle geniş aramalar yapar ve ardından bir yanıt üretir. Süreç, sürekli araştırma, akıl yürütme ve çok yönlü problem çözmeyi içerir; bu, önceden eğitilmiş verilerden yanıt veren standart LLM'lerden veya tek seferlik yüzeysel aramaya dayanan geleneksel RAG sistemlerinden temelde farklıdır.",
- "k2p5.description": "Kimi K2.5, hem görsel hem de metin girdilerini destekleyen yerel çok modlu mimarisi, 'düşünen' ve 'düşünmeyen' modları ile hem sohbet hem de ajan görevlerini içeren Kimi'nin bugüne kadarki en çok yönlü modelidir.",
"kimi-k2-0711-preview.description": "kimi-k2, güçlü kodlama ve ajan yeteneklerine sahip bir MoE temel modelidir (toplam 1T parametre, 32B aktif); akıl yürütme, programlama, matematik ve ajan testlerinde diğer yaygın açık modelleri geride bırakır.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview, 256k bağlam penceresi, daha güçlü ajan kodlaması, daha iyi ön yüz kod kalitesi ve gelişmiş bağlam anlama sunar.",
"kimi-k2-instruct.description": "Kimi K2 Instruct, Kimi'nin resmi akıl yürütme modelidir; kod, soru-cevap ve daha fazlası için uzun bağlam desteği sunar.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ, Qwen ailesine ait bir akıl yürütme modelidir. Standart talimatla eğitilmiş modellere kıyasla düşünme ve akıl yürütme yetenekleriyle özellikle zor problemler üzerinde performansı önemli ölçüde artırır. QwQ-32B, DeepSeek-R1 ve o1-mini gibi üst düzey modellerle rekabet eden orta boyutlu bir modeldir.",
"qwq_32b.description": "Qwen ailesine ait orta boyutlu bir akıl yürütme modelidir. Standart talimatla eğitilmiş modellere kıyasla QwQ’nun düşünme ve akıl yürütme yetenekleri, özellikle zor problemler üzerinde performansı önemli ölçüde artırır.",
"r1-1776.description": "R1-1776, sansürsüz ve tarafsız gerçek bilgi sunmak üzere DeepSeek R1 üzerine eğitilmiş bir varyanttır.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro, ByteDance tarafından metinden videoya, görüntüden videoya (ilk kare, ilk+son kare) ve görsellerle senkronize ses üretimini destekler.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite, BytePlus tarafından gerçek zamanlı bilgi için web arama ile artırılmış üretim, karmaşık istem yorumlama ve profesyonel görsel yaratım için geliştirilmiş referans tutarlılığı özellikleri sunar.",
"solar-mini-ja.description": "Solar Mini (Ja), Japonca odaklı geliştirilmiş Solar Mini modelidir; İngilizce ve Korece'de de verimli ve güçlü performans sunar.",
"solar-mini.description": "Solar Mini, GPT-3.5'i geride bırakan kompakt bir LLM'dir. İngilizce ve Korece destekli çok dilli yetenekleriyle verimli ve küçük boyutlu bir çözüm sunar.",
"solar-pro.description": "Solar Pro, Upstage tarafından geliştirilen yüksek zekaya sahip bir LLM'dir. Tek bir GPU üzerinde talimat izleme odaklıdır ve IFEval skorları 80'in üzerindedir. Şu anda İngilizce desteklidir; tam sürüm Kasım 2024'te daha fazla dil desteği ve uzun bağlamla planlanmıştır.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2, yeni güçlü medya üretim modelimizdir ve senkronize sesli videolar üretir. Doğal dil veya görüntülerden zengin ayrıntılı, dinamik klipler oluşturabilir.",
"spark-x.description": "X2 Yetenekler Genel Bakış: 1. `thinking` alanı aracılığıyla kontrol edilen akıl yürütme modunun dinamik ayarını tanıtır. 2. Genişletilmiş bağlam uzunluğu: 64K giriş tokeni ve 128K çıkış tokeni. 3. Function Call işlevselliğini destekler.",
"stable-diffusion-3-medium.description": "Stability AI tarafından geliştirilen en yeni metinden görsele modeldir. Görsel kalitesi, metin anlama ve stil çeşitliliğinde önemli gelişmeler sunar; karmaşık doğal dil komutlarını daha doğru yorumlar ve daha hassas, çeşitli görseller üretir.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo, stable-diffusion-3.5-large üzerine karşıt yayılma damıtması (ADD) uygular ve daha hızlı çalışır.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large, 800M parametreli bir MMDiT metinden görsele modelidir; yüksek kalite ve komut uyumu sunar, 1 megapiksel görselleri destekler ve tüketici donanımında verimli çalışır.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5, v1.2 kontrol noktasından başlatılmış ve \"laion-aesthetics v2 5+\" üzerinde 595k adım boyunca 512x512 çözünürlükte ince ayar yapılmıştır. Metin koşullandırması %10 azaltılarak sınıflandırıcıdan bağımsız yönlendirme örneklemesi geliştirilmiştir.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo, güçlü detay işleme ve sahne doğruluğuyla yüksek kaliteli görsel üretimine odaklanır.",
"stable-diffusion-xl-base-1.0.description": "Stability AI tarafından geliştirilen açık kaynaklı bir metinden görsele modeldir. Yaratıcı görsel üretim konusunda sektör lideridir. Güçlü talimat anlama yeteneğine sahiptir ve hassas üretim için ters komut tanımlarını destekler.",
- "stable-diffusion-xl.description": "stable-diffusion-xl, v1.5'e göre büyük gelişmeler sunar ve en iyi açık metinden görsele sonuçlarla eşleşir. Geliştirmeler arasında 3 kat daha büyük UNet omurgası, daha iyi görsel kalite için bir iyileştirme modülü ve daha verimli eğitim teknikleri yer alır.",
"step-1-128k.description": "Genel senaryolar için performans ve maliyet dengesini sağlar.",
"step-1-256k.description": "Uzun belgelerin analizi için ideal, ekstra uzun bağlam desteği.",
"step-1-32k.description": "Çeşitli senaryolar için orta uzunlukta konuşmaları destekler.",
diff --git a/locales/tr-TR/plugin.json b/locales/tr-TR/plugin.json
index 1f16baa96d..0b10783d91 100644
--- a/locales/tr-TR/plugin.json
+++ b/locales/tr-TR/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "Toplam {{count}} parametre",
"arguments.title": "Argümanlar",
"builtins.lobe-activator.apiName.activateTools": "Araçları Etkinleştir",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} bulunamadı",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Mevcut modelleri al",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Mevcut Yetenekleri al",
"builtins.lobe-agent-builder.apiName.getConfig": "Yapılandırmayı al",
diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json
index 920e8bc750..36147bd82a 100644
--- a/locales/tr-TR/providers.json
+++ b/locales/tr-TR/providers.json
@@ -33,7 +33,6 @@
"jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
"kimicodingplan.description": "Moonshot AI'den Kimi Code, kodlama görevleri için K2.5 dahil olmak üzere Kimi modellerine erişim sağlar.",
"lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
- "lobehub.description": "LobeHub Cloud, resmi API'leri kullanarak yapay zeka modellerine erişir ve kullanımını model jetonlarına bağlı Kredilerle ölçer.",
"longcat.description": "LongCat, Meituan tarafından bağımsız olarak geliştirilen bir dizi üretken yapay zeka büyük modelidir. Verimli bir hesaplama mimarisi ve güçlü çok modlu yetenekler aracılığıyla kurumsal iç verimliliği artırmak ve yenilikçi uygulamaları mümkün kılmak için tasarlanmıştır.",
"minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
"minimaxcodingplan.description": "MiniMax Token Planı, sabit ücretli bir abonelik aracılığıyla kodlama görevleri için M2.7 dahil olmak üzere MiniMax modellerine erişim sağlar.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark, çok dilli güçlü yapay zeka yetenekleriyle akıllı donanım, sağlık, finans ve diğer dikey alanlarda yenilikler sağlar.",
"stepfun.description": "Stepfun modelleri, uzun bağlam anlama ve güçlü otonom arama düzenleme özellikleriyle öne çıkan çok modlu ve karmaşık akıl yürütme yetenekleri sunar.",
"straico.description": "Straico, pazarlamacılar, girişimciler ve meraklılara çeşitli yapay zeka araçlarına sorunsuz erişim sağlayarak, en iyi metin, görüntü ve ses üretici yapay zeka modellerini bir araya getiren birleşik bir çalışma alanı sunarak yapay zeka entegrasyonunu kolaylaştırır.",
+ "streamlake.description": "StreamLake, yüksek performanslı model çıkarımı, düşük maliyetli model özelleştirme ve tamamen yönetilen hizmetleri bir araya getiren kurumsal düzeyde bir model hizmeti ve yapay zeka hesaplama bulut platformudur. İşletmelerin, altyapı hesaplama kaynaklarının karmaşıklığı ve maliyetiyle uğraşmadan yapay zeka uygulama inovasyonuna odaklanmalarına yardımcı olur.",
"taichu.description": "CASIA ve Wuhan Yapay Zeka Enstitüsü tarafından geliştirilen yeni nesil çok modlu modeldir. Çok turlu soru-cevap, yazım, görsel üretim, 3D anlama ve sinyal analizi gibi görevlerde güçlü bilişsel ve yaratıcı yetenekler sunar.",
"tencentcloud.description": "LLM Bilgi Motoru Atom Gücü, belgeleri ayrıştırma, parçalara ayırma, gömme ve çok turlu yeniden yazma gibi modüler hizmetlerle kurumsal ve geliştiricilere özel yapay zeka çözümleri oluşturma imkanı sunar.",
"togetherai.description": "Together AI, yenilikçi modeller, geniş özelleştirme seçenekleri, hızlı ölçeklenebilirlik ve kolay dağıtım ile kurumsal ihtiyaçlara yönelik üstün performans sunar.",
diff --git a/locales/tr-TR/setting.json b/locales/tr-TR/setting.json
index 9201f6977e..bb4043588c 100644
--- a/locales/tr-TR/setting.json
+++ b/locales/tr-TR/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Sistem Araçları",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - hızlı kod arama aracı",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - yapay zeka ajanları için başsız tarayıcı otomasyonu CLI",
+ "settingSystemTools.tools.bun.desc": "Bun - hızlı JavaScript çalışma zamanı ve paket yöneticisi",
+ "settingSystemTools.tools.bunx.desc": "bunx - npm paketlerini çalıştırmak için Bun paket yürütücüsü",
"settingSystemTools.tools.fd.desc": "fd - find komutuna hızlı ve kullanıcı dostu bir alternatif",
"settingSystemTools.tools.find.desc": "Unix find - standart dosya arama komutu",
"settingSystemTools.tools.grep.desc": "GNU grep - standart metin arama aracı",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - LobeHub servislerini yönetme ve bağlanma aracı",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight araması (hızlı indeksli arama)",
"settingSystemTools.tools.node.desc": "Node.js - JS/TS çalıştırmak için JavaScript çalışma ortamı",
"settingSystemTools.tools.npm.desc": "npm - bağımlılıkları yüklemek için Node.js paket yöneticisi",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - hızlı ve disk alanı açısından verimli paket yöneticisi",
"settingSystemTools.tools.python.desc": "Python - programlama dili çalışma ortamı",
"settingSystemTools.tools.rg.desc": "ripgrep - son derece hızlı metin arama aracı",
+ "settingSystemTools.tools.uv.desc": "uv - son derece hızlı Python paket yöneticisi",
"settingTTS.openai.sttModel": "OpenAI Konuşmadan Metne Modeli",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI Metinden Konuşmaya Modeli",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Model",
"systemAgent.inputCompletion.modelDesc": "Girdi otomatik tamamlama önerileri için kullanılan model (GitHub Copilot hayalet metni gibi)",
"systemAgent.inputCompletion.title": "Girdi Otomatik Tamamlama Aracısı",
+ "systemAgent.promptRewrite.label": "Model",
+ "systemAgent.promptRewrite.modelDesc": "İstemleri yeniden yazmak için kullanılan modeli belirtin",
+ "systemAgent.promptRewrite.title": "İstem Yenileme Aracısı",
"systemAgent.queryRewrite.label": "Model",
"systemAgent.queryRewrite.modelDesc": "Kullanıcı sorgularını optimize etmek için kullanılacak modeli belirtin",
"systemAgent.queryRewrite.title": "Kütüphane Sorgusu Yeniden Yazma Temsilcisi",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Yerel bir .zip veya .skill dosyasını yükleyin",
"tab.usage": "Kullanım İstatistikleri",
"tools.add": "Yetenek Ekle",
+ "tools.builtins.find-skills.description": "Kullanıcılar \"X'i nasıl yaparım\", \"X için bir beceri bul\" gibi sorular sorduğunda veya yeteneklerini genişletmek istediğinde becerileri keşfetmelerine ve yüklemelerine yardımcı olur",
+ "tools.builtins.find-skills.title": "Beceri Bul",
"tools.builtins.groupName": "Yerleşikler",
"tools.builtins.install": "Yükle",
"tools.builtins.installed": "Yüklendi",
+ "tools.builtins.lobe-activator.description": "Araçları ve becerileri keşfedin ve etkinleştirin",
+ "tools.builtins.lobe-activator.title": "Araç ve Beceri Etkinleştirici",
+ "tools.builtins.lobe-agent-browser.description": "Web sitesi veya Electron ile etkileşim gerektiren görevler için gezinme, form doldurma, tıklama, ekran görüntüsü alma, veri kazıma, giriş akışları ve uçtan uca uygulama testi gibi işlemler yapan tarayıcı otomasyon CLI aracı.",
+ "tools.builtins.lobe-agent-browser.title": "Aracı Tarayıcı",
+ "tools.builtins.lobe-agent-builder.description": "Aracı meta verilerini, model ayarlarını, eklentileri ve sistem istemini yapılandırın",
+ "tools.builtins.lobe-agent-builder.title": "Aracı Oluşturucu",
+ "tools.builtins.lobe-agent-documents.description": "Aracı kapsamındaki belgeleri yönetin (listeleme, oluşturma, okuma, düzenleme, kaldırma, yeniden adlandırma) ve yükleme kurallarını düzenleyin",
+ "tools.builtins.lobe-agent-documents.title": "Belgeler",
+ "tools.builtins.lobe-agent-management.description": "Yapay zeka aracılarınızı oluşturun, yönetin ve düzenleyin",
+ "tools.builtins.lobe-agent-management.title": "Aracı Yönetimi",
"tools.builtins.lobe-artifacts.description": "Etkileşimli arayüz bileşenleri, grafikler ve web içeriği oluşturun ve önizleyin",
"tools.builtins.lobe-artifacts.readme": "Etkileşimli kullanıcı arayüzü bileşenleri, veri görselleştirmeleri, grafikler, SVG görselleri ve web uygulamaları oluşturun ve canlı önizleme yapın. Kullanıcıların doğrudan etkileşimde bulunabileceği zengin görsel içerikler oluşturun.",
"tools.builtins.lobe-artifacts.title": "Artefaktlar",
+ "tools.builtins.lobe-brief.description": "İlerlemeyi raporlayın, sonuçları iletin ve kullanıcı kararları isteyin",
+ "tools.builtins.lobe-brief.title": "Kısa Araçlar",
"tools.builtins.lobe-calculator.description": "Matematiksel hesaplamalar yapın, denklemleri çözün ve sembolik ifadelerle çalışın",
"tools.builtins.lobe-calculator.readme": "Temel aritmetik, cebirsel denklemler, kalkülüs işlemleri ve sembolik matematiği destekleyen gelişmiş matematiksel hesap makinesi. Taban dönüşümü, denklem çözme, türev alma, integral hesaplama ve daha fazlasını içerir.",
"tools.builtins.lobe-calculator.title": "Hesap Makinesi",
"tools.builtins.lobe-cloud-sandbox.description": "Kod çalıştırın, komutlar yürütün ve dosyaları güvenli bir bulut ortamında yönetin",
"tools.builtins.lobe-cloud-sandbox.readme": "Python, JavaScript ve TypeScript kodlarını izole bir bulut ortamında çalıştırın. Kabuk komutları çalıştırın, dosyaları yönetin, regex ile içerik arayın ve sonuçları güvenli bir şekilde dışa aktarın.",
"tools.builtins.lobe-cloud-sandbox.title": "Bulut Sandbox",
+ "tools.builtins.lobe-creds.description": "Kimlik doğrulama, ortam değişkeni ekleme ve API doğrulaması için kullanıcı kimlik bilgilerini yönetin — üçüncü taraf entegrasyonları için API anahtarları, OAuth belirteçleri ve gizli bilgileri işleyin.",
+ "tools.builtins.lobe-creds.title": "Kimlik Bilgileri",
+ "tools.builtins.lobe-cron.description": "Belirli zamanlarda otomatik olarak çalışan zamanlanmış görevleri yönetin. Aracılarınız için yinelenen görevler oluşturun, güncelleyin, etkinleştirin/devre dışı bırakın ve izleyin.",
+ "tools.builtins.lobe-cron.title": "Zamanlanmış Görevler",
+ "tools.builtins.lobe-group-agent-builder.description": "Çoklu aracı grupları için grup meta verilerini, üyeleri ve paylaşılan içeriği yapılandırın",
+ "tools.builtins.lobe-group-agent-builder.title": "Grup Aracı Oluşturucu",
+ "tools.builtins.lobe-group-management.description": "Çoklu aracı grup konuşmalarını yönetin ve düzenleyin",
+ "tools.builtins.lobe-group-management.title": "Grup Yönetimi",
"tools.builtins.lobe-gtd.description": "Hedefleri planlayın ve GTD metodolojisiyle ilerlemeyi takip edin",
"tools.builtins.lobe-gtd.readme": "GTD metodolojisini kullanarak hedeflerinizi planlayın ve ilerlemenizi takip edin. Stratejik planlar oluşturun, durum takibi ile yapılacaklar listelerini yönetin ve uzun süreli eşzamanlı görevleri yürütün.",
"tools.builtins.lobe-gtd.title": "GTD Araçları",
+ "tools.builtins.lobe-knowledge-base.description": "Yüklenen belgeleri ve alan bilgilerini semantik vektör aramasıyla arayın — kalıcı ve yeniden kullanılabilir başvuru için",
+ "tools.builtins.lobe-knowledge-base.title": "Bilgi Bankası",
"tools.builtins.lobe-local-system.description": "Yerel dosyalara erişin ve masaüstünüzde kabuk komutları çalıştırın",
"tools.builtins.lobe-local-system.readme": "Masaüstünüzdeki yerel dosya sisteminize erişin. Dosyaları okuyun, yazın, arayın ve düzenleyin. Arka plan görev desteğiyle kabuk komutları çalıştırın ve regex desenleriyle içerik arayın.",
"tools.builtins.lobe-local-system.title": "Yerel Sistem",
+ "tools.builtins.lobe-message.description": "Birleşik bir arayüzle birden fazla mesajlaşma platformunda mesaj gönderin, okuyun, düzenleyin ve yönetin",
+ "tools.builtins.lobe-message.readme": "Discord, Telegram, Slack, Google Chat ve IRC'yi destekleyen çapraz platform mesajlaşma aracı. Mesaj işlemleri, tepkiler, sabitleme, konu yönetimi, kanal yönetimi ve anketler gibi platforma özgü özellikler için birleşik API'ler sağlar.",
+ "tools.builtins.lobe-message.title": "Mesaj",
"tools.builtins.lobe-notebook.description": "Konu defterinde belgeler oluşturun ve yönetin",
"tools.builtins.lobe-notebook.readme": "Konuşma başlıkları içinde kalıcı belgeler oluşturun ve yönetin. Notlar, raporlar, makaleler ve markdown içerikleri kaydedin ve oturumlar arasında erişilebilir tutun.",
"tools.builtins.lobe-notebook.title": "Not Defteri",
+ "tools.builtins.lobe-page-agent.description": "XML yapılandırmalı belgelerdeki düğümleri oluşturun, okuyun, güncelleyin ve silin",
+ "tools.builtins.lobe-page-agent.readme": "Belirli düğüm düzeyinde kontrol ile yapılandırılmış belgeler oluşturun ve düzenleyin. Markdown'dan başlatın, toplu ekleme/değiştirme/kaldırma işlemleri yapın ve belgeler genelinde metin bul-değiştir işlemleri gerçekleştirin.",
+ "tools.builtins.lobe-page-agent.title": "Belge",
+ "tools.builtins.lobe-remote-device.description": "Uzak masaüstü cihaz bağlantılarını keşfedin ve yönetin",
+ "tools.builtins.lobe-remote-device.readme": "Masaüstü cihazlarınıza bağlantıları yönetin. Çevrimiçi cihazları listeleyin, uzaktan işlem için bir cihazı etkinleştirin ve bağlantı durumunu kontrol edin.",
+ "tools.builtins.lobe-remote-device.title": "Uzak Cihaz",
+ "tools.builtins.lobe-skill-store.description": "LobeHub pazarından aracı becerilerini göz atın ve yükleyin. Genişletilmiş yeteneklere ihtiyaç duyduğunuzda veya belirli bir beceriyi yüklemek istediğinizde kullanın.",
+ "tools.builtins.lobe-skill-store.title": "Beceri Mağazası",
+ "tools.builtins.lobe-skills.description": "Yeniden kullanılabilir beceri paketlerini etkinleştirin ve kullanın",
+ "tools.builtins.lobe-skills.title": "Beceri",
+ "tools.builtins.lobe-task.description": "Bağımlılıkları ve inceleme yapılandırması olan görevler oluşturun, listeleyin, düzenleyin ve silin",
+ "tools.builtins.lobe-task.title": "Görev Araçları",
+ "tools.builtins.lobe-topic-reference.description": "Referanslanan konu konuşmalarından bağlam alın",
+ "tools.builtins.lobe-topic-reference.title": "Konu Referansı",
+ "tools.builtins.lobe-user-interaction.description": "Kullanıcılara arayüz etkileşimleriyle sorular sorun ve yaşam döngüsü sonuçlarını gözlemleyin",
+ "tools.builtins.lobe-user-interaction.title": "Kullanıcı Etkileşimi",
"tools.builtins.lobe-user-memory.description": "Kullanıcı tercihlerini, etkinliklerini ve deneyimlerini konuşmalar arasında hatırlayın",
"tools.builtins.lobe-user-memory.readme": "Size özel bir bilgi tabanı oluşturun. Tercihlerinizi hatırlayın, etkinlikleri ve deneyimleri takip edin, kimlik bilgilerini saklayın ve gelecekteki konuşmalarda ilgili bağlamı hatırlayın.",
"tools.builtins.lobe-user-memory.title": "Hafıza",
+ "tools.builtins.lobe-web-browsing.description": "Güncel bilgiler için web'de arama yapın ve içerik çıkarmak için web sayfalarını tarayın. Birden fazla arama motorunu, kategoriyi ve zaman aralığını destekler.",
+ "tools.builtins.lobe-web-browsing.readme": "Güncel bilgiler için web'de arama yapın ve içerik çıkarmak için web sayfalarını tarayın. Kapsamlı araştırma için birden fazla arama motoru, kategori ve zaman aralığını destekler.",
+ "tools.builtins.lobe-web-browsing.title": "Web Tarama",
+ "tools.builtins.lobe-web-onboarding.description": "Kontrollü bir aracı çalışma zamanı ile web başlangıç akışını yönetin",
+ "tools.builtins.lobe-web-onboarding.title": "Web Başlatma",
+ "tools.builtins.lobehub.description": "LobeHub platformunu CLI üzerinden yönetin — bilgi bankaları, hafıza, aracılar, dosyalar, arama, üretim ve daha fazlası.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Yüklü Değil",
+ "tools.builtins.task.description": "Görev yönetimi ve yürütme — CLI üzerinden görev oluşturma, izleme, inceleme ve tamamlama.",
+ "tools.builtins.task.title": "Görev",
"tools.builtins.uninstall": "Kaldır",
"tools.builtins.uninstallConfirm.desc": "{{name}} uygulamasını kaldırmak istediğinizden emin misiniz? Bu yetenek mevcut ajandan kaldırılacaktır.",
"tools.builtins.uninstallConfirm.title": "{{name}} Kaldır",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "{{name}} bağlantısı kesilsin mi?",
"tools.lobehubSkill.disconnected": "Bağlantı Kesildi",
"tools.lobehubSkill.error": "Hata",
+ "tools.lobehubSkill.providers.github.description": "GitHub, geliştiricilerin kod depolarını barındırmasını, incelemesini ve yönetmesini sağlayan bir sürüm kontrolü ve iş birliği platformudur.",
+ "tools.lobehubSkill.providers.github.readme": "GitHub’a bağlanarak depolarınıza erişin, sorun oluşturup yönetin, çekme isteklerini inceleyin ve kod üzerinde iş birliği yapın — tüm bunları yapay zekâ asistanınızla doğal bir sohbet üzerinden gerçekleştirin.",
"tools.lobehubSkill.providers.linear.description": "Linear, yüksek performanslı ekiplerin daha hızlı ve daha iyi yazılım geliştirmesi için tasarlanmış modern bir sorun takip ve proje yönetim aracıdır.",
"tools.lobehubSkill.providers.linear.readme": "Linear’ın gücünü doğrudan yapay zeka asistanınıza taşıyın. Sorunlar oluşturun ve güncelleyin, sprintleri yönetin, proje ilerlemesini takip edin ve geliştirme iş akışınızı doğal konuşmalarla kolaylaştırın.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Takvim, kullanıcıların randevular oluşturmasına, başkalarıyla toplantılar düzenlemesine ve zamanlarını etkin bir şekilde yönetmesine olanak tanıyan Microsoft Outlook içinde entegre bir zamanlama aracıdır.",
"tools.lobehubSkill.providers.microsoft.readme": "Outlook Takvim ile entegre olarak etkinliklerinizi sorunsuzca görüntüleyin, oluşturun ve yönetin. Toplantılar planlayın, müsaitlik durumunu kontrol edin, hatırlatıcılar ayarlayın ve zamanınızı doğal dil komutlarıyla koordine edin.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter), gerçek zamanlı güncellemeler, haberler paylaşmak ve gönderiler, yanıtlar ve direkt mesajlar aracılığıyla kitlenizle etkileşim kurmak için bir sosyal medya platformudur.",
"tools.lobehubSkill.providers.twitter.readme": "X (Twitter)'a bağlanarak tweet atın, zaman akışınızı yönetin ve kitlenizle etkileşim kurun. İçerik oluşturun, gönderileri zamanlayın, bahsedenleri takip edin ve sosyal medya varlığınızı yapay zeka destekli konuşmalarla geliştirin.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel, web uygulamalarını kolayca dağıtmak için barındırma ve sunucusuz işlevler sunan bir bulut platformudur.",
+ "tools.lobehubSkill.providers.vercel.readme": "Vercel’e bağlanarak dağıtımlarınızı yönetin, proje durumunu izleyin ve altyapınızı kontrol edin. Uygulamalar dağıtın, derleme günlüklerini kontrol edin, ortam değişkenlerini yönetin ve projelerinizi konuşmaya dayalı yapay zekâ ile ölçeklendirin.",
"tools.notInstalled": "Yüklü Değil",
"tools.notInstalledWarning": "Bu yetenek şu anda yüklü değil, bu temsilcinin işlevselliğini etkileyebilir.",
"tools.plugins.enabled": "Etkin: {{num}}",
diff --git a/locales/tr-TR/subscription.json b/locales/tr-TR/subscription.json
index c5d2041632..f41d9e5540 100644
--- a/locales/tr-TR/subscription.json
+++ b/locales/tr-TR/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Yükselt",
"credits.topUp.upgradeSuffix": "ve ${{savings}} tasarruf et",
"credits.topUp.validityInfo": "{{months}} ay geçerlilik",
+ "crossPlatform.desc": "Bu abonelik mobil uygulama üzerinden satın alındı ve burada değiştirilemez. Lütfen aboneliğinizi mobil cihazınızdan yönetin.",
+ "crossPlatform.manageOnMobile": "Mobil cihazda yönet",
+ "crossPlatform.title": "Platformlar Arası Abonelik",
"currentPlan.cancelAlert": "Abonelik {{canceledAt}} tarihinde iptal edilecek. O zamana kadar \"Aboneliği Yönet\" bölümünden geri yükleyebilirsiniz",
"currentPlan.downgradeAlert": "{{downgradedAt}} tarihinden itibaren {{plan}} planına düşürülecek.",
"currentPlan.management": "Aboneliği Yönet",
diff --git a/locales/tr-TR/video.json b/locales/tr-TR/video.json
index c19f7dc3f0..00865a5eee 100644
--- a/locales/tr-TR/video.json
+++ b/locales/tr-TR/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Başlangıç Kare Görseli",
"config.prompt.placeholder": "Oluşturmak istediğiniz videoyu tanımlayın",
"config.prompt.placeholderWithRef": "Oluşturmak istediğiniz sahneyi görüntü ile tanımlayın",
+ "config.promptExtend.label": "İstem Genişletme",
"config.referenceImage.label": "Referans Görsel",
"config.resolution.label": "Çözünürlük",
"config.seed.label": "Tohum",
"config.seed.random": "Rastgele",
"config.size.label": "Boyut",
+ "config.watermark.label": "Filigran",
+ "config.webSearch.label": "Web Araması",
"generation.actions.copyError": "Hata Mesajını Kopyala",
"generation.actions.errorCopied": "Hata Mesajı Panoya Kopyalandı",
"generation.actions.errorCopyFailed": "Hata Mesajı Kopyalanamadı",
diff --git a/locales/vi-VN/agent.json b/locales/vi-VN/agent.json
index a8598ea85e..11b600263f 100644
--- a/locales/vi-VN/agent.json
+++ b/locales/vi-VN/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "Kết nối bot thành công",
"channel.connecting": "Đang kết nối...",
"channel.connectionConfig": "Cấu hình kết nối",
+ "channel.connectionMode": "Chế độ kết nối",
+ "channel.connectionModeHint": "WebSocket được kh推荐 sử dụng cho các bot mới. Dùng Webhook nếu bot của bạn đã cấu hình sẵn URL callback trên Nền tảng Mở QQ.",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "Đã sao chép vào clipboard",
"channel.copy": "Sao chép",
"channel.credentials": "Thông tin xác thực",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Vui lòng sao chép URL này và dán vào trường {{fieldName}} trong Cổng thông tin Nhà phát triển {{name}}.",
"channel.exportConfig": "Xuất cấu hình",
"channel.feishu.description": "Kết nối trợ lý này với Feishu để trò chuyện riêng tư và nhóm.",
+ "channel.feishu.webhookMigrationDesc": "Chế độ WebSocket cung cấp việc truyền sự kiện theo thời gian thực mà không cần URL callback công khai. Để chuyển đổi, hãy đặt Chế độ kết nối thành WebSocket trong Cài đặt nâng cao. Không cần cấu hình thêm trên Nền tảng Mở Feishu/Lark.",
+ "channel.feishu.webhookMigrationTitle": "Cân nhắc chuyển sang chế độ WebSocket",
"channel.historyLimit": "Giới hạn tin nhắn lịch sử",
"channel.historyLimitHint": "Số lượng tin nhắn mặc định để lấy khi đọc lịch sử kênh",
"channel.importConfig": "Nhập cấu hình",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Yêu cầu để xác minh tương tác",
"channel.qq.appIdHint": "ID ứng dụng Bot QQ của bạn từ Nền tảng Mở QQ",
"channel.qq.description": "Kết nối trợ lý này với QQ để trò chuyện nhóm và tin nhắn trực tiếp.",
+ "channel.qq.webhookMigrationDesc": "Chế độ WebSocket cung cấp truyền sự kiện theo thời gian thực và tự động kết nối lại mà không cần URL callback. Để chuyển đổi, hãy tạo bot mới trên Nền tảng Mở QQ mà không cấu hình URL callback, sau đó đặt Chế độ kết nối thành WebSocket trong Cài đặt nâng cao.",
+ "channel.qq.webhookMigrationTitle": "Cân nhắc chuyển sang chế độ WebSocket",
"channel.removeChannel": "Xóa kênh",
"channel.removeFailed": "Xóa kênh thất bại",
"channel.removed": "Kênh đã được xóa",
@@ -93,7 +101,11 @@
"channel.signingSecret": "Mã bí mật ký",
"channel.signingSecretHint": "Dùng để xác minh các yêu cầu webhook.",
"channel.slack.appIdHint": "ID ứng dụng Slack của bạn từ bảng điều khiển API Slack (bắt đầu bằng A).",
+ "channel.slack.appToken": "Mã thông báo cấp ứng dụng",
+ "channel.slack.appTokenHint": "Bắt buộc cho Socket Mode (WebSocket). Hãy tạo mã thông báo cấp ứng dụng (xapp-...) trong mục Thông tin cơ bản trong cài đặt ứng dụng Slack của bạn.",
"channel.slack.description": "Kết nối trợ lý này với Slack để trò chuyện trên kênh và tin nhắn trực tiếp.",
+ "channel.slack.webhookMigrationDesc": "Socket Mode cung cấp truyền sự kiện theo thời gian thực qua WebSocket mà không cần mở điểm cuối HTTP công khai. Để chuyển đổi, hãy bật Socket Mode trong cài đặt ứng dụng Slack, tạo Mã thông báo cấp ứng dụng, rồi đặt Chế độ kết nối thành WebSocket trong Cài đặt nâng cao.",
+ "channel.slack.webhookMigrationTitle": "Cân nhắc chuyển sang Socket Mode (WebSocket)",
"channel.telegram.description": "Kết nối trợ lý này với Telegram để trò chuyện riêng tư và nhóm.",
"channel.testConnection": "Kiểm tra kết nối",
"channel.testFailed": "Kiểm tra kết nối thất bại",
diff --git a/locales/vi-VN/chat.json b/locales/vi-VN/chat.json
index 3929c89577..c29f51cde0 100644
--- a/locales/vi-VN/chat.json
+++ b/locales/vi-VN/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Xóa nhóm thành công",
"confirmRemoveSessionItemAlert": "Bạn sắp xóa tác nhân này. Sau khi xóa sẽ không thể khôi phục. Vui lòng xác nhận hành động.",
"confirmRemoveSessionSuccess": "Xóa tác nhân thành công",
+ "createModal.createBlank": "Tạo trống",
+ "createModal.groupPlaceholder": "Mô tả nhóm này sẽ thực hiện điều gì...",
+ "createModal.groupTitle": "Nhóm của bạn nên làm gì?",
+ "createModal.placeholder": "Mô tả tác vụ mà tác nhân của bạn cần thực hiện...",
+ "createModal.title": "Tác nhân của bạn nên làm gì?",
"defaultAgent": "Tác nhân mặc định",
"defaultGroupChat": "Nhóm",
"defaultList": "Danh sách mặc định",
@@ -229,6 +234,7 @@
"operation.contextCompression": "Ngữ cảnh quá dài, đang nén lịch sử...",
"operation.execAgentRuntime": "Đang chuẩn bị phản hồi",
"operation.execClientTask": "Đang thực hiện tác vụ",
+ "operation.execServerAgentRuntime": "Đang chạy… Bạn có thể chuyển sang tác vụ khác hoặc đóng trang — tác vụ vẫn sẽ tiếp tục.",
"operation.sendMessage": "Đang gửi tin nhắn",
"owner": "Chủ nhóm",
"pageCopilot.title": "Tác nhân trang",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Đang lấy chi tiết...",
"task.status.initializing": "Đang khởi tạo nhiệm vụ...",
"task.subtask": "Nhiệm vụ phụ",
+ "task.title": "Tác vụ",
"thread.divider": "Chủ đề phụ",
"thread.threadMessageCount": "{{messageCount}} tin nhắn",
"thread.title": "Chủ đề phụ",
@@ -429,9 +436,11 @@
"toolAuth.title": "Ủy quyền kỹ năng cho tác nhân này",
"topic.checkOpenNewTopic": "Bắt đầu chủ đề mới?",
"topic.checkSaveCurrentMessages": "Bạn có muốn lưu cuộc trò chuyện hiện tại thành chủ đề không?",
+ "topic.defaultTitle": "Chủ đề chưa đặt tên",
"topic.openNewTopic": "Mở chủ đề mới",
"topic.recent": "Chủ đề gần đây",
"topic.saveCurrentMessages": "Lưu phiên hiện tại thành chủ đề",
+ "topic.viewAll": "Xem tất cả chủ đề",
"translate.action": "Dịch",
"translate.clear": "Xóa bản dịch",
"tts.action": "Chuyển văn bản thành giọng nói",
diff --git a/locales/vi-VN/common.json b/locales/vi-VN/common.json
index fa8b9a8bc8..d5476adad9 100644
--- a/locales/vi-VN/common.json
+++ b/locales/vi-VN/common.json
@@ -343,10 +343,19 @@
"mail.support": "Hỗ trợ qua email",
"more": "Thêm",
"navPanel.agent": "Tác nhân",
+ "navPanel.customizeSidebar": "Tùy chỉnh thanh bên",
"navPanel.displayItems": "Hiển thị mục",
+ "navPanel.hidden": "Đã ẩn",
+ "navPanel.hideSection": "Ẩn mục",
"navPanel.library": "Thư viện",
+ "navPanel.moveDown": "Di chuyển xuống",
+ "navPanel.moveUp": "Di chuyển lên",
+ "navPanel.pinned": "Đã ghim",
"navPanel.searchAgent": "Tìm kiếm tác nhân...",
+ "navPanel.searchRecent": "Tìm kiếm gần đây...",
"navPanel.searchResultEmpty": "Không tìm thấy kết quả",
+ "navPanel.show": "Hiển thị",
+ "navPanel.visible": "Hiển thị",
"new": "Mới",
"noContent": "Không có nội dung",
"oauth": "Đăng nhập SSO",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "Ủng hộ chúng tôi",
"productHunt.description": "Ủng hộ chúng tôi trên Product Hunt. Sự ủng hộ của bạn rất có ý nghĩa với chúng tôi!",
"productHunt.title": "Chúng tôi đã có mặt trên Product Hunt!",
+ "promptTransform.action": "Tinh chỉnh ý tưởng",
+ "promptTransform.actions.rewrite": "Mở rộng chi tiết",
+ "promptTransform.actions.translate": "Dịch",
+ "promptTransform.status.rewrite": "Đang mở rộng chi tiết...",
+ "promptTransform.status.translate": "Đang dịch...",
+ "recents": "Gần đây",
"regenerate": "Tạo lại",
"releaseNotes": "Chi tiết phiên bản",
"rename": "Đổi tên",
@@ -400,6 +415,7 @@
"tab.audio": "Âm thanh",
"tab.chat": "Trò chuyện",
"tab.community": "Cộng đồng",
+ "tab.create": "Tạo",
"tab.discover": "Khám phá",
"tab.eval": "Phòng Thí Nghiệm Đánh Giá",
"tab.files": "Tệp",
diff --git a/locales/vi-VN/image.json b/locales/vi-VN/image.json
index ab1314f744..9d0a24f267 100644
--- a/locales/vi-VN/image.json
+++ b/locales/vi-VN/image.json
@@ -12,6 +12,7 @@
"config.model.label": "Mô hình",
"config.prompt.placeholder": "Mô tả những gì bạn muốn tạo",
"config.prompt.placeholderWithRef": "Mô tả cách bạn muốn điều chỉnh hình ảnh",
+ "config.promptExtend.label": "Mở rộng Prompt",
"config.quality.label": "Chất lượng ảnh",
"config.quality.options.hd": "Độ nét cao",
"config.quality.options.standard": "Tiêu chuẩn",
@@ -24,6 +25,8 @@
"config.size.label": "Kích thước",
"config.steps.label": "Số bước",
"config.title": "Cấu hình",
+ "config.watermark.label": "Hình mờ",
+ "config.webSearch.label": "Tìm kiếm Web",
"config.width.label": "Chiều rộng",
"generation.actions.applySeed": "Áp dụng hạt giống",
"generation.actions.copyError": "Sao chép thông báo lỗi",
diff --git a/locales/vi-VN/labs.json b/locales/vi-VN/labs.json
index 79c2792655..8b16b6aaa0 100644
--- a/locales/vi-VN/labs.json
+++ b/locales/vi-VN/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Nhóm các tin nhắn của tác nhân và kết quả gọi công cụ lại với nhau để hiển thị",
"features.assistantMessageGroup.title": "Nhóm Tin Nhắn Tác Nhân",
+ "features.gatewayMode.desc": "Thực thi các tác vụ của tác nhân trên máy chủ thông qua Gateway WebSocket thay vì chạy cục bộ. Giúp tăng tốc độ xử lý và giảm mức sử dụng tài nguyên trên thiết bị của người dùng.",
+ "features.gatewayMode.title": "Thực thi tác nhân phía máy chủ (Gateway)",
"features.groupChat.desc": "Kích hoạt phối hợp trò chuyện nhóm với nhiều tác nhân.",
"features.groupChat.title": "Trò Chuyện Nhóm (Đa Tác Nhân)",
"features.inputMarkdown.desc": "Hiển thị Markdown trong khu vực nhập liệu theo thời gian thực (văn bản in đậm, khối mã, bảng, v.v.).",
diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json
index 00cdad1ff3..608a3add72 100644
--- a/locales/vi-VN/models.json
+++ b/locales/vi-VN/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Mô hình hàng đầu tại Trung Quốc, vượt qua nhiều mô hình quốc tế trong các tác vụ tiếng Trung như tri thức, văn bản dài và sáng tạo. Ngoài ra còn có khả năng đa phương tiện hàng đầu với kết quả mạnh mẽ trên các bảng đánh giá uy tín.",
"Baichuan4.description": "Hiệu suất hàng đầu trong nước, vượt qua các mô hình quốc tế hàng đầu trong các tác vụ tiếng Trung như tri thức bách khoa, văn bản dài và sáng tạo. Đồng thời cung cấp khả năng đa phương tiện hàng đầu và kết quả mạnh mẽ trên các bảng đánh giá.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS là dòng mô hình LLM mã nguồn mở từ ByteDance Seed, được thiết kế để xử lý ngữ cảnh dài, suy luận, tác vụ đại lý và khả năng tổng quát mạnh mẽ. Seed-OSS-36B-Instruct là mô hình 36B được tinh chỉnh theo hướng dẫn với khả năng xử lý ngữ cảnh siêu dài, phù hợp cho tài liệu hoặc mã nguồn lớn. Mô hình được tối ưu cho suy luận, sinh mã và tác vụ đại lý (sử dụng công cụ) trong khi vẫn giữ được khả năng tổng quát mạnh. Tính năng nổi bật là \"Ngân sách Suy nghĩ\" cho phép điều chỉnh độ dài suy luận linh hoạt để tăng hiệu quả.",
+ "DeepSeek-OCR.description": "DeepSeek-OCR là mô hình thị giác-ngôn ngữ của DeepSeek AI, tập trung vào OCR và “nén ngữ cảnh quang học”. Mô hình khám phá cách nén ngữ cảnh từ hình ảnh, xử lý tài liệu hiệu quả và chuyển đổi chúng thành văn bản có cấu trúc (ví dụ: Markdown). Nó nhận dạng văn bản trong hình ảnh với độ chính xác cao, phù hợp cho số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, mô hình lớn và thông minh hơn trong bộ DeepSeek, được chưng cất vào kiến trúc Llama 70B. Các bài đánh giá và đánh giá người dùng cho thấy mô hình thông minh hơn Llama 70B gốc, đặc biệt trong các tác vụ toán học và độ chính xác tri thức.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-Math-1.5B. Học tăng cường và dữ liệu khởi đầu lạnh được sử dụng để tối ưu hóa hiệu suất suy luận, thiết lập các chuẩn mới cho mô hình mã nguồn mở đa nhiệm.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Các mô hình DeepSeek-R1-Distill được tinh chỉnh từ các mô hình mã nguồn mở bằng cách sử dụng dữ liệu mẫu do DeepSeek-R1 tạo ra.",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Nhà cung cấp: sophnet. DeepSeek V3 Fast là phiên bản tốc độ cao của DeepSeek V3 0324, sử dụng độ chính xác đầy đủ (không nén) với khả năng lập trình và toán học mạnh hơn cùng phản hồi nhanh hơn.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast là biến thể tốc độ cao của DeepSeek V3.1. Chế độ suy nghĩ kết hợp: thông qua mẫu hội thoại, một mô hình hỗ trợ cả suy nghĩ và không suy nghĩ. Sử dụng công cụ thông minh hơn: hậu huấn luyện tăng hiệu suất tác vụ công cụ và đại lý.",
"DeepSeek-V3.1-Think.description": "Chế độ suy nghĩ DeepSeek-V3.1: mô hình suy luận kết hợp mới với chế độ suy nghĩ và không suy nghĩ, hiệu quả hơn DeepSeek-R1-0528. Tối ưu hóa hậu huấn luyện cải thiện đáng kể việc sử dụng công cụ đại lý và hiệu suất tác vụ đại lý.",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 giới thiệu cơ chế attention thưa, nhằm cải thiện hiệu quả huấn luyện và suy luận khi xử lý văn bản dài, với mức giá thấp hơn deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 là mô hình MoE do DeepSeek phát triển. Mô hình vượt qua các mô hình mã nguồn mở khác như Qwen2.5-72B và Llama-3.1-405B trên nhiều bảng đánh giá và cạnh tranh với các mô hình đóng hàng đầu như GPT-4o và Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite cung cấp phản hồi siêu nhanh và giá trị tốt hơn, với các tùy chọn linh hoạt cho nhiều tình huống. Hỗ trợ ngữ cảnh 128K cho suy luận và tinh chỉnh.",
"Doubao-lite-32k.description": "Doubao-lite cung cấp phản hồi siêu nhanh và giá trị tốt hơn, với các tùy chọn linh hoạt cho nhiều tình huống. Hỗ trợ ngữ cảnh 32K cho suy luận và tinh chỉnh.",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Mô hình hiệu suất cao cho các nhiệm vụ lý luận, lập trình và tác vụ đại lý.",
"GLM-4.6.description": "GLM-4.6: Mô hình thế hệ trước.",
"GLM-4.7.description": "GLM-4.7 là mô hình hàng đầu mới nhất của Zhipu, được cải tiến cho các kịch bản Lập trình Đại lý với khả năng lập trình nâng cao, lập kế hoạch nhiệm vụ dài hạn và hợp tác công cụ.",
- "GLM-5-Turbo.description": "GLM-5-Turbo: Phiên bản tối ưu của GLM-5 với suy luận nhanh hơn cho các nhiệm vụ lập trình.",
+ "GLM-5-Turbo.description": "GLM-5-Turbo là mô hình nền tảng được tối ưu sâu cho các kịch bản tác tử (agentic). Mô hình được tinh chỉnh từ giai đoạn huấn luyện để đáp ứng những yêu cầu cốt lõi của tác vụ agent, tăng cường các năng lực như gọi công cụ, tuân thủ lệnh và thực thi chuỗi dài. Đây là lựa chọn lý tưởng để xây dựng các trợ lý tác vụ hiệu suất cao.",
"GLM-5.1.description": "GLM-5.1 là mô hình hàng đầu mới nhất của Zhipu, một phiên bản nâng cao của GLM-5 với khả năng kỹ thuật tác nhân được cải thiện cho các hệ thống kỹ thuật phức tạp và các nhiệm vụ dài hạn.",
- "GLM-5.description": "GLM-5 là mô hình nền tảng thế hệ tiếp theo của Zhipu, được thiết kế đặc biệt cho Kỹ thuật Đại lý. Nó mang lại năng suất đáng tin cậy trong các hệ thống kỹ thuật phức tạp và các nhiệm vụ đại lý dài hạn. Trong khả năng lập trình và đại lý, GLM-5 đạt hiệu suất tiên tiến nhất trong số các mô hình mã nguồn mở.",
+ "GLM-5.description": "GLM-5 là mô hình nền tảng thế hệ tiếp theo của Zhipu, được xây dựng chuyên biệt cho Agentic Engineering. Mô hình mang lại năng suất đáng tin cậy trong kỹ thuật hệ thống phức tạp và các tác vụ agent tầm xa. Trong khả năng lập trình và tác tử, GLM-5 đạt hiệu suất hàng đầu trong số các mô hình mã nguồn mở. Trong các tình huống lập trình thực tế, trải nghiệm người dùng tiệm cận Claude Opus 4.5. Mô hình vượt trội trong kỹ thuật hệ thống phức tạp và tác vụ tác tử dài hạn, là nền tảng lý tưởng cho trợ lý agent đa dụng.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) là một mô hình sáng tạo cho nhiều lĩnh vực và tác vụ phức tạp.",
"HY-Image-V3.0.description": "Khả năng trích xuất đặc điểm hình ảnh gốc mạnh mẽ và bảo toàn chi tiết, mang lại kết cấu hình ảnh phong phú hơn và tạo ra hình ảnh có độ chính xác cao, bố cục tốt, đạt tiêu chuẩn sản xuất.",
"HelloMeme.description": "HelloMeme là một công cụ AI tạo meme, GIF hoặc video ngắn từ hình ảnh hoặc chuyển động bạn cung cấp. Không cần kỹ năng vẽ hoặc lập trình—chỉ cần một hình ảnh tham chiếu—để tạo ra nội dung vui nhộn, hấp dẫn và nhất quán về mặt phong cách.",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter là một mô hình tạo nhân vật cá nhân hóa không cần tinh chỉnh do Tencent AI phát hành năm 2025, hướng đến việc tạo nhân vật nhất quán, độ trung thực cao trong nhiều bối cảnh khác nhau. Mô hình có thể tạo nhân vật từ một hình ảnh tham chiếu duy nhất và linh hoạt chuyển đổi qua các phong cách, hành động và nền khác nhau.",
"InternVL2-8B.description": "InternVL2-8B là một mô hình ngôn ngữ-thị giác mạnh mẽ hỗ trợ xử lý hình ảnh-văn bản đa phương thức, nhận diện chính xác nội dung hình ảnh và tạo mô tả hoặc câu trả lời phù hợp.",
"InternVL2.5-26B.description": "InternVL2.5-26B là một mô hình ngôn ngữ-thị giác mạnh mẽ hỗ trợ xử lý hình ảnh-văn bản đa phương thức, nhận diện chính xác nội dung hình ảnh và tạo mô tả hoặc câu trả lời phù hợp.",
+ "KAT-Coder-Air-V1.description": "Phiên bản gọn nhẹ trong dòng KAT-Coder. Được thiết kế đặc biệt cho Agentic Coding, bao phủ toàn diện các nhiệm vụ và tình huống lập trình. Tận dụng học tăng cường quy mô lớn dựa trên agent, mô hình tạo ra hành vi thông minh nổi bật và vượt trội đáng kể so với các mô hình cùng loại trong hiệu suất mã hóa.",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B là phiên bản thử nghiệm tăng cường (RL) trong dòng KAT-Coder, đạt hiệu suất nổi bật 74.6% trên chuẩn SWE-Bench verified, thiết lập kỷ lục mới cho mô hình mã nguồn mở. Mô hình tập trung vào Agentic Coding và hiện chỉ hỗ trợ khung SWE-Agent, nhưng cũng có thể dùng cho hội thoại đơn giản.",
+ "KAT-Coder-Pro-V1.description": "Được thiết kế cho Agentic Coding, bao phủ toàn diện các tác vụ và kịch bản lập trình, đạt được hành vi thông minh thông qua học tăng cường quy mô lớn, vượt trội đáng kể so với các mô hình tương tự trong hiệu suất viết mã.",
+ "KAT-Coder-Pro-V2.description": "Mô hình hiệu suất cao mới nhất của đội ngũ Kuaishou Kwaipilot, được thiết kế cho các dự án doanh nghiệp phức tạp và tích hợp SaaS. Mô hình vượt trội trong kịch bản liên quan đến mã nguồn và tương thích với nhiều loại khung tác tử (Claude Code, OpenCode, KiloCode), hỗ trợ OpenClaw nguyên bản và được tối ưu đặc biệt cho thẩm mỹ giao diện front-end.",
+ "Kimi-K2.5.description": "Kimi K2.5 là mô hình mạnh mẽ nhất trong dòng Kimi, đạt SOTA mã nguồn mở trong tác vụ agent, lập trình và hiểu hình ảnh. Mô hình hỗ trợ đầu vào đa phương thức và hai chế độ tư duy và không tư duy.",
"Kolors.description": "Kolors là một mô hình chuyển văn bản thành hình ảnh do nhóm Kuaishou Kolors phát triển. Được huấn luyện với hàng tỷ tham số, mô hình có ưu thế nổi bật về chất lượng hình ảnh, hiểu ngữ nghĩa tiếng Trung và hiển thị văn bản.",
"Kwai-Kolors/Kolors.description": "Kolors là một mô hình chuyển văn bản thành hình ảnh quy mô lớn dựa trên khuếch tán tiềm ẩn do nhóm Kuaishou Kolors phát triển. Được huấn luyện trên hàng tỷ cặp văn bản-hình ảnh, mô hình vượt trội về chất lượng hình ảnh, độ chính xác ngữ nghĩa phức tạp và hiển thị văn bản tiếng Trung/Anh, với khả năng hiểu và tạo nội dung tiếng Trung mạnh mẽ.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) là một mô hình mã nguồn mở 32B dành cho các tác vụ kỹ thuật phần mềm. Mô hình đạt tỷ lệ giải quyết 62,4% trên SWE-Bench Verified, xếp hạng thứ 5 trong số các mô hình mã nguồn mở. Được tối ưu thông qua huấn luyện trung gian, SFT và RL cho các tác vụ hoàn thành mã, sửa lỗi và đánh giá mã.",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Mô hình ngôn ngữ nhỏ tiên tiến với khả năng hiểu ngôn ngữ mạnh mẽ, suy luận xuất sắc và tạo văn bản hiệu quả.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 là mô hình Llama mã nguồn mở đa ngôn ngữ tiên tiến nhất, đạt hiệu suất gần tương đương 405B với chi phí rất thấp. Dựa trên kiến trúc Transformer và được cải tiến bằng SFT và RLHF để tăng tính hữu ích và an toàn. Phiên bản tinh chỉnh theo hướng dẫn được tối ưu cho trò chuyện đa ngôn ngữ và vượt qua nhiều mô hình mở và đóng trên các tiêu chuẩn ngành. Ngày cắt kiến thức: Tháng 12 năm 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick là một mô hình MoE lớn với kích hoạt chuyên gia hiệu quả, mang lại hiệu suất suy luận mạnh mẽ.",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro được thiết kế chuyên biệt cho quy trình agent cường độ cao trong các tình huống thực tế. Mô hình có hơn 1 nghìn tỷ tham số tổng (42B tham số kích hoạt), sử dụng kiến trúc attention lai sáng tạo và hỗ trợ độ dài ngữ cảnh siêu dài lên đến 1 triệu token. Được xây dựng trên một mô hình nền tảng mạnh mẽ, chúng tôi liên tục mở rộng tài nguyên tính toán cho nhiều kịch bản agent hơn, mở rộng không gian hành động và đạt khả năng khái quát mạnh mẽ—từ lập trình đến thực thi tác vụ thực (“claw”).",
"MiniMax-Hailuo-02.description": "Mô hình tạo video thế hệ tiếp theo, MiniMax Hailuo 02, đã chính thức ra mắt, hỗ trợ độ phân giải 1080P và tạo video dài 10 giây.",
"MiniMax-Hailuo-2.3-Fast.description": "Mô hình tạo video hoàn toàn mới với các nâng cấp toàn diện về chuyển động cơ thể, tính hiện thực vật lý và tuân thủ hướng dẫn.",
"MiniMax-Hailuo-2.3.description": "Mô hình tạo video hoàn toàn mới với các nâng cấp toàn diện về chuyển động cơ thể, tính hiện thực vật lý và tuân thủ hướng dẫn.",
"MiniMax-M1.description": "Mô hình suy luận nội bộ mới với 80K chuỗi suy nghĩ và đầu vào 1M, đạt hiệu suất tương đương các mô hình hàng đầu toàn cầu.",
"MiniMax-M2-Stable.description": "Được xây dựng cho lập trình hiệu quả và quy trình tác tử, với khả năng đồng thời cao hơn cho mục đích thương mại.",
- "MiniMax-M2.1-Lightning.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ với suy luận nhanh hơn và hiệu quả hơn.",
"MiniMax-M2.1-highspeed.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, trải nghiệm lập trình được nâng cấp toàn diện. Nhanh hơn và hiệu quả hơn.",
"MiniMax-M2.1.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, trải nghiệm lập trình được nâng cấp toàn diện",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Hiệu suất tương tự như M2.5 với suy luận nhanh hơn.",
"MiniMax-M2.5.description": "MiniMax-M2.5 là mô hình lớn mã nguồn mở hàng đầu từ MiniMax, tập trung vào việc giải quyết các nhiệm vụ thực tế phức tạp. Điểm mạnh cốt lõi của nó là khả năng lập trình đa ngôn ngữ và khả năng giải quyết các nhiệm vụ phức tạp như một Agent.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Hiệu suất tương tự như M2.7 với suy luận nhanh hơn đáng kể.",
- "MiniMax-M2.7.description": "MiniMax M2.7: Bắt đầu hành trình tự cải thiện đệ quy, khả năng kỹ thuật thực tế hàng đầu.",
+ "MiniMax-M2.7.description": "Mô hình tự tiến hóa đầu tiên với hiệu suất lập trình và tác tử hàng đầu (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Mô hình thế hệ trước.",
"MiniMax-Text-01.description": "MiniMax-01 giới thiệu cơ chế chú ý tuyến tính quy mô lớn vượt ra ngoài Transformer cổ điển, với 456B tham số và 45.9B được kích hoạt mỗi lượt. Mô hình đạt hiệu suất hàng đầu và hỗ trợ ngữ cảnh lên đến 4M token (gấp 32 lần GPT-4o, 20 lần Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 là mô hình suy luận chú ý lai quy mô lớn với 456 tỷ tham số tổng cộng và ~45,9 tỷ tham số hoạt động trên mỗi token. Nó hỗ trợ tự nhiên ngữ cảnh 1 triệu và sử dụng Flash Attention để giảm FLOPs 75% trên thế hệ 100K-token so với DeepSeek R1. Với kiến trúc MoE cộng CISPO và huấn luyện RL chú ý lai, nó đạt hiệu suất hàng đầu trong suy luận đầu vào dài và các nhiệm vụ kỹ thuật phần mềm thực tế.",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh nhất của Kimi K2. Đây là mô hình MoE hàng đầu với tổng 1T và 32B tham số đang hoạt động. Các tính năng chính bao gồm trí tuệ lập trình đại lý mạnh hơn với cải tiến đáng kể trên các điểm chuẩn và tác vụ đại lý thực tế, cùng với thẩm mỹ và khả năng sử dụng mã giao diện người dùng được cải thiện.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo là biến thể Turbo được tối ưu hóa cho tốc độ suy luận và thông lượng trong khi vẫn giữ khả năng suy luận nhiều bước và sử dụng công cụ của K2 Thinking. Đây là mô hình MoE với khoảng 1T tham số, hỗ trợ ngữ cảnh gốc 256K và gọi công cụ quy mô lớn ổn định cho các tình huống sản xuất có yêu cầu nghiêm ngặt về độ trễ và đồng thời.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 là mô hình tác tử đa phương thức mã nguồn mở, được xây dựng trên nền tảng Kimi-K2-Base, huấn luyện với khoảng 1,5 nghìn tỷ token kết hợp giữa thị giác và văn bản. Mô hình sử dụng kiến trúc MoE với tổng 1 nghìn tỷ tham số và 32 tỷ tham số hoạt động, hỗ trợ cửa sổ ngữ cảnh 256K, tích hợp liền mạch khả năng hiểu thị giác và ngôn ngữ.",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 là mô hình flagship thế hệ mới dành cho kỹ thuật agent, sử dụng kiến trúc Mixture of Experts (MoE) với 754B tham số. Mô hình tăng cường đáng kể năng lực lập trình, đạt kết quả dẫn đầu trên SWE-Bench Pro và vượt xa phiên bản trước trên các chuẩn như NL2Repo và Terminal-Bench 2.0. Được thiết kế cho các tác vụ agent kéo dài, mô hình xử lý câu hỏi mơ hồ với khả năng phán đoán tốt hơn, phân rã tác vụ phức tạp, thực hiện thử nghiệm, phân tích kết quả và tối ưu liên tục qua hàng trăm vòng lặp và hàng nghìn lần gọi công cụ.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 là mô hình hàng đầu thế hệ mới của Zhipu với 355 tỷ tham số tổng cộng và 32 tỷ tham số hoạt động, được nâng cấp toàn diện về đối thoại chung, lý luận và khả năng đại lý. GLM-4.7 cải tiến Tư duy Đan xen và giới thiệu Tư duy Bảo tồn và Tư duy Cấp độ Lượt.",
"Pro/zai-org/glm-5.description": "GLM-5 là mô hình ngôn ngữ lớn thế hệ tiếp theo của Zhipu, tập trung vào kỹ thuật hệ thống phức tạp và các nhiệm vụ Agent kéo dài. Các tham số mô hình đã được mở rộng lên 744 tỷ (40 tỷ hoạt động) và tích hợp DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ là một mô hình nghiên cứu thử nghiệm tập trung vào việc cải thiện khả năng suy luận.",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 được tối ưu hóa cho lập luận nâng cao và tuân theo hướng dẫn, sử dụng MoE để duy trì hiệu quả suy luận ở quy mô lớn.",
"Qwen3-235B.description": "Qwen3-235B-A22B là một mô hình MoE giới thiệu chế độ suy luận lai, cho phép người dùng chuyển đổi mượt mà giữa trạng thái suy nghĩ và không suy nghĩ. Mô hình hỗ trợ hiểu và suy luận trên 119 ngôn ngữ và phương ngữ, có khả năng gọi công cụ mạnh mẽ, cạnh tranh với các mô hình phổ biến như DeepSeek R1, OpenAI o1, o3-mini, Grok 3 và Google Gemini 2.5 Pro trong các bài kiểm tra về năng lực tổng quát, lập trình và toán học, khả năng đa ngôn ngữ và suy luận kiến thức.",
"Qwen3-32B.description": "Qwen3-32B là một mô hình dense giới thiệu chế độ suy luận lai, cho phép người dùng chuyển đổi giữa trạng thái suy nghĩ và không suy nghĩ. Với cải tiến kiến trúc, dữ liệu phong phú hơn và huấn luyện tốt hơn, mô hình đạt hiệu suất tương đương với Qwen2.5-72B.",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus hỗ trợ đầu vào văn bản, hình ảnh và video. Hiệu suất trên tác vụ văn bản thuần tương đương Qwen3 Max, nhưng với chi phí thấp hơn và hiệu quả hơn. Khả năng đa phương thức được cải thiện đáng kể so với dòng Qwen3 VL.",
"S2V-01.description": "Mô hình cơ bản tham chiếu thành video của dòng 01.",
"SenseChat-128K.description": "Phiên bản Base V4 với ngữ cảnh 128K, mạnh về hiểu và tạo văn bản dài.",
"SenseChat-32K.description": "Phiên bản Base V4 với ngữ cảnh 32K, linh hoạt cho nhiều tình huống sử dụng.",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ nhanh như chớp và khả năng tư duy mở rộng.",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng suy luận mở rộng.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ vượt trội và khả năng suy luận mở rộng.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic dành cho các nhiệm vụ phức tạp cao, vượt trội về hiệu suất, trí thông minh, sự lưu loát và khả năng hiểu biết.",
- "claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các nhiệm vụ phức tạp cao, vượt trội về hiệu suất, trí thông minh, sự lưu loát và khả năng hiểu biết.",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh nhất của Anthropic cho các tác vụ siêu phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
+ "claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh nhất của Anthropic dành cho các tác vụ phức tạp cao, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng lĩnh hội.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
- "claude-opus-4-6.description": "Claude Opus 4.6 là mô hình thông minh nhất của Anthropic dành cho việc xây dựng các tác nhân và lập trình.",
+ "claude-opus-4-6.description": "Claude Opus 4.6 là mô hình thông minh nhất của Anthropic cho xây dựng agent và lập trình.",
"claude-opus-4.5.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ đỉnh cao với hiệu suất mở rộng cho các nhiệm vụ suy luận phức tạp, chất lượng cao.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 là mô hình thông minh nhất của Anthropic dành cho việc xây dựng các tác nhân và lập trình.",
"claude-opus-4.6.description": "Claude Opus 4.6 là mô hình thông minh nhất của Anthropic dành cho việc xây dựng các tác nhân và lập trình.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 là mô hình thông minh nhất của Anthropic cho đến nay, cung cấp các phản hồi gần như tức thì hoặc tư duy từng bước mở rộng với khả năng kiểm soát chi tiết cho người dùng API.",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc suy luận theo từng bước với quy trình hiển thị.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6 là sự kết hợp tốt nhất giữa tốc độ và trí thông minh của Anthropic.",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 mang lại sự kết hợp tối ưu giữa tốc độ và trí tuệ.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 là sự kết hợp tốt nhất giữa tốc độ và trí tuệ của Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 có thể tạo ra các phản hồi gần như tức thì hoặc suy luận từng bước mở rộng mà người dùng có thể theo dõi. Người dùng API có thể kiểm soát chi tiết thời gian suy nghĩ của mô hình.",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và tư duy chuỗi.",
- "deepseek-chat.description": "DeepSeek V3.2 cân bằng giữa lý luận và độ dài đầu ra cho các nhiệm vụ hỏi đáp hàng ngày và tác vụ của tác nhân. Các điểm chuẩn công khai đạt mức GPT-5, và đây là mô hình đầu tiên tích hợp tư duy vào việc sử dụng công cụ, dẫn đầu các đánh giá tác nhân mã nguồn mở.",
+ "deepseek-chat.description": "Một mô hình mã nguồn mở mới kết hợp khả năng tổng quát và lập trình. Mô hình giữ được khả năng hội thoại của mô hình chat và khả năng lập trình mạnh của mô hình coder, với sự điều chỉnh ưu tiên tốt hơn. DeepSeek-V2.5 cũng cải thiện viết lách và tuân thủ hướng dẫn.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình này hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa đoạn mã, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã chính xác.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước khi áp dụng học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong các tác vụ toán học, lập trình và suy luận.",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking là mô hình lý luận sâu tạo ra chuỗi suy nghĩ trước khi đưa ra đầu ra để đạt độ chính xác cao hơn, với kết quả cạnh tranh hàng đầu và khả năng lý luận tương đương với Gemini-3.0-Pro.",
+ "deepseek-reasoner.description": "Chế độ tư duy DeepSeek V3.2 xuất ra chuỗi suy luận trước câu trả lời cuối cùng để cải thiện độ chính xác.",
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K là mô hình tư duy nhanh với ngữ cảnh 32K dành cho lý luận phức tạp và trò chuyện nhiều lượt.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview là bản xem trước mô hình tư duy để đánh giá và thử nghiệm.",
"ernie-x1.1.description": "ERNIE X1.1 là mô hình suy nghĩ thử nghiệm dành cho đánh giá và kiểm tra.",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, được xây dựng bởi đội ngũ Seed của ByteDance, hỗ trợ chỉnh sửa và kết hợp nhiều hình ảnh. Các tính năng bao gồm cải thiện tính nhất quán của chủ thể, tuân thủ hướng dẫn chính xác, hiểu logic không gian, biểu đạt thẩm mỹ, bố cục poster và thiết kế logo với khả năng kết xuất văn bản-hình ảnh chính xác cao.",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, được xây dựng bởi ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh để tạo hình ảnh chất lượng cao, có thể kiểm soát cao từ các gợi ý.",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 là mô hình tạo ảnh của ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh, cho phép tạo ảnh chất lượng cao với khả năng kiểm soát mạnh. Mô hình tạo ảnh từ mô tả văn bản.",
"fal-ai/flux-kontext/dev.description": "Mô hình FLUX.1 tập trung vào chỉnh sửa hình ảnh, hỗ trợ đầu vào văn bản và hình ảnh.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] chấp nhận đầu vào là văn bản và hình ảnh tham chiếu, cho phép chỉnh sửa cục bộ chính xác và biến đổi toàn cảnh phức tạp.",
"fal-ai/flux/krea.description": "Flux Krea [dev] là mô hình tạo hình ảnh với thiên hướng thẩm mỹ hướng đến hình ảnh chân thực và tự nhiên hơn.",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Mô hình tạo hình ảnh đa phương thức mạnh mẽ bản địa.",
"fal-ai/imagen4/preview.description": "Mô hình tạo hình ảnh chất lượng cao từ Google.",
"fal-ai/nano-banana.description": "Nano Banana là mô hình đa phương thức bản địa mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
- "fal-ai/qwen-image-edit.description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp từ đội ngũ Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và diện mạo, chỉnh sửa văn bản tiếng Trung/Anh chính xác, chuyển đổi phong cách, xoay và nhiều hơn nữa.",
- "fal-ai/qwen-image.description": "Mô hình tạo hình ảnh mạnh mẽ từ đội ngũ Qwen với khả năng kết xuất văn bản tiếng Trung mạnh mẽ và các phong cách hình ảnh đa dạng.",
+ "fal-ai/qwen-image-edit.description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp từ đội ngũ Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và giao diện, chỉnh sửa chính xác văn bản tiếng Trung và tiếng Anh, và mang lại các chỉnh sửa chất lượng cao như chuyển đổi phong cách và xoay vật thể.",
+ "fal-ai/qwen-image.description": "Mô hình tạo ảnh mạnh mẽ từ đội ngũ Qwen với khả năng dựng chữ tiếng Trung xuất sắc và đa dạng phong cách hình ảnh.",
"flux-1-schnell.description": "Mô hình chuyển văn bản thành hình ảnh với 12 tỷ tham số từ Black Forest Labs, sử dụng phương pháp khuếch tán đối kháng tiềm ẩn để tạo hình ảnh chất lượng cao chỉ trong 1–4 bước. Mô hình cạnh tranh với các lựa chọn đóng và được phát hành theo giấy phép Apache-2.0 cho mục đích cá nhân, nghiên cứu và thương mại.",
- "flux-dev.description": "FLUX.1 [dev] là mô hình chưng cất mã nguồn mở dành cho mục đích phi thương mại. Mô hình giữ chất lượng hình ảnh gần như chuyên nghiệp và khả năng tuân thủ hướng dẫn, đồng thời hoạt động hiệu quả hơn, sử dụng tài nguyên tốt hơn so với các mô hình tiêu chuẩn cùng kích thước.",
+ "flux-dev.description": "Mô hình tạo ảnh R&D mã nguồn mở, tối ưu hiệu quả cho nghiên cứu sáng tạo phi thương mại.",
"flux-kontext-max.description": "Tạo và chỉnh sửa hình ảnh theo ngữ cảnh tiên tiến, kết hợp văn bản và hình ảnh để tạo ra kết quả chính xác và mạch lạc.",
"flux-kontext-pro.description": "Tạo và chỉnh sửa hình ảnh theo ngữ cảnh tiên tiến, kết hợp văn bản và hình ảnh để tạo ra kết quả chính xác và mạch lạc.",
- "flux-merged.description": "FLUX.1 [merged] kết hợp các tính năng sâu được khám phá trong \"DEV\" với lợi thế tốc độ cao của \"Schnell\", mở rộng giới hạn hiệu suất và mở rộng ứng dụng.",
"flux-pro-1.1-ultra.description": "Tạo hình ảnh độ phân giải siêu cao với đầu ra 4MP, tạo hình ảnh sắc nét chỉ trong 10 giây.",
"flux-pro-1.1.description": "Mô hình tạo hình ảnh chuyên nghiệp nâng cấp với chất lượng hình ảnh xuất sắc và khả năng tuân thủ lời nhắc chính xác.",
"flux-pro.description": "Mô hình tạo hình ảnh thương mại hàng đầu với chất lượng hình ảnh vượt trội và đầu ra đa dạng.",
- "flux-schnell.description": "FLUX.1 [schnell] là mô hình mã nguồn mở tiên tiến nhất với số bước ít, vượt qua các đối thủ tương tự và thậm chí cả các mô hình không chưng cất mạnh như Midjourney v6.0 và DALL-E 3 (HD). Mô hình được tinh chỉnh để giữ sự đa dạng từ giai đoạn tiền huấn luyện, cải thiện đáng kể chất lượng hình ảnh, tuân thủ hướng dẫn, thay đổi kích thước/tỷ lệ, xử lý phông chữ và đa dạng đầu ra.",
"flux.1-schnell.description": "FLUX.1-schnell là mô hình tạo hình ảnh hiệu suất cao cho đầu ra nhanh với nhiều phong cách.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) cung cấp hiệu suất ổn định và có thể điều chỉnh cho các tác vụ phức tạp.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) hỗ trợ đa phương thức mạnh mẽ cho các tác vụ phức tạp.",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
"gemini-3-flash-preview.description": "Gemini 3 Flash là mô hình thông minh nhất được xây dựng để tối ưu tốc độ, kết hợp trí tuệ tiên tiến với khả năng tìm kiếm chính xác.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google, cũng hỗ trợ đối thoại đa phương thức.",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google và cũng hỗ trợ trò chuyện đa phương thức.",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo ảnh của Google và cũng hỗ trợ trò chuyện đa phương thức.",
"gemini-3-pro-preview.description": "Gemini 3 Pro là mô hình mạnh mẽ nhất của Google, kết hợp khả năng mã hóa cảm xúc và suy luận tiên tiến, mang đến hình ảnh phong phú và tương tác sâu sắc.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) là mô hình tạo hình ảnh bản địa nhanh nhất của Google với hỗ trợ suy nghĩ, tạo hình ảnh đối thoại và chỉnh sửa.",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) cung cấp chất lượng hình ảnh cấp Pro với tốc độ Flash và hỗ trợ trò chuyện đa phương thức.",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) là mô hình tạo ảnh gốc nhanh nhất của Google, hỗ trợ tư duy, tạo và chỉnh sửa hình ảnh theo phong cách hội thoại.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview là mô hình đa phương thức tiết kiệm chi phí nhất của Google, được tối ưu hóa cho các nhiệm vụ tác nhân khối lượng lớn, dịch thuật và xử lý dữ liệu.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview cải tiến Gemini 3 Pro với khả năng suy luận nâng cao và bổ sung hỗ trợ mức suy nghĩ trung bình.",
"gemini-flash-latest.description": "Phiên bản mới nhất của Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "Mô hình mạnh mẽ và tiên tiến nhất của chúng tôi, được thiết kế cho các tác vụ doanh nghiệp phức tạp với hiệu suất vượt trội.",
"jamba-mini.description": "Mô hình hiệu quả nhất trong phân khúc, cân bằng giữa tốc độ và chất lượng với dung lượng nhỏ gọn.",
"jina-deepsearch-v1.description": "DeepSearch kết hợp tìm kiếm web, đọc hiểu và suy luận để phục vụ các cuộc điều tra chuyên sâu. Hãy hình dung nó như một tác nhân nhận nhiệm vụ nghiên cứu của bạn, thực hiện các lượt tìm kiếm rộng rãi qua nhiều vòng lặp, và chỉ sau đó mới đưa ra câu trả lời. Quá trình này bao gồm nghiên cứu liên tục, suy luận và giải quyết vấn đề từ nhiều góc độ — hoàn toàn khác biệt so với các LLM tiêu chuẩn vốn chỉ trả lời dựa trên dữ liệu huấn luyện hoặc hệ thống RAG truyền thống dựa vào tìm kiếm một lần.",
- "k2p5.description": "Kimi K2.5 là mẫu đa năng nhất của Kimi cho đến nay, với kiến trúc đa phương thức tự nhiên hỗ trợ cả đầu vào hình ảnh và văn bản, chế độ 'suy nghĩ' và 'không suy nghĩ', cũng như các nhiệm vụ hội thoại và tác vụ đại lý.",
"kimi-k2-0711-preview.description": "kimi-k2 là mô hình nền MoE với khả năng lập trình và tác nhân mạnh mẽ (1T tham số tổng, 32B đang hoạt động), vượt trội hơn các mô hình mã nguồn mở phổ biến khác trong các bài kiểm tra về suy luận, lập trình, toán học và tác nhân.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview cung cấp cửa sổ ngữ cảnh 256k, khả năng lập trình tác nhân mạnh hơn, chất lượng mã giao diện người dùng tốt hơn và hiểu ngữ cảnh cải thiện.",
"kimi-k2-instruct.description": "Kimi K2 Instruct là mô hình suy luận chính thức của Kimi với khả năng xử lý ngữ cảnh dài cho mã, hỏi đáp và nhiều hơn nữa.",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ là mô hình lập luận trong họ Qwen. So với các mô hình điều chỉnh theo hướng dẫn tiêu chuẩn, nó mang lại khả năng tư duy và lập luận giúp cải thiện đáng kể hiệu suất các tác vụ phía sau, đặc biệt là các vấn đề khó. QwQ-32B là mô hình lập luận tầm trung có thể cạnh tranh với các mô hình hàng đầu như DeepSeek-R1 và o1-mini.",
"qwq_32b.description": "Mô hình lập luận tầm trung trong họ Qwen. So với các mô hình điều chỉnh theo hướng dẫn tiêu chuẩn, khả năng tư duy và lập luận của QwQ giúp cải thiện đáng kể hiệu suất các tác vụ phía sau, đặc biệt là các vấn đề khó.",
"r1-1776.description": "R1-1776 là biến thể hậu huấn luyện của DeepSeek R1 được thiết kế để cung cấp thông tin thực tế không kiểm duyệt, không thiên lệch.",
- "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro của ByteDance hỗ trợ chuyển văn bản thành video, hình ảnh thành video (khung hình đầu tiên, khung hình đầu tiên + cuối cùng), và tạo âm thanh đồng bộ với hình ảnh.",
- "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite của BytePlus có tính năng tạo nội dung tăng cường truy xuất web để cung cấp thông tin thời gian thực, cải thiện khả năng diễn giải gợi ý phức tạp và tăng cường tính nhất quán tham chiếu cho sáng tạo hình ảnh chuyên nghiệp.",
"solar-mini-ja.description": "Solar Mini (Ja) mở rộng Solar Mini với trọng tâm vào tiếng Nhật trong khi vẫn duy trì hiệu suất mạnh mẽ và hiệu quả với tiếng Anh và tiếng Hàn.",
"solar-mini.description": "Solar Mini là mô hình ngôn ngữ nhỏ gọn vượt trội hơn GPT-3.5, với khả năng đa ngôn ngữ mạnh mẽ hỗ trợ tiếng Anh và tiếng Hàn, mang lại giải pháp hiệu quả với dung lượng nhỏ.",
"solar-pro.description": "Solar Pro là mô hình ngôn ngữ thông minh cao từ Upstage, tập trung vào tuân thủ hướng dẫn trên một GPU duy nhất, với điểm IFEval trên 80. Hiện hỗ trợ tiếng Anh; bản phát hành đầy đủ dự kiến vào tháng 11 năm 2024 với hỗ trợ ngôn ngữ mở rộng và ngữ cảnh dài hơn.",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 là mô hình tạo phương tiện mạnh mẽ mới của chúng tôi, tạo video với âm thanh đồng bộ. Nó có thể tạo các đoạn clip động, chi tiết phong phú từ ngôn ngữ tự nhiên hoặc hình ảnh.",
"spark-x.description": "Tổng quan về khả năng X2: 1. Giới thiệu điều chỉnh động chế độ suy luận, được kiểm soát thông qua trường `thinking`. 2. Mở rộng độ dài ngữ cảnh: 64K token đầu vào và 128K token đầu ra. 3. Hỗ trợ chức năng Function Call.",
"stable-diffusion-3-medium.description": "Mô hình chuyển văn bản thành hình ảnh mới nhất từ Stability AI. Phiên bản này cải thiện đáng kể chất lượng hình ảnh, hiểu văn bản và đa dạng phong cách, diễn giải chính xác hơn các yêu cầu ngôn ngữ tự nhiên phức tạp và tạo ra hình ảnh chính xác, đa dạng hơn.",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo áp dụng kỹ thuật khuếch tán đối kháng (ADD) cho stable-diffusion-3.5-large để tăng tốc độ.",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large là mô hình chuyển văn bản thành hình ảnh MMDiT với 800 triệu tham số, chất lượng xuất sắc và phù hợp với yêu cầu, hỗ trợ hình ảnh 1 megapixel và chạy hiệu quả trên phần cứng người dùng.",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 được khởi tạo từ điểm kiểm tra v1.2 và tinh chỉnh trong 595k bước trên \"laion-aesthetics v2 5+\" ở độ phân giải 512x512, giảm điều kiện hóa văn bản 10% để cải thiện lấy mẫu hướng dẫn không phân loại.",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo tập trung vào tạo hình ảnh chất lượng cao với khả năng dựng chi tiết và độ trung thực cảnh mạnh mẽ.",
"stable-diffusion-xl-base-1.0.description": "Mô hình chuyển văn bản thành hình ảnh mã nguồn mở từ Stability AI với khả năng sáng tạo hình ảnh hàng đầu ngành. Nó có khả năng hiểu hướng dẫn mạnh mẽ và hỗ trợ định nghĩa ngược yêu cầu để tạo hình ảnh chính xác.",
- "stable-diffusion-xl.description": "stable-diffusion-xl mang lại cải tiến lớn so với v1.5 và đạt kết quả hàng đầu trong các mô hình chuyển văn bản thành hình ảnh mã nguồn mở. Cải tiến bao gồm backbone UNet lớn gấp 3 lần, mô-đun tinh chỉnh để cải thiện chất lượng hình ảnh và kỹ thuật huấn luyện hiệu quả hơn.",
"step-1-128k.description": "Cân bằng giữa hiệu suất và chi phí cho các kịch bản tổng quát.",
"step-1-256k.description": "Xử lý ngữ cảnh siêu dài, lý tưởng cho phân tích tài liệu dài.",
"step-1-32k.description": "Hỗ trợ các cuộc hội thoại trung bình cho nhiều kịch bản.",
diff --git a/locales/vi-VN/plugin.json b/locales/vi-VN/plugin.json
index 7a8048e160..91a7239863 100644
--- a/locales/vi-VN/plugin.json
+++ b/locales/vi-VN/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "Tổng cộng có {{count}} tham số",
"arguments.title": "Tham số",
"builtins.lobe-activator.apiName.activateTools": "Kích hoạt Công cụ",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} không tìm thấy",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Lấy mô hình khả dụng",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Lấy Kỹ năng khả dụng",
"builtins.lobe-agent-builder.apiName.getConfig": "Lấy cấu hình",
diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json
index 5094fb61dd..43dd055183 100644
--- a/locales/vi-VN/providers.json
+++ b/locales/vi-VN/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
"kimicodingplan.description": "Kimi Code từ Moonshot AI cung cấp quyền truy cập vào các mô hình Kimi bao gồm K2.5 cho các nhiệm vụ lập trình.",
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
- "lobehub.description": "LobeHub Cloud sử dụng các API chính thức để truy cập các mô hình AI và đo lường việc sử dụng bằng Tín dụng gắn liền với các token của mô hình.",
"longcat.description": "LongCat là một loạt các mô hình AI tạo sinh lớn được phát triển độc lập bởi Meituan. Nó được thiết kế để nâng cao năng suất nội bộ của doanh nghiệp và thúc đẩy các ứng dụng sáng tạo thông qua kiến trúc tính toán hiệu quả và khả năng đa phương thức mạnh mẽ.",
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan cung cấp quyền truy cập vào các mô hình MiniMax bao gồm M2.7 cho các nhiệm vụ lập trình thông qua gói đăng ký cố định.",
@@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark cung cấp AI đa ngôn ngữ mạnh mẽ trên nhiều lĩnh vực, thúc đẩy đổi mới trong phần cứng thông minh, y tế, tài chính và các ngành dọc khác.",
"stepfun.description": "Các mô hình Stepfun cung cấp khả năng đa phương thức và suy luận phức tạp hàng đầu, với hiểu ngữ cảnh dài và điều phối tìm kiếm tự động mạnh mẽ.",
"straico.description": "Straico đơn giản hóa việc tích hợp AI bằng cách cung cấp một không gian làm việc thống nhất, kết hợp các mô hình AI tạo văn bản, hình ảnh và âm thanh hàng đầu, mang đến cho các nhà tiếp thị, doanh nhân và những người đam mê khả năng truy cập dễ dàng vào các công cụ AI đa dạng.",
+ "streamlake.description": "StreamLake là nền tảng dịch vụ mô hình và điện toán AI ở cấp doanh nghiệp, tích hợp khả năng suy luận mô hình hiệu suất cao, tùy chỉnh mô hình với chi phí thấp và dịch vụ được quản lý toàn diện, giúp doanh nghiệp tập trung vào đổi mới ứng dụng AI mà không phải lo lắng về sự phức tạp hay chi phí của hạ tầng tính toán bên dưới.",
"taichu.description": "Mô hình đa phương thức thế hệ mới từ CASIA và Viện AI Vũ Hán, hỗ trợ hỏi đáp nhiều lượt, viết, tạo hình ảnh, hiểu 3D và phân tích tín hiệu với nhận thức và sáng tạo vượt trội.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power cung cấp hỏi đáp tri thức đầu-cuối cho doanh nghiệp và nhà phát triển, với các dịch vụ mô-đun như phân tích tài liệu, chia đoạn, nhúng và viết lại nhiều lượt để xây dựng giải pháp AI tùy chỉnh.",
"togetherai.description": "Together AI mang lại hiệu suất hàng đầu với các mô hình sáng tạo, tùy chỉnh rộng, mở rộng nhanh và triển khai đơn giản cho nhu cầu doanh nghiệp.",
diff --git a/locales/vi-VN/setting.json b/locales/vi-VN/setting.json
index 6b25df3ee7..e6897be306 100644
--- a/locales/vi-VN/setting.json
+++ b/locales/vi-VN/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "Công cụ hệ thống",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - công cụ tìm kiếm mã nhanh",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI tự động hóa trình duyệt không giao diện cho các tác nhân AI",
+ "settingSystemTools.tools.bun.desc": "Bun - môi trường chạy JavaScript và trình quản lý gói siêu nhanh",
+ "settingSystemTools.tools.bunx.desc": "bunx - công cụ chạy gói Bun để thực thi các gói npm",
"settingSystemTools.tools.fd.desc": "fd - thay thế nhanh và thân thiện với người dùng cho lệnh find",
"settingSystemTools.tools.find.desc": "Unix find - lệnh tìm kiếm tệp tiêu chuẩn",
"settingSystemTools.tools.grep.desc": "GNU grep - công cụ tìm kiếm văn bản tiêu chuẩn",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI - quản lý và kết nối với các dịch vụ LobeHub",
"settingSystemTools.tools.mdfind.desc": "Tìm kiếm Spotlight của macOS (tìm kiếm được lập chỉ mục nhanh)",
"settingSystemTools.tools.node.desc": "Node.js - môi trường chạy JavaScript cho JS/TS",
"settingSystemTools.tools.npm.desc": "npm - trình quản lý gói Node.js để cài đặt phụ thuộc",
+ "settingSystemTools.tools.pnpm.desc": "pnpm - trình quản lý gói nhanh và tiết kiệm dung lượng",
"settingSystemTools.tools.python.desc": "Python - môi trường chạy ngôn ngữ lập trình",
"settingSystemTools.tools.rg.desc": "ripgrep - công cụ tìm kiếm văn bản cực nhanh",
+ "settingSystemTools.tools.uv.desc": "uv - trình quản lý gói Python cực nhanh",
"settingTTS.openai.sttModel": "Mô Hình Chuyển Giọng Nói Thành Văn Bản của OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Mô Hình Chuyển Văn Bản Thành Giọng Nói của OpenAI",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Mô hình",
"systemAgent.inputCompletion.modelDesc": "Mô hình được sử dụng để gợi ý tự động hoàn thành đầu vào (như văn bản ma của GitHub Copilot)",
"systemAgent.inputCompletion.title": "Tác nhân Tự động Hoàn thành Đầu vào",
+ "systemAgent.promptRewrite.label": "Mô hình",
+ "systemAgent.promptRewrite.modelDesc": "Chỉ định mô hình được sử dụng để viết lại prompt",
+ "systemAgent.promptRewrite.title": "Tác nhân Viết lại Prompt",
"systemAgent.queryRewrite.label": "Mô Hình",
"systemAgent.queryRewrite.modelDesc": "Chỉ định mô hình dùng để tối ưu hóa câu hỏi người dùng",
"systemAgent.queryRewrite.title": "Tác Nhân Viết Lại Truy Vấn Thư Viện",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Tải lên tệp .zip hoặc .skill từ máy tính",
"tab.usage": "Thống Kê Sử Dụng",
"tools.add": "Thêm Kỹ Năng",
+ "tools.builtins.find-skills.description": "Giúp người dùng khám phá và cài đặt kỹ năng cho tác nhân khi họ hỏi \"làm sao để X\", \"tìm kỹ năng cho X\", hoặc muốn mở rộng khả năng",
+ "tools.builtins.find-skills.title": "Tìm Kỹ Năng",
"tools.builtins.groupName": "Tích Hợp Sẵn",
"tools.builtins.install": "Cài đặt",
"tools.builtins.installed": "Đã cài đặt",
+ "tools.builtins.lobe-activator.description": "Khám phá và kích hoạt công cụ và kỹ năng",
+ "tools.builtins.lobe-activator.title": "Trình Kích Hoạt Công Cụ & Kỹ Năng",
+ "tools.builtins.lobe-agent-browser.description": "CLI tự động hoá trình duyệt cho các tác nhân AI. Sử dụng cho các nhiệm vụ liên quan đến trang web hoặc Electron như điều hướng, điền biểu mẫu, nhấp chuột, chụp màn hình, trích xuất dữ liệu, quy trình đăng nhập và kiểm thử ứng dụng end-to-end.",
+ "tools.builtins.lobe-agent-browser.title": "Trình Duyệt Tác Nhân",
+ "tools.builtins.lobe-agent-builder.description": "Cấu hình siêu dữ liệu tác nhân, thiết lập mô hình, plugin và prompt hệ thống",
+ "tools.builtins.lobe-agent-builder.title": "Trình Xây Dựng Tác Nhân",
+ "tools.builtins.lobe-agent-documents.description": "Quản lý tài liệu theo phạm vi tác nhân (liệt kê, tạo, đọc, chỉnh sửa, xóa, đổi tên) và quy tắc tải",
+ "tools.builtins.lobe-agent-documents.title": "Tài Liệu",
+ "tools.builtins.lobe-agent-management.description": "Tạo, quản lý và điều phối các tác nhân AI",
+ "tools.builtins.lobe-agent-management.title": "Quản Lý Tác Nhân",
"tools.builtins.lobe-artifacts.description": "Tạo và xem trước trực tiếp các thành phần giao diện tương tác, biểu đồ dữ liệu, đồ họa SVG và ứng dụng web. Tạo nội dung trực quan phong phú mà người dùng có thể tương tác trực tiếp.",
"tools.builtins.lobe-artifacts.readme": "Tạo và xem trước trực tiếp các thành phần giao diện người dùng tương tác, biểu đồ dữ liệu, đồ họa SVG và ứng dụng web. Tạo nội dung trực quan phong phú mà người dùng có thể tương tác trực tiếp.",
"tools.builtins.lobe-artifacts.title": "Tạo tác",
+ "tools.builtins.lobe-brief.description": "Báo cáo tiến độ, cung cấp kết quả và yêu cầu người dùng đưa ra quyết định",
+ "tools.builtins.lobe-brief.title": "Công Cụ Báo Cáo",
"tools.builtins.lobe-calculator.description": "Thực hiện các phép tính toán học, giải phương trình và làm việc với các biểu thức ký hiệu",
"tools.builtins.lobe-calculator.readme": "Máy tính toán học nâng cao hỗ trợ số học cơ bản, phương trình đại số, các phép tính giải tích và toán học ký hiệu. Bao gồm chuyển đổi cơ số, giải phương trình, đạo hàm, tích phân và nhiều hơn nữa.",
"tools.builtins.lobe-calculator.title": "Máy tính",
"tools.builtins.lobe-cloud-sandbox.description": "Thực thi mã Python, JavaScript và TypeScript trong môi trường đám mây cách ly. Chạy lệnh shell, quản lý tệp, tìm kiếm nội dung bằng regex và xuất kết quả một cách an toàn.",
"tools.builtins.lobe-cloud-sandbox.readme": "Thực thi mã Python, JavaScript và TypeScript trong môi trường đám mây cách ly. Chạy lệnh shell, quản lý tệp, tìm kiếm nội dung bằng regex và xuất kết quả một cách an toàn.",
"tools.builtins.lobe-cloud-sandbox.title": "Hộp cát đám mây",
+ "tools.builtins.lobe-creds.description": "Quản lý thông tin xác thực của người dùng để xác thực, chèn biến môi trường và xác minh API — xử lý khóa API, token OAuth và bí mật cho các tích hợp bên thứ ba.",
+ "tools.builtins.lobe-creds.title": "Thông Tin Xác Thực",
+ "tools.builtins.lobe-cron.description": "Quản lý các tác vụ được lên lịch chạy tự động vào thời điểm xác định. Tạo, cập nhật, bật/tắt và theo dõi các tác vụ định kỳ cho tác nhân của bạn.",
+ "tools.builtins.lobe-cron.title": "Tác Vụ Định Kỳ",
+ "tools.builtins.lobe-group-agent-builder.description": "Cấu hình siêu dữ liệu nhóm, thành viên và nội dung chia sẻ cho các nhóm đa tác nhân",
+ "tools.builtins.lobe-group-agent-builder.title": "Trình Xây Dựng Nhóm Tác Nhân",
+ "tools.builtins.lobe-group-management.description": "Điều phối và quản lý hội thoại nhóm đa tác nhân",
+ "tools.builtins.lobe-group-management.title": "Quản Lý Nhóm",
"tools.builtins.lobe-gtd.description": "Lập kế hoạch mục tiêu và theo dõi tiến độ theo phương pháp GTD. Tạo kế hoạch chiến lược, quản lý danh sách công việc với trạng thái và thực thi các tác vụ bất đồng bộ dài hạn.",
"tools.builtins.lobe-gtd.readme": "Lập kế hoạch mục tiêu và theo dõi tiến độ theo phương pháp GTD. Tạo kế hoạch chiến lược, quản lý danh sách công việc với trạng thái và thực thi các tác vụ bất đồng bộ kéo dài.",
"tools.builtins.lobe-gtd.title": "Công cụ GTD",
+ "tools.builtins.lobe-knowledge-base.description": "Tìm kiếm tài liệu đã tải lên và kiến thức theo miền thông qua tìm kiếm vector ngữ nghĩa — dùng cho tham chiếu lâu dài và tái sử dụng",
+ "tools.builtins.lobe-knowledge-base.title": "Cơ Sở Kiến Thức",
"tools.builtins.lobe-local-system.description": "Truy cập hệ thống tệp cục bộ trên máy tính. Đọc, ghi, tìm kiếm và sắp xếp tệp. Thực thi lệnh shell với hỗ trợ tác vụ nền và tìm nội dung bằng biểu thức chính quy.",
"tools.builtins.lobe-local-system.readme": "Truy cập hệ thống tệp cục bộ trên máy tính. Đọc, ghi, tìm kiếm và sắp xếp tệp. Thực thi lệnh shell với hỗ trợ tác vụ nền và tìm nội dung bằng mẫu regex.",
"tools.builtins.lobe-local-system.title": "Hệ thống cục bộ",
+ "tools.builtins.lobe-message.description": "Gửi, đọc, chỉnh sửa và quản lý tin nhắn trên nhiều nền tảng nhắn tin với giao diện thống nhất",
+ "tools.builtins.lobe-message.readme": "Công cụ nhắn tin đa nền tảng hỗ trợ Discord, Telegram, Slack, Google Chat và IRC. Cung cấp API thống nhất cho thao tác tin nhắn, phản ứng, ghim, luồng, quản lý kênh và các tính năng đặc thù như khảo sát.",
+ "tools.builtins.lobe-message.title": "Tin Nhắn",
"tools.builtins.lobe-notebook.description": "Tạo và quản lý tài liệu lưu trữ lâu dài trong các chủ đề hội thoại. Lưu ghi chú, báo cáo, bài viết và nội dung markdown có thể truy cập lại trong các phiên sau.",
"tools.builtins.lobe-notebook.readme": "Tạo và quản lý tài liệu lưu trữ lâu dài trong các chủ đề hội thoại. Lưu ghi chú, báo cáo, bài viết và nội dung markdown có thể truy cập qua nhiều phiên làm việc.",
"tools.builtins.lobe-notebook.title": "Sổ tay",
+ "tools.builtins.lobe-page-agent.description": "Tạo, đọc, cập nhật và xoá các nút trong tài liệu có cấu trúc XML",
+ "tools.builtins.lobe-page-agent.readme": "Tạo và chỉnh sửa tài liệu có cấu trúc với khả năng kiểm soát chi tiết từng nút. Khởi tạo từ Markdown, thực hiện chèn/sửa/xoá hàng loạt, và tìm-thay-thế văn bản trong toàn bộ tài liệu.",
+ "tools.builtins.lobe-page-agent.title": "Tài Liệu Có Cấu Trúc",
+ "tools.builtins.lobe-remote-device.description": "Khám phá và quản lý kết nối thiết bị máy tính từ xa",
+ "tools.builtins.lobe-remote-device.readme": "Quản lý kết nối đến thiết bị máy tính của bạn. Liệt kê thiết bị trực tuyến, kích hoạt thiết bị cho thao tác từ xa và kiểm tra trạng thái kết nối.",
+ "tools.builtins.lobe-remote-device.title": "Thiết Bị Từ Xa",
+ "tools.builtins.lobe-skill-store.description": "Duyệt và cài đặt kỹ năng tác nhân từ marketplace của LobeHub. Sử dụng khi bạn cần mở rộng khả năng hoặc muốn cài một kỹ năng cụ thể.",
+ "tools.builtins.lobe-skill-store.title": "Kho Kỹ Năng",
+ "tools.builtins.lobe-skills.description": "Kích hoạt và sử dụng các gói kỹ năng có thể tái sử dụng",
+ "tools.builtins.lobe-skills.title": "Kỹ Năng",
+ "tools.builtins.lobe-task.description": "Tạo, liệt kê, chỉnh sửa và xóa tác vụ với cấu hình phụ thuộc và rà soát",
+ "tools.builtins.lobe-task.title": "Công Cụ Tác Vụ",
+ "tools.builtins.lobe-topic-reference.description": "Truy xuất ngữ cảnh từ các cuộc hội thoại theo chủ đề được tham chiếu",
+ "tools.builtins.lobe-topic-reference.title": "Tham Chiếu Chủ Đề",
+ "tools.builtins.lobe-user-interaction.description": "Đặt câu hỏi cho người dùng thông qua tương tác giao diện và theo dõi kết quả của chúng",
+ "tools.builtins.lobe-user-interaction.title": "Tương Tác Người Dùng",
"tools.builtins.lobe-user-memory.description": "Xây dựng cơ sở kiến thức cá nhân hóa về bạn. Ghi nhớ sở thích, theo dõi hoạt động và trải nghiệm, lưu trữ thông tin nhận dạng và gợi nhớ ngữ cảnh liên quan trong các cuộc trò chuyện sau.",
"tools.builtins.lobe-user-memory.readme": "Xây dựng cơ sở kiến thức cá nhân hóa về bạn. Ghi nhớ sở thích, theo dõi hoạt động và trải nghiệm, lưu trữ thông tin nhận dạng và gợi nhớ ngữ cảnh phù hợp trong các cuộc trò chuyện sau này.",
"tools.builtins.lobe-user-memory.title": "Bộ nhớ",
+ "tools.builtins.lobe-web-browsing.description": "Tìm kiếm thông tin mới nhất trên web và thu thập nội dung từ trang web. Hỗ trợ nhiều công cụ tìm kiếm, danh mục và phạm vi thời gian.",
+ "tools.builtins.lobe-web-browsing.readme": "Tìm kiếm thông tin mới nhất trên web và thu thập nội dung từ trang web. Hỗ trợ nhiều công cụ tìm kiếm, danh mục và phạm vi thời gian để nghiên cứu toàn diện.",
+ "tools.builtins.lobe-web-browsing.title": "Duyệt Web",
+ "tools.builtins.lobe-web-onboarding.description": "Điều phối quy trình onboarding trên web với môi trường chạy tác nhân được kiểm soát",
+ "tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
+ "tools.builtins.lobehub.description": "Quản lý nền tảng LobeHub qua CLI — cơ sở kiến thức, bộ nhớ, tác nhân, tệp, tìm kiếm, sinh nội dung và nhiều hơn nữa.",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Chưa cài đặt",
+ "tools.builtins.task.description": "Quản lý và thực thi tác vụ — tạo, theo dõi, rà soát và hoàn thành tác vụ qua CLI.",
+ "tools.builtins.task.title": "Tác Vụ",
"tools.builtins.uninstall": "Gỡ cài đặt",
"tools.builtins.uninstallConfirm.desc": "Bạn có chắc chắn muốn gỡ cài đặt {{name}} không? Kỹ năng này sẽ bị xóa khỏi tác nhân hiện tại.",
"tools.builtins.uninstallConfirm.title": "Gỡ cài đặt {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Ngắt kết nối {{name}}?",
"tools.lobehubSkill.disconnected": "Mất kết nối",
"tools.lobehubSkill.error": "Lỗi",
+ "tools.lobehubSkill.providers.github.description": "GitHub là nền tảng quản lý phiên bản và cộng tác, cho phép nhà phát triển lưu trữ, xem xét và quản lý kho mã nguồn.",
+ "tools.lobehubSkill.providers.github.readme": "Kết nối GitHub để truy cập kho mã, tạo và quản lý issue, xem xét pull request và cộng tác trên mã — tất cả thông qua hội thoại tự nhiên với trợ lý AI của bạn.",
"tools.lobehubSkill.providers.linear.description": "Linear là công cụ theo dõi lỗi và quản lý dự án hiện đại được thiết kế cho các nhóm hiệu suất cao để xây dựng phần mềm tốt hơn, nhanh hơn",
"tools.lobehubSkill.providers.linear.readme": "Mang sức mạnh của Linear vào trợ lý AI của bạn. Tạo và cập nhật vấn đề, quản lý sprint, theo dõi tiến độ dự án và tối ưu hóa quy trình phát triển—tất cả qua hội thoại tự nhiên.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar là công cụ lập lịch tích hợp trong Microsoft Outlook cho phép người dùng tạo cuộc hẹn, tổ chức cuộc họp và quản lý thời gian hiệu quả.",
"tools.lobehubSkill.providers.microsoft.readme": "Tích hợp với Outlook Calendar để xem, tạo và quản lý sự kiện một cách liền mạch. Lên lịch họp, kiểm tra thời gian rảnh, đặt lời nhắc và điều phối thời gian—tất cả qua lệnh ngôn ngữ tự nhiên.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) là nền tảng mạng xã hội để chia sẻ cập nhật thời gian thực, tin tức và tương tác với khán giả thông qua bài đăng, phản hồi và tin nhắn trực tiếp.",
"tools.lobehubSkill.providers.twitter.readme": "Kết nối với X (Twitter) để đăng tweet, quản lý dòng thời gian và tương tác với khán giả. Tạo nội dung, lên lịch bài đăng, theo dõi đề cập và xây dựng sự hiện diện mạng xã hội qua AI hội thoại.",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel là nền tảng đám mây dành cho lập trình viên frontend, cung cấp hosting và hàm serverless để triển khai ứng dụng web dễ dàng.",
+ "tools.lobehubSkill.providers.vercel.readme": "Kết nối Vercel để quản lý triển khai, theo dõi trạng thái dự án và kiểm soát hạ tầng. Triển khai ứng dụng, kiểm tra log build, quản lý biến môi trường và mở rộng dự án thông qua AI hội thoại.",
"tools.notInstalled": "Chưa Cài Đặt",
"tools.notInstalledWarning": "Kỹ năng này hiện chưa được cài đặt, điều này có thể ảnh hưởng đến chức năng của tác nhân.",
"tools.plugins.enabled": "Đã bật: {{num}}",
diff --git a/locales/vi-VN/subscription.json b/locales/vi-VN/subscription.json
index 64adad0ae3..9e5e9abb60 100644
--- a/locales/vi-VN/subscription.json
+++ b/locales/vi-VN/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Nâng cấp lên",
"credits.topUp.upgradeSuffix": "để tiết kiệm ${{savings}}",
"credits.topUp.validityInfo": "Hiệu lực {{months}} tháng",
+ "crossPlatform.desc": "Gói đăng ký này được mua thông qua ứng dụng di động và không thể chỉnh sửa tại đây. Vui lòng quản lý gói đăng ký của bạn trên thiết bị di động.",
+ "crossPlatform.manageOnMobile": "Quản lý trên thiết bị di động",
+ "crossPlatform.title": "Gói Đăng Ký Đa Nền Tảng",
"currentPlan.cancelAlert": "Đăng ký sẽ bị hủy sau {{canceledAt}}. Bạn vẫn có thể khôi phục trong \"Quản lý đăng ký\" trước thời điểm đó",
"currentPlan.downgradeAlert": "Sẽ bị hạ cấp xuống {{plan}} sau {{downgradedAt}}.",
"currentPlan.management": "Quản lý đăng ký",
diff --git a/locales/vi-VN/video.json b/locales/vi-VN/video.json
index aa167e01eb..edf2eca8af 100644
--- a/locales/vi-VN/video.json
+++ b/locales/vi-VN/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "Khung hình bắt đầu",
"config.prompt.placeholder": "Mô tả video bạn muốn tạo",
"config.prompt.placeholderWithRef": "Mô tả cảnh bạn muốn tạo với hình ảnh",
+ "config.promptExtend.label": "Mở rộng Prompt",
"config.referenceImage.label": "Hình ảnh tham chiếu",
"config.resolution.label": "Độ phân giải",
"config.seed.label": "Hạt giống",
"config.seed.random": "Ngẫu nhiên",
"config.size.label": "Kích thước",
+ "config.watermark.label": "Hình mờ",
+ "config.webSearch.label": "Tìm kiếm Web",
"generation.actions.copyError": "Sao chép thông báo lỗi",
"generation.actions.errorCopied": "Đã sao chép thông báo lỗi vào bộ nhớ tạm",
"generation.actions.errorCopyFailed": "Không thể sao chép thông báo lỗi",
diff --git a/locales/zh-CN/agent.json b/locales/zh-CN/agent.json
index e29960077f..c8a2447489 100644
--- a/locales/zh-CN/agent.json
+++ b/locales/zh-CN/agent.json
@@ -77,6 +77,8 @@
"channel.publicKeyPlaceholder": "用于交互验证",
"channel.qq.appIdHint": "您在 QQ 开放平台获取的机器人 App ID",
"channel.qq.description": "将助手连接到 QQ,支持群聊和私聊。",
+ "channel.qq.webhookMigrationDesc": "WebSocket 模式无需回调 URL,即可提供实时事件传递和自动重连。要进行迁移,请在 QQ 开放平台创建一个新的机器人且不要配置回调 URL,然后在高级设置中将连接模式切换为 WebSocket。",
+ "channel.qq.webhookMigrationTitle": "建议迁移至 WebSocket 模式",
"channel.removeChannel": "移除频道",
"channel.removeFailed": "移除频道失败",
"channel.removed": "频道已移除",
diff --git a/locales/zh-CN/chat.json b/locales/zh-CN/chat.json
index 629080155e..f486749d83 100644
--- a/locales/zh-CN/chat.json
+++ b/locales/zh-CN/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "群组已删除",
"confirmRemoveSessionItemAlert": "确认删除该助理吗?删除后无法恢复",
"confirmRemoveSessionSuccess": "助理已删除",
+ "createModal.createBlank": "创建空白",
+ "createModal.groupPlaceholder": "描述这个群组应该做什么...",
+ "createModal.groupTitle": "你的群组应该做什么?",
+ "createModal.placeholder": "描述你的助理应该做什么...",
+ "createModal.title": "你的助理应该做什么?",
"defaultAgent": "自定义助理",
"defaultGroupChat": "群组",
"defaultList": "默认列表",
@@ -229,7 +234,7 @@
"operation.contextCompression": "上下文过长,正在压缩历史记录……",
"operation.execAgentRuntime": "准备响应中",
"operation.execClientTask": "执行任务中",
- "operation.execServerAgentRuntime": "准备响应中(切换任务或关闭页面都会继续执行)",
+ "operation.execServerAgentRuntime": "运行中… 您可以切换任务或关闭页面——任务将继续执行。",
"operation.sendMessage": "消息发送中",
"owner": "群主",
"pageCopilot.title": "文稿助理",
@@ -383,6 +388,7 @@
"task.status.fetchingDetails": "正在获取详情...",
"task.status.initializing": "任务启动中…",
"task.subtask": "子任务",
+ "task.title": "任务",
"thread.divider": "子话题",
"thread.threadMessageCount": "{{messageCount}} 条消息",
"thread.title": "子话题",
@@ -430,9 +436,11 @@
"toolAuth.title": "为助理完成技能授权",
"topic.checkOpenNewTopic": "要开启新话题吗?",
"topic.checkSaveCurrentMessages": "要将当前会话保存为话题吗?",
+ "topic.defaultTitle": "未命名主题",
"topic.openNewTopic": "开启新话题",
"topic.recent": "最近话题",
"topic.saveCurrentMessages": "保存为话题",
+ "topic.viewAll": "查看所有主题",
"translate.action": "翻译",
"translate.clear": "删除翻译",
"tts.action": "语音朗读",
@@ -457,6 +465,80 @@
"viewMode.fullWidth": "全宽显示",
"viewMode.normal": "普通",
"viewMode.wideScreen": "宽屏",
+ "workflow.failedSuffix": "(失败)",
+ "workflow.thoughtForDuration": "思考了 {{duration}}",
+ "workflow.toolDisplayName.activateDevice": "激活了设备",
+ "workflow.toolDisplayName.activateSkill": "启用了技能",
+ "workflow.toolDisplayName.activateTools": "启用了工具",
+ "workflow.toolDisplayName.addActivityMemory": "保存了记忆",
+ "workflow.toolDisplayName.addContextMemory": "保存了记忆",
+ "workflow.toolDisplayName.addExperienceMemory": "保存了记忆",
+ "workflow.toolDisplayName.addIdentityMemory": "保存了记忆",
+ "workflow.toolDisplayName.addPreferenceMemory": "保存了记忆",
+ "workflow.toolDisplayName.calculate": "完成了计算",
+ "workflow.toolDisplayName.callAgent": "调用了助理",
+ "workflow.toolDisplayName.clearTodos": "清空了待办",
+ "workflow.toolDisplayName.copyDocument": "复制了文档",
+ "workflow.toolDisplayName.crawlMultiPages": "抓取了多个页面",
+ "workflow.toolDisplayName.crawlSinglePage": "抓取了页面",
+ "workflow.toolDisplayName.createAgent": "创建了助理",
+ "workflow.toolDisplayName.createDocument": "创建了文档",
+ "workflow.toolDisplayName.createPlan": "创建了计划",
+ "workflow.toolDisplayName.createTodos": "创建了待办",
+ "workflow.toolDisplayName.deleteAgent": "删除了助理",
+ "workflow.toolDisplayName.deleteDocument": "删除了文档",
+ "workflow.toolDisplayName.editDocument": "编辑了文档",
+ "workflow.toolDisplayName.editLocalFile": "编辑了文件",
+ "workflow.toolDisplayName.editTitle": "编辑了标题",
+ "workflow.toolDisplayName.evaluate": "求值了表达式",
+ "workflow.toolDisplayName.execScript": "执行了脚本",
+ "workflow.toolDisplayName.execTask": "执行了任务",
+ "workflow.toolDisplayName.execTasks": "执行了任务",
+ "workflow.toolDisplayName.execute": "执行了计算",
+ "workflow.toolDisplayName.executeCode": "执行了代码",
+ "workflow.toolDisplayName.finishOnboarding": "完成了引导",
+ "workflow.toolDisplayName.getCommandOutput": "读取了命令输出",
+ "workflow.toolDisplayName.getDocument": "读取了文档",
+ "workflow.toolDisplayName.getOnboardingState": "检查了引导状态",
+ "workflow.toolDisplayName.getPageContent": "读取了文稿内容",
+ "workflow.toolDisplayName.getTopicContext": "读取了话题上下文",
+ "workflow.toolDisplayName.globLocalFiles": "搜索了文件",
+ "workflow.toolDisplayName.grepContent": "搜索了内容",
+ "workflow.toolDisplayName.importFromMarket": "从市场导入了内容",
+ "workflow.toolDisplayName.importSkill": "导入了技能",
+ "workflow.toolDisplayName.initPage": "初始化了文稿",
+ "workflow.toolDisplayName.killCommand": "停止了命令",
+ "workflow.toolDisplayName.listDocuments": "列出了文档",
+ "workflow.toolDisplayName.listLocalFiles": "列出了文件",
+ "workflow.toolDisplayName.listOnlineDevices": "列出了在线设备",
+ "workflow.toolDisplayName.modifyNodes": "修改了文稿",
+ "workflow.toolDisplayName.moveLocalFiles": "移动了文件",
+ "workflow.toolDisplayName.readDocument": "读取了文档",
+ "workflow.toolDisplayName.readDocumentByFilename": "读取了文档",
+ "workflow.toolDisplayName.readKnowledge": "读取了知识",
+ "workflow.toolDisplayName.readLocalFile": "读取了文件",
+ "workflow.toolDisplayName.removeDocument": "移除了文档",
+ "workflow.toolDisplayName.removeIdentityMemory": "移除了记忆",
+ "workflow.toolDisplayName.renameDocument": "重命名了文档",
+ "workflow.toolDisplayName.renameLocalFile": "重命名了文件",
+ "workflow.toolDisplayName.replaceText": "替换了文本",
+ "workflow.toolDisplayName.runCommand": "运行了命令",
+ "workflow.toolDisplayName.search": "搜索了网络",
+ "workflow.toolDisplayName.searchAgent": "搜索了助理",
+ "workflow.toolDisplayName.searchKnowledgeBase": "搜索了知识库",
+ "workflow.toolDisplayName.searchLocalFiles": "搜索了文件",
+ "workflow.toolDisplayName.searchSkill": "搜索了技能",
+ "workflow.toolDisplayName.searchUserMemory": "搜索了记忆",
+ "workflow.toolDisplayName.solve": "求解了方程",
+ "workflow.toolDisplayName.updateAgent": "更新了助理",
+ "workflow.toolDisplayName.updateDocument": "更新了文档",
+ "workflow.toolDisplayName.updateIdentityMemory": "更新了记忆",
+ "workflow.toolDisplayName.updateLoadRule": "更新了加载规则",
+ "workflow.toolDisplayName.updatePlan": "更新了计划",
+ "workflow.toolDisplayName.updateTodos": "更新了待办",
+ "workflow.toolDisplayName.upsertDocumentByFilename": "更新了文档",
+ "workflow.toolDisplayName.writeLocalFile": "写入了文件",
+ "workflow.working": "处理中...",
"you": "你",
"zenMode": "专注模式"
}
diff --git a/locales/zh-CN/common.json b/locales/zh-CN/common.json
index f81db9d531..8f6e8266ca 100644
--- a/locales/zh-CN/common.json
+++ b/locales/zh-CN/common.json
@@ -343,10 +343,19 @@
"mail.support": "邮件支持",
"more": "更多",
"navPanel.agent": "助理",
+ "navPanel.customizeSidebar": "自定义侧边栏",
"navPanel.displayItems": "显示条目",
+ "navPanel.hidden": "已隐藏",
+ "navPanel.hideSection": "隐藏分组",
"navPanel.library": "资源库",
+ "navPanel.moveDown": "下移",
+ "navPanel.moveUp": "上移",
+ "navPanel.pinned": "已固定",
"navPanel.searchAgent": "搜索助理…",
+ "navPanel.searchRecent": "搜索最近…",
"navPanel.searchResultEmpty": "暂无搜索结果",
+ "navPanel.show": "显示",
+ "navPanel.visible": "显示中",
"new": "新",
"noContent": "暂无内容",
"oauth": "SSO 登录",
@@ -367,6 +376,7 @@
"promptTransform.actions.translate": "翻译",
"promptTransform.status.rewrite": "正在丰富细节...",
"promptTransform.status.translate": "正在翻译...",
+ "recents": "Recents",
"regenerate": "重新生成",
"releaseNotes": "版本详情",
"rename": "重命名",
@@ -405,6 +415,7 @@
"tab.audio": "音频",
"tab.chat": "会话",
"tab.community": "社区",
+ "tab.create": "创建",
"tab.discover": "发现",
"tab.eval": "评测实验室",
"tab.files": "文件",
diff --git a/locales/zh-CN/image.json b/locales/zh-CN/image.json
index ff7afd3659..f7b902ef93 100644
--- a/locales/zh-CN/image.json
+++ b/locales/zh-CN/image.json
@@ -12,7 +12,7 @@
"config.model.label": "模型",
"config.prompt.placeholder": "描述你想要生成的内容",
"config.prompt.placeholderWithRef": "描述你想如何调整图片",
- "config.promptExtend.label": "提示词扩展",
+ "config.promptExtend.label": "提示扩展",
"config.quality.label": "图片质量",
"config.quality.options.hd": "高清",
"config.quality.options.standard": "标准",
diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json
index 2966e9df6a..24f1ce60e3 100644
--- a/locales/zh-CN/models.json
+++ b/locales/zh-CN/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "国内领先模型,在中文任务如知识问答、长文本处理和创意生成方面超越海外主流模型。具备行业领先的多模态能力,在权威评测中表现优异。",
"Baichuan4.description": "国内顶尖性能,在中文任务如百科知识、长文本处理和创意生成方面超越海外主流模型。具备行业领先的多模态能力,在权威评测中表现出色。",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS 是字节跳动 Seed 团队推出的开源大模型系列,具备强大的长上下文处理、推理、智能体和通用能力。Seed-OSS-36B-Instruct 是一款 360 亿参数的指令微调模型,原生支持超长上下文,适用于处理大型文档或代码库。该模型在推理、代码生成和智能体任务(工具使用)方面表现出色,同时保留强大的通用能力。其核心特性“思维预算”可灵活控制推理长度,提升效率。",
+ "DeepSeek-OCR.description": "DeepSeek-OCR 是 DeepSeek AI 推出的视觉语言模型,专注于 OCR 与“上下文光学压缩”。它探索如何从图像中压缩上下文,高效处理文档并将其转换为结构化文本(如 Markdown)。该模型能够精准识别图像中的文字,适用于文档数字化、文本提取与结构化处理等场景。",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1 是 DeepSeek 系列中更大更智能的模型,已蒸馏至 Llama 70B 架构。基准测试和人工评估显示其在数学和事实精度任务上优于原始 Llama 70B。",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "基于 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸馏模型。通过强化学习与冷启动数据优化推理性能,在开源模型中树立多任务新基准。",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill 模型基于开源模型,使用 DeepSeek-R1 生成的样本数据进行微调。",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "提供方:sophnet。DeepSeek V3 Fast 是 DeepSeek V3 0324 的高 TPS 版本,采用全精度(非量化),在代码与数学方面更强,响应更快。",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast 是 DeepSeek V3.1 的高 TPS 快速版本。混合思维模式:通过对话模板,一个模型支持思考与非思考模式。更智能的工具使用:后训练优化提升工具与智能体任务表现。",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 思考模式:新型混合推理模型,支持思考与非思考模式,效率优于 DeepSeek-R1-0528。后训练优化显著提升智能体工具使用与任务表现。",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 引入稀疏注意力机制,旨在提升处理长文本时的训练与推理效率,且价格低于 deepseek-v3.1。",
"DeepSeek-V3.description": "DeepSeek-V3 是 DeepSeek 开发的 MoE 模型,在多个基准测试中超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,并与 GPT-4o 和 Claude 3.5 Sonnet 等领先闭源模型竞争。",
"Doubao-lite-128k.description": "豆包-lite 提供超快响应和更高性价比,适用于多种场景,支持 128K 上下文推理与微调。",
"Doubao-lite-32k.description": "豆包-lite 提供超快响应和更高性价比,适用于多种场景,支持 32K 上下文推理与微调。",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5:高性能模型,适用于推理、编程和代理任务。",
"GLM-4.6.description": "GLM-4.6:上一代模型。",
"GLM-4.7.description": "GLM-4.7是智谱最新旗舰模型,针对代理编程场景进行了增强,具备更强的编程能力、长期任务规划能力以及工具协作能力。",
- "GLM-5-Turbo.description": "GLM-5-Turbo:GLM-5的优化版本,针对编程任务推理速度更快。",
+ "GLM-5-Turbo.description": "GLM-5-Turbo 是一款为智能体场景深度优化的基础模型,从训练阶段即面向智能体任务的核心需求进行优化,加强了工具调用、指令遵循与长链执行等关键能力,非常适合构建高性能智能助手。",
"GLM-5.1.description": "GLM-5.1 是智谱最新的旗舰模型,是 GLM-5 的增强迭代版本,具备更强的代理工程能力,能够处理复杂系统工程和长周期任务。",
- "GLM-5.description": "GLM-5是智谱下一代旗舰基础模型,专为代理工程设计。它在复杂系统工程和长期代理任务中提供可靠的生产力。在编程和代理能力方面,GLM-5在开源模型中实现了最先进的性能。",
+ "GLM-5.description": "GLM-5 是智谱面向 Agentic Engineering 打造的下一代旗舰基础模型,可在复杂系统工程与长周期智能体任务中提供可靠生产力。在编码与智能体能力方面,GLM-5 在开源模型中表现领先。在真实编程场景中的使用体验已接近 Claude Opus 4.5。它擅长复杂系统工程与长期智能体任务,是构建通用型智能体助手的理想基础模型。",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2(13B)是一款面向多领域和复杂任务的创新模型。",
"HY-Image-V3.0.description": "强大的原始图像特征提取和细节保留能力,呈现更丰富的视觉纹理,生成高精度、构图优良、生产级的视觉效果。",
"HelloMeme.description": "HelloMeme 是一款 AI 工具,可根据用户提供的图像或动作生成表情包、GIF 或短视频。无需绘画或编程技能,仅需参考图像即可生成有趣、吸引人且风格统一的内容。",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter 是腾讯 AI 于 2025 年发布的免调优个性化角色生成模型,致力于高保真、跨场景一致的角色生成。可通过单张参考图像建模角色,并灵活迁移至不同风格、动作和背景。",
"InternVL2-8B.description": "InternVL2-8B 是一款强大的视觉语言模型,支持多模态图文处理,能够准确识别图像内容并生成相关描述或答案。",
"InternVL2.5-26B.description": "InternVL2.5-26B 是一款强大的视觉语言模型,支持多模态图文处理,能够准确识别图像内容并生成相关描述或答案。",
+ "KAT-Coder-Air-V1.description": "KAT-Coder 系列中的轻量化版本,专为 Agentic Coding 设计,全面覆盖各类编程任务与场景。通过大规模基于智能体的强化学习,实现智能行为涌现,在编码性能上显著优于同类模型。",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B 是 KAT-Coder 系列的强化学习创新实验版本,在 SWE-Bench verified 基准上取得 74.6% 的卓越成绩,刷新开源模型记录。该模型专注于 Agentic Coding,目前仅支持 SWE-Agent 框架,但也可用于简单对话。",
+ "KAT-Coder-Pro-V1.description": "专为 Agentic Coding 打造,全面覆盖编程任务与应用场景。通过大规模强化学习实现智能行为涌现,在代码生成性能上显著优于同类模型。",
+ "KAT-Coder-Pro-V2.description": "来自快手 Kwaipilot 团队的最新高性能模型,面向复杂企业级项目与 SaaS 集成。它在代码相关场景中表现出色,兼容多类智能体框架(Claude Code、OpenCode、KiloCode),原生支持 OpenClaw,并对前端页面美学进行了专门优化。",
+ "Kimi-K2.5.description": "Kimi K2.5 是目前最强大的 Kimi 模型,在智能体任务、编码与视觉理解方面达成开源 SOTA。支持多模态输入,并提供思维模式与非思维模式两种运行方式。",
"Kolors.description": "Kolors 是快手 Kolors 团队开发的文本生成图像模型。拥有数十亿参数,在视觉质量、中文语义理解和文本渲染方面具有显著优势。",
"Kwai-Kolors/Kolors.description": "Kolors 是快手 Kolors 团队推出的大规模潜变量扩散文本生成图像模型。基于数十亿图文对训练,在视觉质量、复杂语义准确性以及中英文文本渲染方面表现出色,具备强大的中文内容理解与生成能力。",
"Kwaipilot/KAT-Dev.description": "KAT-Dev(32B)是一个面向软件工程任务的开源 32B 模型。在 SWE-Bench Verified 上达到 62.4% 的解决率,在开源模型中排名第五。通过中间训练、SFT 和 RL 优化,适用于代码补全、Bug 修复和代码审查。",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "前沿的小型语言模型,具备出色的语言理解、推理能力和文本生成能力。",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先进的多语言开源 Llama 模型,在极低成本下实现接近 405B 的性能。基于 Transformer 架构,并通过 SFT 和 RLHF 提升实用性与安全性。指令微调版本专为多语言对话优化,在行业基准测试中超越众多开放与闭源聊天模型。知识截止时间:2023 年 12 月。",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,采用高效专家激活机制,具备强大的推理能力。",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro 专为真实世界中的高强度智能体工作流设计。其总参数量超过 1 万亿(激活参数 42B),采用创新的混合注意力架构,支持超长上下文长度(最高 100 万 tokens)。基于强大的基础模型,我们持续在更广泛的智能体场景中扩展算力,进一步拓展智能的行动空间,在从编码到真实任务执行(“钳爪”)等方面实现显著泛化。",
"MiniMax-Hailuo-02.description": "下一代视频生成模型MiniMax Hailuo 02正式发布,支持1080P分辨率和10秒视频生成。",
"MiniMax-Hailuo-2.3-Fast.description": "全新视频生成模型,在身体动作、物理真实感和指令遵循性方面全面升级。",
"MiniMax-Hailuo-2.3.description": "全新视频生成模型,在身体动作、物理真实感和指令遵循性方面全面升级。",
"MiniMax-M1.description": "一款全新自研推理模型,支持 80K 思维链和 100 万输入,性能媲美全球顶尖模型。",
"MiniMax-M2-Stable.description": "专为高效编程与智能体工作流打造,具备更高并发能力,适用于商业场景。",
- "MiniMax-M2.1-Lightning.description": "强大的多语言编程能力,推理速度更快、更高效。",
"MiniMax-M2.1-highspeed.description": "强大的多语言编程能力,全面升级的编程体验。更快、更高效。",
"MiniMax-M2.1.description": "MiniMax-M2.1 是 MiniMax 推出的旗舰开源大模型,专注于解决复杂的现实世界任务。其核心优势在于多语言编程能力以及作为智能体解决复杂任务的能力。",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed:与M2.5性能相同,但推理速度更快。",
"MiniMax-M2.5.description": "MiniMax-M2.5 是 MiniMax 推出的旗舰开源大模型,专注于解决复杂的现实世界任务。其核心优势在于多语言编程能力以及作为 Agent 解决复杂任务的能力。",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed:与M2.7性能相同,但推理速度显著提升。",
- "MiniMax-M2.7.description": "MiniMax M2.7:开启递归自我改进的旅程,具备顶级的真实工程能力。",
+ "MiniMax-M2.7.description": "首个具备自进化能力的模型,拥有顶尖的编码与智能体性能(约 60 tps)。",
"MiniMax-M2.description": "MiniMax M2:上一代模型。",
"MiniMax-Text-01.description": "MiniMax-01 引入超越传统 Transformer 的大规模线性注意力机制,拥有 4560 亿参数,每次激活 459 亿,支持最长 400 万上下文(为 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍),性能顶尖。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1是一款开源权重的大规模混合注意力推理模型,拥有4560亿总参数和约45.9亿每个token的活跃参数。它原生支持100万上下文,并通过Flash Attention在生成10万token时相比DeepSeek R1减少75%的FLOPs。采用MoE架构加上CISPO和混合注意力RL训练,在长输入推理和真实软件工程任务中实现领先性能。",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 是最新且最强大的 Kimi K2 模型。作为顶级 MoE 模型,拥有 1 万亿总参数和 320 亿激活参数。其主要特点包括更强的代理式编程智能,在基准测试和真实代理任务中取得显著提升,同时前端代码美观性和可用性也得到优化。",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo 是 K2 Thinking 的高性能变体,在保持多步骤推理和工具使用能力的同时,优化了推理速度和吞吐量。该模型为 MoE 架构,拥有约 1 万亿总参数,原生支持 256K 上下文,并在生产场景中具备稳定的大规模工具调用能力,满足更严格的延迟与并发需求。",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 是一款原生开源多模态智能体模型,基于 Kimi-K2-Base 构建,训练数据包含约 1.5 万亿视觉与文本混合标记。该模型采用 MoE 架构,总参数量达 1 万亿,活跃参数为 320 亿,支持 256K 上下文窗口,能够无缝融合视觉与语言理解能力。",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 是面向智能体工程打造的下一代旗舰模型,采用 754B 参数的 MoE 架构。其编程能力大幅提升,在 SWE-Bench Pro 上取得领先成绩,并在 NL2Repo、Terminal-Bench 2.0 等基准上显著优于前代。在长时间智能体任务中,它能更好地处理模糊问题、分解复杂任务、执行实验、分析结果,并通过数百轮迭代和数千次工具调用持续优化。",
"Pro/zai-org/glm-4.7.description": "GLM-4.7是智谱新一代旗舰模型,拥有3550亿总参数和320亿活跃参数,在通用对话、推理和代理能力方面全面升级。GLM-4.7增强了交替思维,并引入了保留思维和回合级思维。",
"Pro/zai-org/glm-5.description": "GLM-5 是智谱推出的下一代大语言模型,专注于复杂系统工程和长时段 Agent 任务。模型参数扩展至 7440 亿(活跃参数 400 亿),并集成了 DeepSeek 稀疏注意力。",
"QwQ-32B-Preview.description": "Qwen QwQ 是一个实验性研究模型,专注于提升推理能力。",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 通过 MoE 架构优化推理效率,专为高级推理与指令跟随任务设计。",
"Qwen3-235B.description": "Qwen3-235B-A22B 是一款 MoE 模型,引入混合推理模式,用户可在“思考”与“非思考”之间无缝切换。支持 119 种语言与方言的理解与推理,具备强大的工具调用能力,在通用能力、代码与数学、多语种能力及知识推理等多个基准测试中,与 DeepSeek R1、OpenAI o1、o3-mini、Grok 3 及 Google Gemini 2.5 Pro 等主流模型展开竞争。",
"Qwen3-32B.description": "Qwen3-32B 是一款稠密模型,引入混合推理模式,用户可在“思考”与“非思考”之间切换。通过架构改进、数据增强与训练优化,其性能可与 Qwen2.5-72B 相媲美。",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus 支持文本、图像与视频输入,在纯文本任务上的表现可比肩 Qwen3 Max,且成本更低。其多模态能力相较 Qwen3 VL 系列有显著提升。",
"S2V-01.description": "01系列的基础参考转视频模型。",
"SenseChat-128K.description": "基于V4的128K上下文模型,擅长长文本理解与生成。",
"SenseChat-32K.description": "基于V4的32K上下文模型,适用于多种场景,灵活高效。",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5是Anthropic最快且最智能的Haiku模型,具有闪电般的速度和扩展的思维能力。",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 速度最快、最聪明的 Haiku 模型,具有极高响应速度与增强的推理能力。",
"claude-haiku-4.5.description": "Claude Haiku 4.5 是 Anthropic 最快速、最智能的 Haiku 模型,具有闪电般的速度和扩展的推理能力。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1是Anthropic最新且最强大的模型,擅长处理高度复杂的任务,表现出卓越的性能、智能、流畅性和理解力。",
- "claude-opus-4-20250514.description": "Claude Opus 4是Anthropic最强大的模型,擅长处理高度复杂的任务,表现出卓越的性能、智能、流畅性和理解力。",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型之一,在高复杂度任务中表现卓越,具备顶级的性能、智能、流畅度与理解能力。",
+ "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型之一,专为处理高度复杂的任务而设计,具备卓越的性能、智能、流畅度与理解力。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
- "claude-opus-4-6.description": "Claude Opus 4.6是Anthropic最智能的模型,适用于构建代理和编程。",
+ "claude-opus-4-6.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,专为构建智能体与代码相关任务打造。",
"claude-opus-4.5.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合了顶级智能和可扩展性能,适用于复杂的高质量推理任务。",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,用于构建代理和编程。",
"claude-opus-4.6.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,用于构建代理和编程。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4是Anthropic迄今为止最智能的模型,提供接近即时的响应或逐步深入的思考,并为API用户提供精细控制。",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5是Anthropic迄今为止最智能的模型。",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6是Anthropic速度与智能的最佳结合。",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 可实现近乎即时的响应,或以可见推理过程的方式进行逐步思考。",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智能的 Sonnet 模型。",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 实现了速度与智能的最佳平衡。",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 是迄今为止 Anthropic 最智能的模型。",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 是速度与智能的最佳结合。",
"claude-sonnet-4.description": "Claude Sonnet 4 可以生成几乎即时的响应或分步骤的推理,用户可以实时查看。API 用户可以精细控制模型的思考时长。",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2是下一代推理模型,具备更强的复杂推理和链式思维能力。",
- "deepseek-chat.description": "DeepSeek V3.2在日常问答和代理任务中平衡了推理能力和输出长度。公共基准测试达到GPT-5水平,并首次将思维融入工具使用,在开源代理评估中领先。",
+ "deepseek-chat.description": "一款结合通用能力和编码能力的新开源模型。它保留了聊天模型的通用对话能力与编码模型的强大代码能力,并具备更好的偏好对齐。DeepSeek-V2.5 还在写作与指令遵循方面有进一步提升。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。",
"deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。",
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking是一个深度推理模型,在输出前生成思维链以提高准确性,在顶级竞赛中表现出色,推理能力可与Gemini-3.0-Pro媲美。",
+ "deepseek-reasoner.description": "DeepSeek V3.2 的思维模式会在最终回答前输出推理链,以提升准确性。",
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。",
"ernie-x1.1.description": "ERNIE X1.1是一个用于评估和测试的思维模型预览版。",
- "fal-ai/bytedance/seedream/v4.5.description": "由字节跳动Seed团队打造的Seedream 4.5支持多图像编辑和合成。具备增强的主体一致性、精确的指令遵循性、空间逻辑理解、美学表达、海报布局和高精度文本图像渲染。",
- "fal-ai/bytedance/seedream/v4.description": "由字节跳动Seed团队打造的Seedream 4.0支持文本和图像输入,可根据提示生成高度可控的高质量图像。",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 推出的图像生成模型,支持文本与图像输入,具备高度可控、高质量的图像生成能力,可根据文本提示生成图像。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。",
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
"fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。",
- "fal-ai/qwen-image-edit.description": "Qwen团队推出的专业图像编辑模型,支持语义和外观编辑、精确的中英文文本编辑、风格迁移、旋转等功能。",
- "fal-ai/qwen-image.description": "Qwen团队推出的强大图像生成模型,具有强大的中文文本渲染能力和多样化的视觉风格。",
+ "fal-ai/qwen-image-edit.description": "来自 Qwen 团队的专业图像编辑模型,支持语义与外观编辑,可精准编辑中英文文本,并支持风格迁移、物体旋转等高质量编辑。",
+ "fal-ai/qwen-image.description": "来自 Qwen 团队的高性能图像生成模型,具备出色的中文文字渲染能力与多样化视觉风格。",
"flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。",
- "flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。",
+ "flux-dev.description": "开源研发图像生成模型,专为非商业创新研究进行高效优化。",
"flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精准一致的结果。",
"flux-kontext-pro.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精准一致的结果。",
- "flux-merged.description": "FLUX.1 [merged] 将“DEV”中探索的深度特性与“Schnell”的高速优势相结合,扩展了性能极限并拓宽了应用范围。",
"flux-pro-1.1-ultra.description": "超高分辨率图像生成,支持 4MP 输出,10 秒内生成清晰图像。",
"flux-pro-1.1.description": "升级版专业图像生成模型,图像质量卓越,提示词遵循精准。",
"flux-pro.description": "顶级商业图像生成模型,图像质量无与伦比,输出多样丰富。",
- "flux-schnell.description": "FLUX.1 [schnell] 是最先进的开源少步图像生成模型,超越同类竞品,甚至优于 Midjourney v6.0 与 DALL·E 3(高清版)等强大非蒸馏模型。精调保留预训练多样性,显著提升视觉质量、指令遵循、尺寸/比例变化、字体处理与输出多样性。",
"flux.1-schnell.description": "FLUX.1-schnell 是一款高性能图像生成模型,支持快速多风格输出。",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001(调优版)为复杂任务提供稳定、可调性能。",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002(调优版)为复杂任务提供强大的多模态支持。",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。",
"gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度为核心的智能模型,融合前沿智能与卓越的搜索能力。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是谷歌的图像生成模型,同时支持多模态聊天。",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话能力。",
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最强大的智能体与编程模型,在最先进推理基础上提供更丰富的视觉效果与更深入的交互体验。",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)是 Google 最快的原生图像生成模型,支持思考、对话式图像生成和编辑。",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)以闪电般的速度提供专业级图像质量,并支持多模态聊天。",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)是 Google 速度最快的原生图像生成模型,支持思维模式,对话式图像生成与图像编辑。",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview是谷歌最具成本效益的多模态模型,专为高容量代理任务、翻译和数据处理优化。",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview在Gemini 3 Pro的基础上增强了推理能力,并增加了中等思维水平支持。",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
@@ -806,7 +812,6 @@
"jamba-large.description": "我们最强大、最先进的模型,专为复杂企业任务设计,性能卓越。",
"jamba-mini.description": "同类中效率最高的模型,在速度与质量之间实现平衡,占用资源更少。",
"jina-deepsearch-v1.description": "DeepSearch 结合了网页搜索、阅读与推理,适用于深入研究任务。它就像一个智能代理,接收你的研究任务后,进行多轮广泛搜索,最终才生成答案。整个过程包含持续的信息检索、逻辑推理和多角度问题解决,区别于仅依赖预训练数据的传统大模型或一次性检索的RAG系统。",
- "k2p5.description": "Kimi K2.5 是 Kimi 至今为止最为多功能的型号,采用原生多模态架构,支持视觉和文本输入,具备“思考”和“非思考”模式,并能够执行对话和代理任务。",
"kimi-k2-0711-preview.description": "kimi-k2 是一款具备强大编程与智能体能力的 MoE 基础模型(总参数量 1T,活跃参数 32B),在推理、编程、数学与智能体基准测试中超越主流开源模型。",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview 提供 256k 上下文窗口,具备更强的智能体编程能力、更优的前端代码质量与更好的上下文理解能力。",
"kimi-k2-instruct.description": "Kimi K2 Instruct 是 Kimi 官方推出的推理模型,支持长上下文,适用于代码、问答等任务。",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ 是 Qwen 系列中的推理模型。相比标准指令微调模型,具备更强的思维与推理能力,显著提升下游复杂任务表现。QwQ-32B 是一款中型推理模型,性能可媲美 DeepSeek-R1 和 o1-mini 等顶级模型。",
"qwq_32b.description": "Qwen 系列中的中型推理模型。相比标准指令微调模型,QwQ 的思维与推理能力显著提升下游复杂任务表现。",
"r1-1776.description": "R1-1776 是 DeepSeek R1 的后训练版本,旨在提供无审查、无偏见的真实信息。",
- "seedance-1-5-pro-251215.description": "字节跳动的Seedance 1.5 Pro支持文本转视频、图像转视频(首帧、首+尾帧)以及与画面同步的音频生成。",
- "seedream-5-0-260128.description": "字节跳动-Seedream-5.0-lite由BytePlus推出,具有网络检索增强生成功能,可实时获取信息,增强复杂提示解释能力,并改进参考一致性,适用于专业视觉创作。",
"solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日语增强版本,同时保持在英语和韩语中的高效强性能。",
"solar-mini.description": "Solar Mini 是一款紧凑型大语言模型,性能超越 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效的小体积解决方案。",
"solar-pro.description": "Solar Pro 是 Upstage 推出的高智能大语言模型,专注于单 GPU 上的指令跟随任务,IFEval 得分超过 80。目前支持英语,完整版本计划于 2024 年 11 月发布,届时将扩展语言支持并提升上下文长度。",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2是我们新推出的强大媒体生成模型,生成与音频同步的视频。可从自然语言或图像创建细节丰富、动态的视频片段。",
"spark-x.description": "X2能力概述:1. 引入通过`thinking`字段动态调整推理模式;2. 扩展上下文长度:64K输入tokens和128K输出tokens;3. 支持Function Call功能。",
"stable-diffusion-3-medium.description": "Stability AI 最新的文本生成图像模型。该版本显著提升图像质量、文本理解与风格多样性,能更准确地解析复杂自然语言提示并生成更精确多样的图像。",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo 通过对 stable-diffusion-3.5-large 应用对抗扩散蒸馏(ADD)技术,实现更快的生成速度。",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large 是一款拥有 8 亿参数的 MMDiT 文本生成图像模型,具备卓越的图像质量与提示对齐能力,支持百万像素图像,并可高效运行于消费级硬件。",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 基于 v1.2 检查点初始化,并在 512x512 分辨率下对 \"laion-aesthetics v2 5+\" 数据集进行 595k 步微调,通过减少 10% 文本条件依赖提升无分类器引导采样效果。",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo 专注于高质量图像生成,具备强大的细节渲染与场景还原能力。",
"stable-diffusion-xl-base-1.0.description": "Stability AI 开源的文本生成图像模型,具备行业领先的创意图像生成能力。具备强指令理解能力,支持反向提示定义,实现精确生成。",
- "stable-diffusion-xl.description": "stable-diffusion-xl 相较 v1.5 有重大改进,达到开源文本生成图像模型的顶级水平。改进包括 3 倍大的 UNet 主干网络、图像质量优化模块及更高效的训练技术。",
"step-1-128k.description": "在性能与成本之间取得平衡,适用于通用场景。",
"step-1-256k.description": "支持超长上下文,适合长文档分析。",
"step-1-32k.description": "支持中等长度对话,适用于多种场景。",
diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json
index e472eb6baa..2c7c459345 100644
--- a/locales/zh-CN/providers.json
+++ b/locales/zh-CN/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
"kimicodingplan.description": "Kimi Code Plan 由 Moonshot AI 提供,通过固定月费订阅方式访问 Kimi 模型(包括 K2.5)用于编程任务。",
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
- "lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来衡量使用情况。",
"longcat.description": "LongCat 是由美团自主研发的生成式 AI 大模型系列,旨在通过高效的计算架构和强大的多模态能力,提升企业内部工作效率并推动创新应用的发展。",
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
"minimaxcodingplan.description": "MiniMax Token Plan 提供对 MiniMax 模型(包括 M2.7)的访问,适用于编程任务,采用固定月费订阅模式。",
diff --git a/locales/zh-CN/subscription.json b/locales/zh-CN/subscription.json
index 68ff244123..b78179a316 100644
--- a/locales/zh-CN/subscription.json
+++ b/locales/zh-CN/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "升级至",
"credits.topUp.upgradeSuffix": "可节省 ${{savings}}",
"credits.topUp.validityInfo": "有效期 {{months}} 个月",
+ "crossPlatform.desc": "此订阅通过移动端应用购买,无法在此修改。请在移动设备上管理您的订阅。",
+ "crossPlatform.manageOnMobile": "前往移动端管理",
+ "crossPlatform.title": "跨平台订阅",
"currentPlan.cancelAlert": "订阅将于 {{canceledAt}} 后取消。您仍可在“管理订阅”中恢复。",
"currentPlan.downgradeAlert": "将于 {{downgradedAt}} 降级为 {{plan}}。",
"currentPlan.management": "管理订阅",
diff --git a/locales/zh-TW/agent.json b/locales/zh-TW/agent.json
index bb9e25b939..ab186fad88 100644
--- a/locales/zh-TW/agent.json
+++ b/locales/zh-TW/agent.json
@@ -22,6 +22,10 @@
"channel.connectSuccess": "機器人成功連線",
"channel.connecting": "正在連線...",
"channel.connectionConfig": "連接配置",
+ "channel.connectionMode": "連線模式",
+ "channel.connectionModeHint": "若為新機器人,建議使用 WebSocket。若您的機器人在 QQ 開放平台上已設定回呼網址,請使用 Webhook。",
+ "channel.connectionModeWebSocket": "WebSocket",
+ "channel.connectionModeWebhook": "Webhook",
"channel.copied": "已複製到剪貼簿",
"channel.copy": "複製",
"channel.credentials": "憑證",
@@ -57,6 +61,8 @@
"channel.endpointUrlHint": "請複製此 URL 並將其貼到 {{name}} 開發者平台中的 {{fieldName}} 欄位。",
"channel.exportConfig": "匯出設定",
"channel.feishu.description": "將此助手連接到飛書以進行私人和群組聊天。",
+ "channel.feishu.webhookMigrationDesc": "WebSocket 模式可即時傳遞事件,且無需公開的回呼網址。若要遷移,請在進階設定中將連線模式切換為 WebSocket,無須在飛書/Lark 開放平台進行額外設定。",
+ "channel.feishu.webhookMigrationTitle": "建議遷移至 WebSocket 模式",
"channel.historyLimit": "歷史訊息限制",
"channel.historyLimitHint": "讀取頻道歷史時預設抓取的訊息數量",
"channel.importConfig": "匯入設定",
@@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "交互驗證所需",
"channel.qq.appIdHint": "來自 QQ 開放平台的 QQ 機器人應用 ID",
"channel.qq.description": "將此助手連接到 QQ,以進行群組聊天和私人訊息。",
+ "channel.qq.webhookMigrationDesc": "WebSocket 模式可即時傳遞事件並自動重新連線,且無需設定回呼網址。若要遷移,請在 QQ 開放平台建立新的機器人且不設定回呼網址,然後在進階設定中將連線模式切換為 WebSocket。",
+ "channel.qq.webhookMigrationTitle": "建議遷移至 WebSocket 模式",
"channel.removeChannel": "移除頻道",
"channel.removeFailed": "移除頻道失敗",
"channel.removed": "頻道已移除",
@@ -93,7 +101,11 @@
"channel.signingSecret": "簽名密鑰",
"channel.signingSecretHint": "用於驗證 Webhook 請求。",
"channel.slack.appIdHint": "您的 Slack API 儀表板中的 Slack App ID(以 A 開頭)。",
+ "channel.slack.appToken": "應用程式層級權杖",
+ "channel.slack.appTokenHint": "Socket Mode(WebSocket)所需。請於 Slack 應用程式設定的基本資訊中產生應用程式層級權杖(xapp-...)。",
"channel.slack.description": "將此助手連接到 Slack,以進行頻道對話和私訊。",
+ "channel.slack.webhookMigrationDesc": "Socket Mode 可透過 WebSocket 即時傳遞事件,且無需公開 HTTP 端點。若要遷移,請在 Slack 應用程式設定中啟用 Socket Mode、產生應用程式層級權杖,然後在進階設定中將連線模式切換為 WebSocket。",
+ "channel.slack.webhookMigrationTitle": "建議遷移至 Socket Mode(WebSocket)",
"channel.telegram.description": "將此助手連接到 Telegram 以進行私人和群組聊天。",
"channel.testConnection": "測試連接",
"channel.testFailed": "連接測試失敗",
diff --git a/locales/zh-TW/chat.json b/locales/zh-TW/chat.json
index aef1f2a9c4..39ad6d91d5 100644
--- a/locales/zh-TW/chat.json
+++ b/locales/zh-TW/chat.json
@@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "群組刪除成功",
"confirmRemoveSessionItemAlert": "即將刪除該助手,刪除後將無法找回,請確認你的操作",
"confirmRemoveSessionSuccess": "助手刪除成功",
+ "createModal.createBlank": "建立空白",
+ "createModal.groupPlaceholder": "描述此群組應執行的任務…",
+ "createModal.groupTitle": "您的群組應該做什麼?",
+ "createModal.placeholder": "描述您的代理人應該執行的任務…",
+ "createModal.title": "您的代理人應該做什麼?",
"defaultAgent": "自定義助手",
"defaultGroupChat": "群組",
"defaultList": "預設清單",
@@ -229,6 +234,7 @@
"operation.contextCompression": "內容過長,正在壓縮歷史記錄⋯⋯",
"operation.execAgentRuntime": "正在準備回應",
"operation.execClientTask": "執行任務中",
+ "operation.execServerAgentRuntime": "執行中… 您可以切換任務或關閉頁面,任務將持續進行。",
"operation.sendMessage": "正在傳送訊息",
"owner": "群組擁有者",
"pageCopilot.title": "文稿助手",
@@ -382,6 +388,7 @@
"task.status.fetchingDetails": "正在擷取詳細資料...",
"task.status.initializing": "任務啟動中...",
"task.subtask": "子任務",
+ "task.title": "任務",
"thread.divider": "子話題",
"thread.threadMessageCount": "{{messageCount}} 條消息",
"thread.title": "子話題",
@@ -429,9 +436,11 @@
"toolAuth.title": "請為助手完成工具的授權",
"topic.checkOpenNewTopic": "是否開啟新主題?",
"topic.checkSaveCurrentMessages": "是否將當前對話保存為話題?",
+ "topic.defaultTitle": "未命名主題",
"topic.openNewTopic": "開啟新話題",
"topic.recent": "最近話題",
"topic.saveCurrentMessages": "將當前對話保存為話題",
+ "topic.viewAll": "查看所有主題",
"translate.action": "翻譯",
"translate.clear": "刪除翻譯",
"tts.action": "語音朗讀",
diff --git a/locales/zh-TW/common.json b/locales/zh-TW/common.json
index 393e30dd74..5e63b5ad7e 100644
--- a/locales/zh-TW/common.json
+++ b/locales/zh-TW/common.json
@@ -343,10 +343,19 @@
"mail.support": "郵件支持",
"more": "更多",
"navPanel.agent": "助理",
+ "navPanel.customizeSidebar": "自訂側邊欄",
"navPanel.displayItems": "顯示項目",
+ "navPanel.hidden": "已隱藏",
+ "navPanel.hideSection": "隱藏區塊",
"navPanel.library": "資料庫",
+ "navPanel.moveDown": "下移",
+ "navPanel.moveUp": "上移",
+ "navPanel.pinned": "已釘選",
"navPanel.searchAgent": "搜尋助手...",
+ "navPanel.searchRecent": "搜尋最近項目...",
"navPanel.searchResultEmpty": "暫無搜尋結果",
+ "navPanel.show": "顯示",
+ "navPanel.visible": "可見",
"new": "新增",
"noContent": "暫無內容",
"oauth": "單一登錄(SSO)",
@@ -362,6 +371,12 @@
"productHunt.actionLabel": "支持我們",
"productHunt.description": "在 Product Hunt 上支持我們。您的支持對我們意義重大!",
"productHunt.title": "我們上架 Product Hunt 了!",
+ "promptTransform.action": "完善想法",
+ "promptTransform.actions.rewrite": "擴充細節",
+ "promptTransform.actions.translate": "翻譯",
+ "promptTransform.status.rewrite": "正在擴充細節...",
+ "promptTransform.status.translate": "正在翻譯...",
+ "recents": "最近項目",
"regenerate": "重新生成",
"releaseNotes": "版本詳細",
"rename": "重新命名",
@@ -400,6 +415,7 @@
"tab.audio": "音訊",
"tab.chat": "對話",
"tab.community": "社群",
+ "tab.create": "建立",
"tab.discover": "發現",
"tab.eval": "評估實驗室",
"tab.files": "檔案",
diff --git a/locales/zh-TW/image.json b/locales/zh-TW/image.json
index 134b6e9fee..2b9af65830 100644
--- a/locales/zh-TW/image.json
+++ b/locales/zh-TW/image.json
@@ -12,6 +12,7 @@
"config.model.label": "模型",
"config.prompt.placeholder": "描述你想要生成的內容",
"config.prompt.placeholderWithRef": "描述您希望如何調整圖片",
+ "config.promptExtend.label": "提示延伸",
"config.quality.label": "圖片品質",
"config.quality.options.hd": "高清",
"config.quality.options.standard": "標準",
@@ -24,6 +25,8 @@
"config.size.label": "尺寸",
"config.steps.label": "步數",
"config.title": "設定",
+ "config.watermark.label": "浮水印",
+ "config.webSearch.label": "網路搜尋",
"config.width.label": "寬度",
"generation.actions.applySeed": "應用種子",
"generation.actions.copyError": "複製錯誤訊息",
diff --git a/locales/zh-TW/labs.json b/locales/zh-TW/labs.json
index 5646982546..a305348012 100644
--- a/locales/zh-TW/labs.json
+++ b/locales/zh-TW/labs.json
@@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "將助手訊息及其工具調用結果彙整成群組顯示",
"features.assistantMessageGroup.title": "助手訊息彙整群組",
+ "features.gatewayMode.desc": "透過 Gateway WebSocket 在伺服器端執行代理任務,而非在本機運行。可加快執行速度並降低用戶端資源使用。",
+ "features.gatewayMode.title": "伺服器端代理執行(Gateway)",
"features.groupChat.desc": "啟用多智能體群組聊天編排功能。",
"features.groupChat.title": "群組聊天(多智能體)",
"features.inputMarkdown.desc": "在輸入區即時渲染 Markdown(粗體、程式碼區塊、表格等)。",
diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json
index b3696bd82e..2218efa06b 100644
--- a/locales/zh-TW/models.json
+++ b/locales/zh-TW/models.json
@@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "中國表現最強的模型之一,在知識問答、長文本處理與創意生成等中文任務上超越多個海外主流模型。具備業界領先的多模態能力,在權威基準測試中表現優異。",
"Baichuan4.description": "國內頂尖表現,在百科知識、長文本處理與創意生成等中文任務上超越主流海外模型。亦具備業界領先的多模態能力與強勁的基準測試成績。",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS 是字節跳動 Seed 團隊推出的開源 LLM 系列,具備強大的長上下文處理、推理、代理與通用能力。Seed-OSS-36B-Instruct 是一款 360 億參數的指令微調模型,原生支援超長上下文,適用於處理大型文件或程式碼庫。針對推理、程式碼生成與代理任務(工具使用)進行優化,同時保有強大的通用能力。其關鍵特性為「思考預算」,可靈活調整推理長度以提升效率。",
+ "DeepSeek-OCR.description": "DeepSeek-OCR 是 DeepSeek AI 推出的視覺語言模型,專注於 OCR 與「脈絡光學壓縮」。其核心在於從影像中壓縮脈絡、有效處理文件,並將其轉換為結構化文字(如 Markdown)。能精準辨識影像文字,適用於文件數位化、文字擷取與結構化處理。",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1 是 DeepSeek 系列中更大更智慧的模型,已蒸餾至 Llama 70B 架構。基準測試與人工評估顯示其在數學與事實精確任務上優於原始 Llama 70B。",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "基於 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸餾模型。透過強化學習與冷啟動資料優化推理表現,為開源模型樹立多任務新基準。",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill 模型是從開源模型出發,使用 DeepSeek-R1 生成的樣本資料進行微調。",
@@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "提供者:sophnet。DeepSeek V3 Fast 是 DeepSeek V3 0324 的高 TPS 版本,為全精度(非量化)模型,具備更強的程式碼與數學能力,回應速度更快。",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast 是 DeepSeek V3.1 的高 TPS 快速版本。混合思維模式:透過對話模板,一個模型支援思考與非思考模式。工具使用更智慧:後訓練提升工具與代理任務表現。",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 思考模式:新型混合推理模型,具備思考與非思考模式,效率優於 DeepSeek-R1-0528。後訓練優化顯著提升代理工具使用與任務表現。",
+ "DeepSeek-V3.2.description": "deepseek-v3.2 採用稀疏注意力機制,旨在提升處理長文本時的訓練與推理效率,成本低於 deepseek-v3.1。",
"DeepSeek-V3.description": "DeepSeek-V3 是 DeepSeek 開發的 MoE 模型,在多項基準測試中超越 Qwen2.5-72B 與 Llama-3.1-405B 等開源模型,並與 GPT-4o、Claude 3.5 Sonnet 等主流封閉模型競爭。",
"Doubao-lite-128k.description": "Doubao-lite 提供超快速回應與更高性價比,適用於多種場景,支援 128K 上下文推理與微調。",
"Doubao-lite-32k.description": "Doubao-lite 提供超快速回應與更高性價比,適用於多種場景,支援 32K 上下文推理與微調。",
@@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5:高性能模型,用於推理、編程和代理任務。",
"GLM-4.6.description": "GLM-4.6:上一代模型。",
"GLM-4.7.description": "GLM-4.7 是智譜最新的旗艦模型,針對代理編程場景進行增強,具備改進的編程能力、長期任務規劃和工具協作能力。",
- "GLM-5-Turbo.description": "GLM-5-Turbo:GLM-5 的優化版本,針對編程任務提供更快的推理速度。",
+ "GLM-5-Turbo.description": "GLM-5-Turbo 是針對智能體情境深度優化的基礎模型,自訓練階段便面向智能體任務需求調校,加強工具調用、指令跟隨與長鏈執行等能力,是打造高效能智能體助手的理想選擇。",
"GLM-5.1.description": "GLM-5.1 是智譜最新的旗艦模型,是 GLM-5 的增強版,具備更強的代理工程能力,能應對複雜系統工程和長期任務。",
- "GLM-5.description": "GLM-5 是智譜的下一代旗艦基礎模型,專為代理工程設計。它在複雜系統工程和長期代理任務中提供可靠的生產力。在編程和代理能力方面,GLM-5 在開源模型中達到最先進的性能。",
+ "GLM-5.description": "GLM-5 是智譜推出的下一代旗艦級基礎模型,專為 Agentic Engineering 打造,能在複雜系統工程與長時序智能體任務中提供可靠效能。在程式能力與智能體表現上位居開源模型最前列,於真實編程情境中的體驗接近 Claude Opus 4.5。其擅長複雜系統工程與長鏈任務,是通用型智能體助手的理想基礎模型。",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2(13B)是一款創新模型,適用於多領域與複雜任務。",
"HY-Image-V3.0.description": "強大的原始影像特徵提取與細節保留能力,呈現更豐富的視覺紋理,生成高精度、構圖優良、達到生產級別的視覺效果。",
"HelloMeme.description": "HelloMeme 是一款 AI 工具,可根據您提供的圖像或動作生成迷因、GIF 或短影片。無需繪圖或程式設計技能,只需一張參考圖像,即可創作出有趣、吸睛且風格一致的內容。",
@@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter 是騰訊 AI 於 2025 年推出的免微調個人化角色生成模型,致力於高保真、跨場景一致的角色建模。它可從單張參考圖像建構角色,並靈活轉換風格、動作與背景。",
"InternVL2-8B.description": "InternVL2-8B 是一款強大的視覺語言模型,支援多模態圖文處理,能準確識別圖像內容並生成相關描述或回答。",
"InternVL2.5-26B.description": "InternVL2.5-26B 是一款強大的視覺語言模型,支援多模態圖文處理,能準確識別圖像內容並生成相關描述或回答。",
+ "KAT-Coder-Air-V1.description": "KAT-Coder 系列中的輕量版,專為 Agentic Coding 設計,完整覆蓋多樣程式開發任務與情境。藉由大規模基於智能體的強化學習,實現智能行為的湧現,程式效能大幅超越同級模型。",
+ "KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B 是 KAT-Coder 系列中專注 RL 創新的實驗版本,在 SWE-Bench verified 基準上達成 74.6% 的亮眼成績,刷新開源模型紀錄。其專注於 Agentic Coding,目前僅支援 SWE-Agent scaffold,也可用於簡易對話。",
+ "KAT-Coder-Pro-V1.description": "專為 Agentic Coding 設計,全面覆蓋各類程式開發任務與情境,透過大規模強化學習達成智能行為湧現,在程式生成效能上遠超同級模型。",
+ "KAT-Coder-Pro-V2.description": "由快手 Kwaipilot 團隊打造的全新高效能模型,面向複雜企業專案與 SaaS 整合。其在程式相關場景中表現卓越,兼容各類型智能體框架(Claude Code、OpenCode、KiloCode),原生支援 OpenClaw,並針對前端頁面美學進行特殊優化。",
+ "Kimi-K2.5.description": "Kimi K2.5 是最強大的 Kimi 模型,在智能體任務、編碼與視覺理解上達到開源 SOTA。支援多模態輸入,並具備思考模式與非思考模式。",
"Kolors.description": "Kolors 是由快手 Kolors 團隊開發的文字轉圖像模型。該模型擁有數十億參數,在視覺品質、中文語義理解與文字渲染方面具有顯著優勢。",
"Kwai-Kolors/Kolors.description": "Kolors 是快手 Kolors 團隊推出的大型潛變分布式文字轉圖像模型。訓練資料涵蓋數十億組圖文對,在視覺品質、複雜語義準確性與中英文文字渲染方面表現出色,具備強大的中文內容理解與生成能力。",
"Kwaipilot/KAT-Dev.description": "KAT-Dev(32B)是開源的 32B 軟體工程任務模型,在 SWE-Bench Verified 測試中達到 62.4% 解題率,於開源模型中排名第五。透過中期訓練、SFT 與強化學習優化,支援程式補全、錯誤修復與程式碼審查。",
@@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "前沿的小型語言模型,具備強大的語言理解、優異的推理與文字生成能力。",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本實現接近 405B 的效能。基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。指令微調版本針對多語言對話進行優化,在多項業界基準測試中超越許多開源與封閉聊天模型。知識截止時間:2023 年 12 月。",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,具備高效專家啟用機制,展現強大的推理效能。",
+ "MiMo-V2-Pro.description": "MiMo-V2-Pro 專為真實場景中的高強度智能體工作流設計,總參數規模超過 1 兆(啟用參數 42B),採用創新的混合注意力架構,並支援高達 100 萬 token 的超長脈絡。基於強大的基礎模型,我們持續在更多智能體場景擴大計算規模,拓展智能行為空間,並在從編碼到實體任務執行(「claw」)的多領域展現卓越泛化能力。",
"MiniMax-Hailuo-02.description": "下一代影像生成模型MiniMax Hailuo 02正式發布,支持1080P解析度及10秒影像生成。",
"MiniMax-Hailuo-2.3-Fast.description": "全新影像生成模型,全面升級身體動作、物理真實性及指令遵循性。",
"MiniMax-Hailuo-2.3.description": "全新影像生成模型,全面升級身體動作、物理真實性及指令遵循性。",
"MiniMax-M1.description": "一款內部開發的推理模型,具備 80K 思路鏈與 100 萬輸入,效能媲美全球頂尖模型。",
"MiniMax-M2-Stable.description": "專為高效編碼與代理流程設計,具備更高併發能力,適用於商業應用。",
- "MiniMax-M2.1-Lightning.description": "強大的多語言編程能力,推理速度更快、更高效。",
"MiniMax-M2.1-highspeed.description": "強大的多語言編程能力,全面升級的編程體驗。速度更快,效率更高。",
"MiniMax-M2.1.description": "MiniMax-M2.1 是 MiniMax 推出的旗艦開源大型模型,專注於解決複雜的真實世界任務。其核心優勢在於多語言程式設計能力與作為智能代理執行複雜任務的能力。",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 高速版:與 M2.5 性能相同,但推理速度更快。",
"MiniMax-M2.5.description": "MiniMax-M2.5 是 MiniMax 推出的旗艦開源大型模型,專注於解決複雜的現實世界任務。其核心優勢包括多語言編程能力以及作為代理解決複雜任務的能力。",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 高速版:與 M2.7 性能相同,但推理速度顯著提升。",
- "MiniMax-M2.7.description": "MiniMax M2.7:開啟遞歸自我改進之旅,具備頂級的實際工程能力。",
+ "MiniMax-M2.7.description": "首個具自我進化能力的模型,具備頂級編碼與智能體效能(約 60 tps)。",
"MiniMax-M2.description": "MiniMax M2:上一代模型。",
"MiniMax-Text-01.description": "MiniMax-01 採用超越傳統 Transformer 的大規模線性注意力機制,擁有 4560 億參數,每次啟用 459 億,支援最多 400 萬字元上下文(為 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍),效能頂尖。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 是一個開源權重的大規模混合注意力推理模型,擁有 4560 億總參數和每個 token 約 45.9 億活躍參數。它原生支持 100 萬上下文,並使用 Flash Attention 在 10 萬 token 生成時相比 DeepSeek R1 減少 75% 的 FLOPs。憑藉 MoE 架構加上 CISPO 和混合注意力 RL 訓練,它在長輸入推理和實際軟件工程任務中達到領先性能。",
@@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 是最新且最強大的 Kimi K2 模型。這是一款頂級的 MoE 模型,總參數達 1 兆,啟用參數為 320 億。其主要特點包括更強的代理式程式設計智能,在基準測試與真實世界代理任務中表現大幅提升,並且前端程式碼的美學與可用性也獲得顯著改善。",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo 是 K2 Thinking 的 Turbo 變體,針對推理速度與吞吐量進行優化,同時保留多步推理與工具使用能力。這是一款 MoE 模型,總參數約為 1 兆,原生支援 256K 上下文,並具備穩定的大規模工具調用能力,適用於對延遲與併發有嚴格要求的生產場景。",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 是一款原生開源多模態代理模型,基於 Kimi-K2-Base 架構,訓練資料包含約 1.5 兆視覺與文字混合標記。模型採用 MoE 架構,總參數量達 1 兆,啟用參數為 320 億,支援 256K 上下文視窗,實現視覺與語言理解的無縫整合。",
+ "Pro/zai-org/GLM-5.1.description": "GLM-5.1 是面向智能體工程的下一代旗艦模型,採用 754B 參數的 Mixture of Experts(MoE)架構,在編程能力上大幅提升,於 SWE-Bench Pro 取得領先成績,並在 NL2Repo、Terminal-Bench 2.0 等基準上顯著超越前代模型。面向長時序智能體任務,能以更佳判斷處理模糊問題、拆解複雜任務、執行實驗、分析結果,並透過數百輪推理與上千次工具調用持續優化。",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 是智譜的新一代旗艦模型,擁有 3550 億總參數和 320 億活躍參數,在通用對話、推理和代理能力方面全面升級。GLM-4.7 增強了交錯思維,並引入了保留思維和回合級思維。",
"Pro/zai-org/glm-5.description": "GLM-5 是智譜推出的下一代大型語言模型,專注於複雜系統工程和長時間代理任務。模型參數擴展至 7440 億(活躍參數 400 億),並整合 DeepSeek Sparse Attention。",
"QwQ-32B-Preview.description": "Qwen QwQ 是一個實驗性研究模型,專注於提升推理能力。",
@@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 針對高階推理與指令遵循進行最佳化,採用 MoE 架構以在大規模下保持推理效率。",
"Qwen3-235B.description": "Qwen3-235B-A22B 是一款 MoE 模型,導入混合推理模式,讓使用者能在思考與非思考之間無縫切換。它支援 119 種語言與方言的理解與推理,具備強大的工具調用能力,在通用能力、程式碼與數學、多語言能力與知識推理等基準測試中,與 DeepSeek R1、OpenAI o1、o3-mini、Grok 3 和 Google Gemini 2.5 Pro 等主流模型競爭。",
"Qwen3-32B.description": "Qwen3-32B 是一款密集模型,導入混合推理模式,讓使用者能在思考與非思考之間切換。透過架構改進、更多資料與更佳訓練,其表現與 Qwen2.5-72B 相當。",
+ "Qwen3.5-Plus.description": "Qwen3.5 Plus 支援文字、影像與影片輸入,在純文字任務上的效能接近 Qwen3 Max,但成本更低、表現更佳;多模態能力也較 Qwen3 VL 系列大幅提升。",
"S2V-01.description": "01系列的基礎參考影像生成模型。",
"SenseChat-128K.description": "Base V4,支援 128K 上下文,擅長長文本理解與生成。",
"SenseChat-32K.description": "Base V4,支援 32K 上下文,靈活應用於多種場景。",
@@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5是Anthropic最快且最智能的Haiku模型,具有閃電般的速度及延展性思維。",
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 速度最快、智慧度最高的 Haiku 模型,反應極速並具有增強推理能力。",
"claude-haiku-4.5.description": "Claude Haiku 4.5 是 Anthropic 最快速且最聰明的 Haiku 模型,具備閃電般的速度和延展的推理能力。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1是Anthropic最新且最強大的模型,擅長處理高度複雜的任務,表現卓越,智能、流暢及理解力出色。",
- "claude-opus-4-20250514.description": "Claude Opus 4是Anthropic最強大的模型,擅長處理高度複雜的任務,表現卓越,智能、流暢及理解力出色。",
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最強大的複雜任務模型,在效能、智能、流暢度與理解力上有卓越表現。",
+ "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的高複雜度任務模型,在效能、智能、流暢度與理解上均表現優異。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
- "claude-opus-4-6.description": "Claude Opus 4.6是Anthropic最智能的模型,用於構建代理及編程。",
+ "claude-opus-4-6.description": "Claude Opus 4.6 是 Anthropic 最智慧的模型,特別擅長建立智能體與程式開發。",
"claude-opus-4.5.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合頂級智慧與可擴展的性能,適用於複雜且高品質的推理任務。",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,用於構建代理和編碼。",
"claude-opus-4.6.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,用於構建代理和編碼。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4是Anthropic迄今最智能的模型,提供近乎即時的回應或細緻的逐步思考,為API用戶提供精細控制。",
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5是Anthropic迄今最智能的模型。",
- "claude-sonnet-4-6.description": "Claude Sonnet 4.6是Anthropic速度與智能的最佳結合。",
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 能提供近乎即時的回應,或進行可見思考過程的逐步推理。",
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的 Sonnet 系列模型。",
+ "claude-sonnet-4-6.description": "Claude Sonnet 4.6 提供速度與智慧的最佳平衡。",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 是 Anthropic 迄今為止最智能的模型。",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 是 Anthropic 在速度與智慧上的最佳結合。",
"claude-sonnet-4.description": "Claude Sonnet 4 能夠產生近乎即時的回應,或提供用戶可見的逐步推理。API 用戶可以精細控制模型的思考時間。",
@@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 是下一代推理模型,具備更強的複雜推理和連鎖思維能力。",
- "deepseek-chat.description": "DeepSeek V3.2在日常問答及代理任務中平衡推理及輸出長度。公共基準達到GPT-5水平,並首次將思考整合到工具使用中,領先開源代理評估。",
+ "deepseek-chat.description": "全新的開源模型,融合通用能力與程式能力。既保留聊天模型的通用對話能力,也具備程式模型的強大編碼能力,偏好對齊更佳。DeepSeek-V2.5 在寫作與指令跟隨方面也獲得提升。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
@@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking是一款深度推理模型,在輸出前生成思維鏈以提高準確性,競賽結果領先,推理能力可媲美Gemini-3.0-Pro。",
+ "deepseek-reasoner.description": "DeepSeek V3.2 思考模式會在最終答案前輸出推理鏈,以提升準確率。",
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
@@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
"ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
"ernie-x1.1.description": "ERNIE X1.1 是一個用於評估和測試的思考模型預覽版。",
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5由字節跳動Seed團隊打造,支持多影像編輯及合成。特性包括增強主題一致性、精確指令遵循、空間邏輯理解、美學表達、海報佈局及標誌設計,並具備高精度文字影像渲染。",
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0由字節跳動Seed團隊打造,支持文字及影像輸入,從提示生成高度可控、高質量影像。",
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字節跳動 Seed 推出的影像生成模型,支援文字與影像輸入,具備高度可控與高品質的影像生成能力,能根據文字提示生成圖片。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
@@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
"fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
- "fal-ai/qwen-image-edit.description": "Qwen團隊的專業影像編輯模型,支持語義及外觀編輯、精確的中英文文字編輯、風格轉換、旋轉等功能。",
- "fal-ai/qwen-image.description": "Qwen團隊的強大影像生成模型,具備強大的中文文字渲染及多樣化視覺風格。",
+ "fal-ai/qwen-image-edit.description": "由 Qwen 團隊打造的專業影像編輯模型,支援語義與外觀編輯,可精準處理中英文文字,並具備風格轉換、物體旋轉等高品質編輯能力。",
+ "fal-ai/qwen-image.description": "Qwen 團隊推出的強大影像生成模型,具備卓越中文文字渲染能力與多樣視覺風格。",
"flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。",
- "flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。",
+ "flux-dev.description": "開源研發導向的影像生成模型,針對非商業創新研究進行高效優化。",
"flux-kontext-max.description": "最先進的語境圖像生成與編輯技術,結合文字與圖像輸入,實現精準且一致的結果。",
"flux-kontext-pro.description": "最先進的語境圖像生成與編輯技術,結合文字與圖像輸入,實現精準且一致的結果。",
- "flux-merged.description": "FLUX.1 [merged] 結合了「DEV」中探索的深層特徵與「Schnell」的高速優勢,擴展了性能極限並拓寬了應用範圍。",
"flux-pro-1.1-ultra.description": "支援 4MP 輸出的超高解析度圖像生成,10 秒內產出清晰圖像。",
"flux-pro-1.1.description": "升級版專業級圖像生成模型,具備卓越圖像品質與精準提示遵循能力。",
"flux-pro.description": "頂級商業圖像生成模型,擁有無與倫比的圖像品質與多樣化輸出能力。",
- "flux-schnell.description": "FLUX.1 [schnell] 是最先進的開源少步驟模型,超越同類競品,甚至優於如 Midjourney v6.0 與 DALL-E 3(HD)等強大非蒸餾模型。其精細調校保留預訓練多樣性,顯著提升視覺品質、指令遵循、尺寸與比例變化、字體處理與輸出多樣性。",
"flux.1-schnell.description": "FLUX.1-schnell 是一款高效能圖像生成模型,支援快速多風格輸出。",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001(調校版)在處理複雜任務時提供穩定且可調整的效能。",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002(調校版)在處理複雜任務時提供強大的多模態支援。",
@@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗艦推理模型,支援長上下文,適用於處理複雜任務。",
"gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度為核心的智慧模型,結合尖端智能與卓越的搜尋基礎能力。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) 是 Google 的影像生成模型,亦支持多模態對話。",
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是Google的影像生成模型,並支持多模態聊天。",
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的影像生成模型,亦支援多模態對話。",
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最強大的智能代理與情境編碼模型,具備頂尖推理能力、豐富視覺表現與深度互動。",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) 是 Google 最快的原生影像生成模型,支持思考、對話式影像生成與編輯。",
- "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)以閃電速度提供專業級影像質量,並支持多模態聊天。",
+ "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)是 Google 速度最快的原生影像生成模型,支援思考模式、對話式影像生成與編輯。",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview 是 Google 最具成本效益的多模態模型,專為高容量代理任務、翻譯和數據處理而優化。",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview 在 Gemini 3 Pro 的基礎上增強了推理能力,並新增了中等思考層級支持。",
"gemini-flash-latest.description": "Gemini Flash 最新版本",
@@ -806,7 +812,6 @@
"jamba-large.description": "我們最強大、最先進的模型,專為複雜企業任務設計,具備卓越效能。",
"jamba-mini.description": "同級中最具效率的模型,在速度與品質之間取得平衡,佔用資源更少。",
"jina-deepsearch-v1.description": "DeepSearch 結合網頁搜尋、閱讀與推理,進行深入調查。它如同一位代理人,接收你的研究任務後,進行多輪廣泛搜尋,最終才產出答案。整個過程包含持續研究、推理與多角度問題解決,與僅依賴預訓練資料的標準 LLM 或一次性檢索的傳統 RAG 系統截然不同。",
- "k2p5.description": "Kimi K2.5 是 Kimi 至今最具多功能性的模型,擁有原生多模態架構,支援視覺和文字輸入、「思考」與「非思考」模式,以及對話和代理任務。",
"kimi-k2-0711-preview.description": "kimi-k2 是一款具備強大程式編寫與智能代理能力的 MoE 基礎模型(總參數量達 1 兆,啟用參數為 320 億),在推理、程式設計、數學與代理任務的基準測試中表現優於其他主流開源模型。",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview 提供 256k 上下文視窗,具備更強的代理程式能力、更優質的前端程式碼品質,以及更佳的上下文理解能力。",
"kimi-k2-instruct.description": "Kimi K2 Instruct 是 Kimi 官方推出的推理模型,支援長上下文,適用於程式碼、問答等多種任務。",
@@ -1234,8 +1239,6 @@
"qwq.description": "QwQ 是 Qwen 系列中的推理模型。相較於標準指令微調模型,它具備更強的思考與推理能力,顯著提升下游任務表現,特別是在處理困難問題時。QwQ-32B 是中型推理模型,表現可媲美 DeepSeek-R1 與 o1-mini 等頂尖模型。",
"qwq_32b.description": "Qwen 系列中的中型推理模型。相較於標準指令微調模型,QwQ 的思考與推理能力顯著提升下游任務表現,特別是在處理困難問題時。",
"r1-1776.description": "R1-1776 是 DeepSeek R1 的後訓練版本,旨在提供未經審查、無偏見的事實資訊。",
- "seedance-1-5-pro-251215.description": "字節跳動的Seedance 1.5 Pro支持文字生成影像、影像生成影像(首影格、首+尾影格)及音頻生成並與影像同步。",
- "seedream-5-0-260128.description": "字節跳動-Seedream-5.0-lite由BytePlus推出,具備網絡檢索增強生成功能,用於實時信息、複雜提示解釋及改進參考一致性,適用於專業視覺創作。",
"solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日文強化版本,同時維持在英文與韓文上的高效能表現。",
"solar-mini.description": "Solar Mini 是一款緊湊型大型語言模型,效能超越 GPT-3.5,具備強大的多語言能力,支援英文與韓文,提供高效能且佔用資源小的解決方案。",
"solar-pro.description": "Solar Pro 是 Upstage 推出的高智慧大型語言模型,專注於單 GPU 上的指令遵循任務,IFEval 分數超過 80。目前支援英文,完整版本預計於 2024 年 11 月推出,將擴展語言支援與上下文長度。",
@@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2是我們的新型強大媒體生成模型,生成與音頻同步的影像。能從自然語言或影像創建細緻且動態的片段。",
"spark-x.description": "X2 功能概覽:1. 引入推理模式的動態調整,可通過 `thinking` 字段控制。2. 擴展上下文長度:64K 輸入 tokens 和 128K 輸出 tokens。3. 支持 Function Call 功能。",
"stable-diffusion-3-medium.description": "Stability AI 最新的文字轉圖像模型。本版本大幅提升圖像品質、文字理解與風格多樣性,能更準確地解析複雜自然語言提示並生成精緻多樣的圖像。",
- "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo 將對抗擴散蒸餾(ADD)應用於 stable-diffusion-3.5-large,以提升生成速度。",
- "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large 是一款擁有 8 億參數的 MMDiT 文字轉圖像模型,具備優異的圖像品質與提示對齊能力,支援 1 百萬像素圖像,並可高效運行於消費級硬體。",
- "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 基於 v1.2 檢查點初始化,並在 \"laion-aesthetics v2 5+\" 數據集上以 512x512 解析度進行 595k 步微調,將文字條件影響降低 10%,以提升無分類器引導取樣效果。",
+ "stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo 專注於高品質影像生成,具備強大的細節呈現與場景還原能力。",
"stable-diffusion-xl-base-1.0.description": "Stability AI 推出的開源文字轉圖像模型,具備業界領先的創意圖像生成能力。其指令理解能力強,並支援反向提示定義以實現精準生成。",
- "stable-diffusion-xl.description": "stable-diffusion-xl 相較於 v1.5 有重大改進,並達到開源文字轉圖像模型的頂尖水準。改進包括 3 倍大的 UNet 主幹網路、提升圖像品質的精煉模組,以及更高效的訓練技術。",
"step-1-128k.description": "在效能與成本之間取得平衡,適用於一般場景。",
"step-1-256k.description": "支援超長上下文,適合長文檔分析。",
"step-1-32k.description": "支援中等長度對話,適用於多種場景。",
diff --git a/locales/zh-TW/plugin.json b/locales/zh-TW/plugin.json
index e5a080f9c8..bba2577156 100644
--- a/locales/zh-TW/plugin.json
+++ b/locales/zh-TW/plugin.json
@@ -2,6 +2,7 @@
"arguments.moreParams": "總共有 {{count}} 個參數",
"arguments.title": "參數清單",
"builtins.lobe-activator.apiName.activateTools": "啟用工具",
+ "builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} 未找到",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "取得可用模型",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "取得可用工具",
"builtins.lobe-agent-builder.apiName.getConfig": "取得設定",
diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json
index 5354ec742f..4b06e0e1c4 100644
--- a/locales/zh-TW/providers.json
+++ b/locales/zh-TW/providers.json
@@ -33,7 +33,6 @@
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
"kimicodingplan.description": "來自 Moonshot AI 的 Kimi Code 提供對 Kimi 模型(包括 K2.5)的訪問,用於編碼任務。",
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
- "lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並透過與模型代幣相關的點數來計算使用量。",
"longcat.description": "LongCat 是美團自主研發的一系列生成式 AI 大模型。其設計旨在通過高效的計算架構和強大的多模態能力,提升企業內部生產力並實現創新應用。",
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
"minimaxcodingplan.description": "MiniMax 代幣計劃通過固定費用訂閱提供對 MiniMax 模型(包括 M2.7)的訪問,用於編碼任務。",
@@ -60,6 +59,7 @@
"spark.description": "科大訊飛星火提供強大的多語言 AI 能力,推動智慧硬體、醫療、金融等垂直領域的創新。",
"stepfun.description": "Stepfun 模型具備領先的多模態與複雜推理能力,支援長文本理解與強大的自主搜尋編排。",
"straico.description": "Straico 簡化了 AI 的整合,提供一個統一的工作空間,將頂尖的文字、圖像和音頻生成 AI 模型匯聚一處,為行銷人員、企業家和愛好者提供便捷的多元 AI 工具使用體驗。",
+ "streamlake.description": "StreamLake 是一個企業級的模型服務與 AI 運算雲端平台,整合高效能模型推論、低成本模型客製化與全代管服務,協助企業專注於 AI 應用創新,而無需擔心底層運算資源的複雜性與成本。",
"taichu.description": "太初是中科院自動化所與武漢人工智慧研究院推出的新一代多模態模型,支援多輪問答、寫作、圖像生成、3D 理解與訊號分析,具備更強的認知與創造力。",
"tencentcloud.description": "騰訊雲 LLM 知識引擎原子能力為企業與開發者提供端到端的知識問答服務,包含文件解析、分段、嵌入與多輪重寫等模組化服務,打造客製化 AI 解決方案。",
"togetherai.description": "Together AI 提供領先效能的創新模型,支援廣泛自訂、快速擴展與簡易部署,滿足企業需求。",
diff --git a/locales/zh-TW/setting.json b/locales/zh-TW/setting.json
index edf86b093a..cca8262c03 100644
--- a/locales/zh-TW/setting.json
+++ b/locales/zh-TW/setting.json
@@ -673,14 +673,19 @@
"settingSystemTools.title": "系統工具",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - 快速的程式碼搜尋工具",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - 用於AI代理的無頭瀏覽器自動化命令行工具",
+ "settingSystemTools.tools.bun.desc": "Bun — 快速的 JavaScript 執行環境與套件管理器",
+ "settingSystemTools.tools.bunx.desc": "bunx — 用於執行 npm 套件的 Bun 套件執行工具",
"settingSystemTools.tools.fd.desc": "fd - 快速且使用者友善的 find 替代工具",
"settingSystemTools.tools.find.desc": "Unix find - 標準檔案搜尋指令",
"settingSystemTools.tools.grep.desc": "GNU grep - 標準文字搜尋工具",
+ "settingSystemTools.tools.lobehub.desc": "LobeHub CLI — 管理並連接至 LobeHub 服務",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight 搜尋(快速的索引搜尋)",
"settingSystemTools.tools.node.desc": "Node.js - 執行 JavaScript/TypeScript 的執行環境",
"settingSystemTools.tools.npm.desc": "npm - Node.js 套件管理器,用於安裝依賴",
+ "settingSystemTools.tools.pnpm.desc": "pnpm — 快速且節省磁碟空間的套件管理器",
"settingSystemTools.tools.python.desc": "Python - 程式語言執行環境",
"settingSystemTools.tools.rg.desc": "ripgrep - 極速的文字搜尋工具",
+ "settingSystemTools.tools.uv.desc": "uv — 極高速的 Python 套件管理器",
"settingTTS.openai.sttModel": "OpenAI 語音識別模型",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI 語音合成模型",
@@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "模型",
"systemAgent.inputCompletion.modelDesc": "用於輸入自動完成建議的模型(例如 GitHub Copilot 的幽靈文字)",
"systemAgent.inputCompletion.title": "輸入自動完成代理",
+ "systemAgent.promptRewrite.label": "模型",
+ "systemAgent.promptRewrite.modelDesc": "指定用於重寫提示詞的模型",
+ "systemAgent.promptRewrite.title": "提示詞重寫代理",
"systemAgent.queryRewrite.label": "模型",
"systemAgent.queryRewrite.modelDesc": "指定用於優化用戶提問的模型",
"systemAgent.queryRewrite.title": "資源庫提問重寫助手",
@@ -843,31 +851,83 @@
"tab.uploadZip.desc": "上傳本地 .zip 或 .skill 檔案",
"tab.usage": "使用量統計",
"tools.add": "整合外掛",
+ "tools.builtins.find-skills.description": "協助使用者在提出「我要怎麼做 X」、「找一個能做 X 的技能」或想擴充功能時,探索並安裝代理技能",
+ "tools.builtins.find-skills.title": "尋找技能",
"tools.builtins.groupName": "內置",
"tools.builtins.install": "安裝",
"tools.builtins.installed": "已安裝",
+ "tools.builtins.lobe-activator.description": "探索並啟用工具與技能",
+ "tools.builtins.lobe-activator.title": "工具與技能啟動器",
+ "tools.builtins.lobe-agent-browser.description": "用於 AI 代理的瀏覽器自動化 CLI。適用於涉及網站或 Electron 互動的任務,如導覽、表單填寫、點擊、螢幕截圖、資料擷取、登入流程與端到端應用測試。",
+ "tools.builtins.lobe-agent-browser.title": "代理瀏覽器",
+ "tools.builtins.lobe-agent-builder.description": "設定代理的中繼資料、模型參數、外掛與系統提示詞",
+ "tools.builtins.lobe-agent-builder.title": "代理建構器",
+ "tools.builtins.lobe-agent-documents.description": "管理代理範圍內的文件(列出、建立、閱讀、編輯、移除、重新命名)與載入規則",
+ "tools.builtins.lobe-agent-documents.title": "文件",
+ "tools.builtins.lobe-agent-management.description": "建立、管理並協調 AI 代理",
+ "tools.builtins.lobe-agent-management.title": "代理管理",
"tools.builtins.lobe-artifacts.description": "產生並即時預覽互動式 UI 元件、資料視覺化、圖表、SVG 圖形與網頁應用程式。建立使用者可直接互動的豐富視覺內容。",
"tools.builtins.lobe-artifacts.readme": "生成並即時預覽互動式 UI 元件、資料視覺化、圖表、SVG 圖形與網頁應用程式。創建使用者可直接互動的豐富視覺內容。",
"tools.builtins.lobe-artifacts.title": "視覺產物",
+ "tools.builtins.lobe-brief.description": "回報進度、提供結果並請求使用者決策",
+ "tools.builtins.lobe-brief.title": "簡報工具",
"tools.builtins.lobe-calculator.description": "執行數學計算、解方程式,並處理符號運算",
"tools.builtins.lobe-calculator.readme": "先進的數學計算器,支援基本算術、代數方程式、微積分運算和符號數學。包括進位制轉換、方程式求解、微分、積分等功能。",
"tools.builtins.lobe-calculator.title": "計算器",
"tools.builtins.lobe-cloud-sandbox.description": "在隔離的雲端環境中執行 Python、JavaScript 和 TypeScript 程式碼。可執行 shell 指令、管理檔案、使用正規表達式搜尋內容,並安全地匯出結果。",
"tools.builtins.lobe-cloud-sandbox.readme": "在隔離的雲端環境中執行 Python、JavaScript 和 TypeScript 程式碼。執行 Shell 指令、管理檔案、使用正規表示式搜尋內容,並安全地匯出結果。",
"tools.builtins.lobe-cloud-sandbox.title": "雲端沙盒",
+ "tools.builtins.lobe-creds.description": "管理使用者憑證以進行驗證、環境變數注入與 API 驗證 — 處理 API 金鑰、OAuth Token 與第三方整合所需的密鑰。",
+ "tools.builtins.lobe-creds.title": "憑證",
+ "tools.builtins.lobe-cron.description": "管理在特定時間自動執行的排程任務。可建立、更新、啟用/停用並監控代理的週期性任務。",
+ "tools.builtins.lobe-cron.title": "排程任務",
+ "tools.builtins.lobe-group-agent-builder.description": "設定多代理群組的中繼資料、成員與共享內容",
+ "tools.builtins.lobe-group-agent-builder.title": "群組代理建構器",
+ "tools.builtins.lobe-group-management.description": "協作並管理多代理的群組對話",
+ "tools.builtins.lobe-group-management.title": "群組管理",
"tools.builtins.lobe-gtd.description": "使用 GTD 方法規劃目標並追蹤進度。建立策略計畫、管理待辦清單並追蹤狀態,執行長時間的非同步任務。",
"tools.builtins.lobe-gtd.readme": "使用 GTD 方法規劃目標並追蹤進度。建立策略計畫、管理待辦清單並追蹤狀態,執行長時間的非同步任務。",
"tools.builtins.lobe-gtd.title": "GTD 工具",
+ "tools.builtins.lobe-knowledge-base.description": "透過語意向量搜尋檢索上傳文件與領域知識 — 適用於長期、可重複使用的參考內容",
+ "tools.builtins.lobe-knowledge-base.title": "知識庫",
"tools.builtins.lobe-local-system.description": "在桌面上存取本機檔案系統。可讀取、寫入、搜尋與整理檔案,並支援背景執行 shell 指令與使用正規表達式搜尋內容。",
"tools.builtins.lobe-local-system.readme": "在桌面上存取本地檔案系統。讀取、寫入、搜尋與整理檔案。支援背景任務執行 Shell 指令,並使用正規表示式搜尋內容。",
"tools.builtins.lobe-local-system.title": "本機系統",
+ "tools.builtins.lobe-message.description": "以統一介面在多個訊息平台之間傳送、閱讀、編輯與管理訊息",
+ "tools.builtins.lobe-message.readme": "跨平台訊息工具,支援 Discord、Telegram、Slack、Google Chat 與 IRC。提供統一 API 以進行訊息操作、反應、釘選、討論串、頻道管理,以及平台特定功能(例如投票)。",
+ "tools.builtins.lobe-message.title": "訊息",
"tools.builtins.lobe-notebook.description": "在對話主題中建立並管理持久性文件。儲存筆記、報告、文章與 Markdown 內容,並可跨會話存取。",
"tools.builtins.lobe-notebook.readme": "在對話主題中建立並管理持久性文件。儲存筆記、報告、文章與 Markdown 內容,並在多次對話中持續存取。",
"tools.builtins.lobe-notebook.title": "筆記本",
+ "tools.builtins.lobe-page-agent.description": "建立、讀取、更新與刪除 XML 結構文件中的節點",
+ "tools.builtins.lobe-page-agent.readme": "以精準的節點層級控制建立與編輯結構化文件。可從 Markdown 初始化,並執行批次插入 / 修改 / 移除操作,以及跨文件的搜尋取代。",
+ "tools.builtins.lobe-page-agent.title": "文件",
+ "tools.builtins.lobe-remote-device.description": "探索與管理遠端桌面裝置連線",
+ "tools.builtins.lobe-remote-device.readme": "管理與桌面裝置的連線。可列出線上裝置、啟用裝置以進行遠端操作並檢查連線狀態。",
+ "tools.builtins.lobe-remote-device.title": "遠端裝置",
+ "tools.builtins.lobe-skill-store.description": "從 LobeHub 市集瀏覽並安裝代理技能。適用於需要擴充功能或想安裝特定技能時。",
+ "tools.builtins.lobe-skill-store.title": "技能市集",
+ "tools.builtins.lobe-skills.description": "啟用並使用可重複利用的技能套件",
+ "tools.builtins.lobe-skills.title": "技能",
+ "tools.builtins.lobe-task.description": "建立、列出、編輯與刪除具有相依性與審查設定的任務",
+ "tools.builtins.lobe-task.title": "任務工具",
+ "tools.builtins.lobe-topic-reference.description": "從被引用的主題對話中擷取上下文",
+ "tools.builtins.lobe-topic-reference.title": "主題參考",
+ "tools.builtins.lobe-user-interaction.description": "透過 UI 互動向使用者提問並觀察其操作流程結果",
+ "tools.builtins.lobe-user-interaction.title": "使用者互動",
"tools.builtins.lobe-user-memory.description": "建立關於您的個人化知識庫。記住偏好設定、追蹤活動與經歷、儲存身份資訊,並在未來對話中回憶相關背景。",
"tools.builtins.lobe-user-memory.readme": "建立關於您的個人化知識庫。記住偏好、追蹤活動與經歷、儲存身份資訊,並在未來對話中回憶相關背景。",
"tools.builtins.lobe-user-memory.title": "記憶庫",
+ "tools.builtins.lobe-web-browsing.description": "搜尋網路上的最新資訊並爬取網頁以擷取內容。支援多種搜尋引擎、分類與時間範圍。",
+ "tools.builtins.lobe-web-browsing.readme": "搜尋網路上的最新資訊並爬取網頁以擷取內容。支援多種搜尋引擎、分類與時間範圍,適用於全面性的研究。",
+ "tools.builtins.lobe-web-browsing.title": "網頁瀏覽",
+ "tools.builtins.lobe-web-onboarding.description": "以受控代理執行環境引導網頁導覽流程",
+ "tools.builtins.lobe-web-onboarding.title": "網頁導覽",
+ "tools.builtins.lobehub.description": "透過 CLI 管理 LobeHub 平台 — 包含知識庫、記憶、代理、檔案、搜尋、生成等。",
+ "tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "未安裝",
+ "tools.builtins.task.description": "任務管理與執行 — 透過 CLI 建立、追蹤、審查與完成任務。",
+ "tools.builtins.task.title": "任務",
"tools.builtins.uninstall": "解除安裝",
"tools.builtins.uninstallConfirm.desc": "您確定要解除安裝 {{name}} 嗎?此技能將從目前的代理中移除。",
"tools.builtins.uninstallConfirm.title": "解除安裝 {{name}}",
@@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "要中斷與 {{name}} 的連線嗎?",
"tools.lobehubSkill.disconnected": "已中斷連線",
"tools.lobehubSkill.error": "錯誤",
+ "tools.lobehubSkill.providers.github.description": "GitHub 是用於版本控制與協作的平台,讓開發者能託管、審查並管理程式碼儲存庫。",
+ "tools.lobehubSkill.providers.github.readme": "連接至 GitHub,以存取你的儲存庫、建立與管理 issue、審查 pull request 並與他人協作撰寫程式碼——透過自然對話即可完成。",
"tools.lobehubSkill.providers.linear.description": "Linear 是一款現代化的問題追蹤與專案管理工具,專為高效能團隊打造,協助更快速地開發優質軟體",
"tools.lobehubSkill.providers.linear.readme": "將 Linear 的強大功能帶入您的 AI 助理。建立與更新問題、管理衝刺、追蹤專案進度,並透過自然語言對話簡化開發流程。",
"tools.lobehubSkill.providers.microsoft.description": "Outlook 行事曆是 Microsoft Outlook 中的整合排程工具,讓使用者能建立約會、安排會議並有效管理時間與事件。",
"tools.lobehubSkill.providers.microsoft.readme": "整合 Outlook 日曆以無縫檢視、建立與管理事件。排定會議、查看可用時段、設定提醒,並透過自然語言指令協調時間。",
"tools.lobehubSkill.providers.twitter.description": "X(原 Twitter)是一個社群媒體平台,透過貼文、回覆與私訊即時分享更新、新聞並與觀眾互動。",
"tools.lobehubSkill.providers.twitter.readme": "連接 X(Twitter)以發佈推文、管理時間軸並與觀眾互動。創作內容、排程貼文、監控提及,並透過對話式 AI 建立社群媒體影響力。",
+ "tools.lobehubSkill.providers.vercel.description": "Vercel 是專為前端開發者打造的雲平台,提供託管與無伺服器功能,讓網頁應用程式能輕鬆部署。",
+ "tools.lobehubSkill.providers.vercel.readme": "連接至 Vercel 以管理部署、監控專案狀態並控制基礎架構。可部署應用程式、查看建置記錄、管理環境變數並透過對話式 AI 擴展你的專案。",
"tools.notInstalled": "尚未安裝",
"tools.notInstalledWarning": "目前外掛尚未安裝,可能會影響助手使用",
"tools.plugins.enabled": "已啟用 {{num}}",
diff --git a/locales/zh-TW/subscription.json b/locales/zh-TW/subscription.json
index 79fd248ec6..c3aea62d1c 100644
--- a/locales/zh-TW/subscription.json
+++ b/locales/zh-TW/subscription.json
@@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "升級至",
"credits.topUp.upgradeSuffix": "可省下 ${{savings}}",
"credits.topUp.validityInfo": "有效期 {{months}} 個月",
+ "crossPlatform.desc": "此訂閱是通過行動應用程式購買的,無法在此修改。請在您的行動裝置上管理訂閱。",
+ "crossPlatform.manageOnMobile": "在行動裝置上管理",
+ "crossPlatform.title": "跨平台訂閱",
"currentPlan.cancelAlert": "訂閱將於 {{canceledAt}} 取消,您可在「管理訂閱」中恢復。",
"currentPlan.downgradeAlert": "將於 {{downgradedAt}} 降級為 {{plan}}。",
"currentPlan.management": "管理訂閱",
diff --git a/locales/zh-TW/video.json b/locales/zh-TW/video.json
index 04e7cfa71d..2477ef1eb9 100644
--- a/locales/zh-TW/video.json
+++ b/locales/zh-TW/video.json
@@ -8,11 +8,14 @@
"config.imageUrl.label": "起始畫面",
"config.prompt.placeholder": "描述您想要產生的影片",
"config.prompt.placeholderWithRef": "描述您想要生成圖像的場景",
+ "config.promptExtend.label": "提示延伸",
"config.referenceImage.label": "參考圖片",
"config.resolution.label": "解析度",
"config.seed.label": "種子",
"config.seed.random": "隨機",
"config.size.label": "尺寸",
+ "config.watermark.label": "浮水印",
+ "config.webSearch.label": "網路搜尋",
"generation.actions.copyError": "複製錯誤訊息",
"generation.actions.errorCopied": "錯誤訊息已複製到剪貼簿",
"generation.actions.errorCopyFailed": "複製錯誤訊息失敗",
diff --git a/package.json b/package.json
index 157ce5246b..ebf3cec34b 100644
--- a/package.json
+++ b/package.json
@@ -343,7 +343,7 @@
"langfuse": "^3.38.6",
"langfuse-core": "^3.38.6",
"lexical": "0.42.0",
- "lucide-react": "^0.577.0",
+ "lucide-react": "^1.8.0",
"mammoth": "^1.11.0",
"marked": "^17.0.1",
"mdast-util-to-markdown": "^2.1.2",
diff --git a/packages/context-engine/src/providers/BotPlatformContextInjector.ts b/packages/context-engine/src/providers/BotPlatformContextInjector.ts
index e45fa351f0..d17bbc0006 100644
--- a/packages/context-engine/src/providers/BotPlatformContextInjector.ts
+++ b/packages/context-engine/src/providers/BotPlatformContextInjector.ts
@@ -10,6 +10,7 @@ const log = debug('context-engine:provider:BotPlatformContextInjector');
export interface BotPlatformContext {
platformName: string;
supportsMarkdown: boolean;
+ warnings?: string[];
}
export interface BotPlatformContextInjectorConfig {
diff --git a/packages/context-engine/src/providers/DiscordContextProvider.ts b/packages/context-engine/src/providers/DiscordContextProvider.ts
index 07f7eb8754..404ba64e23 100644
--- a/packages/context-engine/src/providers/DiscordContextProvider.ts
+++ b/packages/context-engine/src/providers/DiscordContextProvider.ts
@@ -1,4 +1,4 @@
-import type { DiscordChannelInfo, DiscordGuildInfo } from '@lobechat/prompts';
+import type { DiscordChannelInfo, DiscordGuildInfo, DiscordThreadInfo } from '@lobechat/prompts';
import { formatDiscordContext } from '@lobechat/prompts';
import debug from 'debug';
@@ -10,6 +10,7 @@ const log = debug('context-engine:provider:DiscordContextProvider');
export interface DiscordContext {
channel?: DiscordChannelInfo;
guild?: DiscordGuildInfo;
+ thread?: DiscordThreadInfo;
}
export interface DiscordContextProviderConfig {
@@ -33,7 +34,7 @@ export class DiscordContextProvider extends BaseFirstUserContentProvider {
return null;
}
- const { guild, channel } = this.config.context;
+ const { guild, channel, thread } = this.config.context;
if (!guild && !channel) {
log('No guild or channel info, skipping');
return null;
@@ -41,6 +42,6 @@ export class DiscordContextProvider extends BaseFirstUserContentProvider {
log('Discord context prepared for injection');
- return formatDiscordContext({ channel, guild });
+ return formatDiscordContext({ channel, guild, thread });
}
}
diff --git a/packages/database/src/models/recent.ts b/packages/database/src/models/recent.ts
new file mode 100644
index 0000000000..05c4b64c32
--- /dev/null
+++ b/packages/database/src/models/recent.ts
@@ -0,0 +1,90 @@
+import { sql } from 'drizzle-orm';
+
+import { agents, documents, tasks, topics } from '../schemas';
+import type { LobeChatDatabase } from '../type';
+
+export interface RecentDbItem {
+ id: string;
+ metadata?: any;
+ routeGroupId: string | null;
+ routeId: string | null;
+ title: string;
+ type: 'topic' | 'document' | 'task';
+ updatedAt: Date;
+}
+
+export class RecentModel {
+ private userId: string;
+ private db: LobeChatDatabase;
+
+ constructor(db: LobeChatDatabase, userId: string) {
+ this.db = db;
+ this.userId = userId;
+ }
+
+ queryRecent = async (limit: number = 10): Promise => {
+ const query = sql`
+ SELECT * FROM (
+ SELECT
+ ${topics.id} as id,
+ COALESCE(${topics.title}, 'Untitled Topic') as title,
+ 'topic' as type,
+ ${topics.agentId} as route_id,
+ ${topics.groupId} as route_group_id,
+ ${topics.updatedAt} as updated_at,
+ ${topics.metadata} as metadata
+ FROM ${topics}
+ LEFT JOIN ${agents} ON ${topics.agentId} = ${agents.id}
+ WHERE ${topics.userId} = ${this.userId}
+ AND (
+ ${topics.groupId} IS NOT NULL
+ OR ${agents.slug} = 'inbox'
+ OR (${topics.groupId} IS NULL AND ${agents.virtual} != true)
+ )
+
+ UNION ALL
+
+ SELECT
+ ${documents.id} as id,
+ COALESCE(${documents.title}, ${documents.filename}, 'Untitled Document') as title,
+ 'document' as type,
+ NULL as route_id,
+ NULL as route_group_id,
+ ${documents.updatedAt} as updated_at,
+ NULL as metadata
+ FROM ${documents}
+ WHERE ${documents.userId} = ${this.userId}
+ AND ${documents.sourceType} != 'file'
+ AND ${documents.knowledgeBaseId} IS NULL
+ AND ${documents.fileType} != 'custom/folder'
+
+ UNION ALL
+
+ SELECT
+ ${tasks.id} as id,
+ COALESCE(${tasks.name}, ${tasks.instruction}, 'Untitled Task') as title,
+ 'task' as type,
+ ${tasks.assigneeAgentId} as route_id,
+ NULL as route_group_id,
+ ${tasks.updatedAt} as updated_at,
+ NULL as metadata
+ FROM ${tasks}
+ WHERE ${tasks.createdByUserId} = ${this.userId}
+ ) AS combined
+ ORDER BY updated_at DESC
+ LIMIT ${limit}
+ `;
+
+ const result = await this.db.execute(query);
+
+ return result.rows.map((row: any) => ({
+ id: row.id,
+ metadata: row.metadata ?? undefined,
+ routeGroupId: row.route_group_id,
+ routeId: row.route_id,
+ title: row.title,
+ type: row.type as RecentDbItem['type'],
+ updatedAt: new Date(row.updated_at),
+ }));
+ };
+}
diff --git a/packages/model-runtime/src/core/contextBuilders/anthropic.test.ts b/packages/model-runtime/src/core/contextBuilders/anthropic.test.ts
index ae6739aa93..6a6128e3bd 100644
--- a/packages/model-runtime/src/core/contextBuilders/anthropic.test.ts
+++ b/packages/model-runtime/src/core/contextBuilders/anthropic.test.ts
@@ -52,7 +52,57 @@ describe('anthropicHelpers', () => {
});
});
- it('should transform a regular image URL into an Anthropic.ImageBlockParam', async () => {
+ it('should use URL-based source for image URLs by default', async () => {
+ vi.mocked(parseDataUri).mockReturnValueOnce({
+ mimeType: 'image/png',
+ base64: null,
+ type: 'url',
+ });
+
+ const content = {
+ type: 'image_url',
+ image_url: { url: 'https://example.com/image.png' },
+ } as const;
+
+ const result = await buildAnthropicBlock(content);
+
+ expect(parseDataUri).toHaveBeenCalledWith(content.image_url.url);
+ expect(imageUrlToBase64).not.toHaveBeenCalled();
+ expect(result).toEqual({
+ source: {
+ type: 'url',
+ url: 'https://example.com/image.png',
+ },
+ type: 'image',
+ });
+ });
+
+ it('should use URL-based source for URLs without extension', async () => {
+ vi.mocked(parseDataUri).mockReturnValueOnce({
+ mimeType: null,
+ base64: null,
+ type: 'url',
+ });
+
+ const content = {
+ type: 'image_url',
+ image_url: { url: 'https://example.com/image' },
+ } as const;
+
+ const result = await buildAnthropicBlock(content);
+
+ expect(result).toEqual({
+ source: {
+ type: 'url',
+ url: 'https://example.com/image',
+ },
+ type: 'image',
+ });
+ });
+
+ it('should convert URL to base64 when LLM_VISION_IMAGE_USE_BASE64 is set', async () => {
+ process.env.LLM_VISION_IMAGE_USE_BASE64 = '1';
+
vi.mocked(parseDataUri).mockReturnValueOnce({
mimeType: 'image/png',
base64: null,
@@ -70,7 +120,6 @@ describe('anthropicHelpers', () => {
const result = await buildAnthropicBlock(content);
- expect(parseDataUri).toHaveBeenCalledWith(content.image_url.url);
expect(imageUrlToBase64).toHaveBeenCalledWith(content.image_url.url);
expect(result).toEqual({
source: {
@@ -80,34 +129,8 @@ describe('anthropicHelpers', () => {
},
type: 'image',
});
- });
- it('should use default media_type for URL images when mimeType is not provided', async () => {
- vi.mocked(parseDataUri).mockReturnValueOnce({
- mimeType: null,
- base64: null,
- type: 'url',
- });
- vi.mocked(imageUrlToBase64).mockResolvedValueOnce({
- base64: 'convertedBase64String',
- mimeType: 'image/png',
- });
-
- const content = {
- type: 'image_url',
- image_url: { url: 'https://example.com/image' },
- } as const;
-
- const result = await buildAnthropicBlock(content);
-
- expect(result).toEqual({
- source: {
- data: 'convertedBase64String',
- media_type: 'image/png',
- type: 'base64',
- },
- type: 'image',
- });
+ delete process.env.LLM_VISION_IMAGE_USE_BASE64;
});
it('should throw an error for invalid image URLs', async () => {
@@ -144,16 +167,12 @@ describe('anthropicHelpers', () => {
expect(result).toBeUndefined();
});
- it('should return undefined for unsupported SVG image (URL)', async () => {
+ it('should pass SVG URL through to Anthropic in URL mode', async () => {
vi.mocked(parseDataUri).mockReturnValueOnce({
mimeType: null,
base64: null,
type: 'url',
});
- vi.mocked(imageUrlToBase64).mockResolvedValueOnce({
- base64: 'PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==',
- mimeType: 'image/svg+xml',
- });
const content = {
type: 'image_url',
@@ -161,7 +180,14 @@ describe('anthropicHelpers', () => {
} as const;
const result = await buildAnthropicBlock(content);
- expect(result).toBeUndefined();
+ expect(imageUrlToBase64).not.toHaveBeenCalled();
+ expect(result).toEqual({
+ source: {
+ type: 'url',
+ url: 'https://example.com/image.svg',
+ },
+ type: 'image',
+ });
});
});
diff --git a/packages/model-runtime/src/core/contextBuilders/anthropic.ts b/packages/model-runtime/src/core/contextBuilders/anthropic.ts
index c1b8262a15..b326b24d2a 100644
--- a/packages/model-runtime/src/core/contextBuilders/anthropic.ts
+++ b/packages/model-runtime/src/core/contextBuilders/anthropic.ts
@@ -56,15 +56,28 @@ export const buildAnthropicBlock = async (
}
if (type === 'url') {
- const { base64, mimeType } = await imageUrlToBase64(content.image_url.url);
+ const shouldUseBase64 = process.env.LLM_VISION_IMAGE_USE_BASE64 === '1';
- if (!isImageTypeSupported(mimeType)) return undefined;
+ if (shouldUseBase64) {
+ const { base64, mimeType } = await imageUrlToBase64(content.image_url.url);
+ if (!isImageTypeSupported(mimeType)) return undefined;
+
+ return {
+ source: {
+ data: base64 as string,
+ media_type: mimeType as Anthropic.Base64ImageSource['media_type'],
+ type: 'base64',
+ },
+ type: 'image',
+ };
+ }
+
+ // Default: use URL-based source (more efficient, 20 MB limit vs 5 MB for base64)
return {
source: {
- data: base64 as string,
- media_type: mimeType as Anthropic.Base64ImageSource['media_type'],
- type: 'base64',
+ type: 'url' as const,
+ url: content.image_url.url,
},
type: 'image',
};
diff --git a/packages/prompts/src/prompts/botPlatformContext/index.ts b/packages/prompts/src/prompts/botPlatformContext/index.ts
index 85c5bf2a2e..7f41f4239e 100644
--- a/packages/prompts/src/prompts/botPlatformContext/index.ts
+++ b/packages/prompts/src/prompts/botPlatformContext/index.ts
@@ -1,6 +1,8 @@
export interface BotPlatformInfo {
platformName: string;
supportsMarkdown: boolean;
+ /** Non-fatal warnings from message processing (e.g. file too large, parse failure) */
+ warnings?: string[];
}
/**
@@ -12,6 +14,7 @@ export interface BotPlatformInfo {
export const formatBotPlatformContext = ({
platformName,
supportsMarkdown,
+ warnings,
}: BotPlatformInfo): string => {
const lines = [
``,
@@ -49,6 +52,25 @@ export const formatBotPlatformContext = ({
);
}
+ if (warnings && warnings.length > 0) {
+ // Sanitize warning text to prevent prompt injection via user-controlled content
+ // (e.g. filenames containing XML tags or special characters)
+ const sanitize = (text: string) =>
+ text.replaceAll(
+ /[<>&"']/g,
+ (ch) => ({ '<': '<', '>': '>', '&': '&', '"': '"', "'": ''' })[ch]!,
+ );
+
+ lines.push(
+ '',
+ '',
+ "The following issues occurred while processing the user's message.",
+ 'Briefly inform the user about these issues in your response:',
+ ...warnings.map((w) => `- ${sanitize(w)}`),
+ '',
+ );
+ }
+
lines.push('');
return lines.join('\n');
diff --git a/packages/prompts/src/prompts/discordContext/index.ts b/packages/prompts/src/prompts/discordContext/index.ts
index d121f247b9..ac3d74fb32 100644
--- a/packages/prompts/src/prompts/discordContext/index.ts
+++ b/packages/prompts/src/prompts/discordContext/index.ts
@@ -10,9 +10,15 @@ export interface DiscordChannelInfo {
type?: number;
}
+export interface DiscordThreadInfo {
+ id: string;
+ name?: string;
+}
+
export interface FormatDiscordContextOptions {
channel?: DiscordChannelInfo;
guild?: DiscordGuildInfo;
+ thread?: DiscordThreadInfo;
}
/**
@@ -31,7 +37,11 @@ export interface FormatDiscordContextOptions {
* //
* ```
*/
-export const formatDiscordContext = ({ guild, channel }: FormatDiscordContextOptions): string => {
+export const formatDiscordContext = ({
+ guild,
+ channel,
+ thread,
+}: FormatDiscordContextOptions): string => {
const parts: string[] = [];
if (guild) {
@@ -48,5 +58,11 @@ export const formatDiscordContext = ({ guild, channel }: FormatDiscordContextOpt
parts.push(` `);
}
+ if (thread) {
+ const attrs = [`id="${thread.id}"`];
+ if (thread.name) attrs.push(`name="${thread.name}"`);
+ parts.push(` `);
+ }
+
return `\n${parts.join('\n')}\n`;
};
diff --git a/packages/types/src/aiChat.ts b/packages/types/src/aiChat.ts
index 92febbf53e..2e1dd8eb85 100644
--- a/packages/types/src/aiChat.ts
+++ b/packages/types/src/aiChat.ts
@@ -73,7 +73,7 @@ export interface SendMessageServerParams {
preloadMessages?: SendPreloadMessage[];
sessionId?: string;
threadId?: string;
- // if there is activeTopicId,then add topicId to message
+ // if there is activeTopicId, then add topicId to message
topicId?: string;
}
diff --git a/src/business/server/mobile-routers/mobileSubscription.ts b/src/business/server/mobile-routers/mobileSubscription.ts
new file mode 100644
index 0000000000..ccc38520d9
--- /dev/null
+++ b/src/business/server/mobile-routers/mobileSubscription.ts
@@ -0,0 +1,3 @@
+import { router } from '@/libs/trpc/lambda';
+
+export const mobileSubscriptionRouter = router({});
diff --git a/src/features/AgentHome/AgentInfo.tsx b/src/features/AgentHome/AgentInfo.tsx
new file mode 100644
index 0000000000..15415ed5f0
--- /dev/null
+++ b/src/features/AgentHome/AgentInfo.tsx
@@ -0,0 +1,52 @@
+'use client';
+
+import { Avatar, Flexbox, Markdown, Text } from '@lobehub/ui';
+import isEqual from 'fast-deep-equal';
+import { memo, useMemo } from 'react';
+import { useTranslation } from 'react-i18next';
+
+import { DEFAULT_AVATAR, DEFAULT_INBOX_AVATAR } from '@/const/meta';
+import { useAgentStore } from '@/store/agent';
+import { agentSelectors, builtinAgentSelectors } from '@/store/agent/selectors';
+import { useUserStore } from '@/store/user';
+import { userGeneralSettingsSelectors } from '@/store/user/slices/settings/selectors';
+
+const AgentInfo = memo(() => {
+ const { t } = useTranslation(['chat', 'welcome']);
+ const isInbox = useAgentStore(builtinAgentSelectors.isInboxAgent);
+ const meta = useAgentStore(agentSelectors.currentAgentMeta, isEqual);
+ const openingMessage = useAgentStore(agentSelectors.openingMessage);
+ const fontSize = useUserStore(userGeneralSettingsSelectors.fontSize);
+
+ const displayTitle = isInbox
+ ? meta.title || 'Lobe AI'
+ : meta.title || t('defaultSession', { ns: 'common' });
+
+ const message = useMemo(() => {
+ if (openingMessage) return openingMessage;
+ return t('agentDefaultMessageWithSystemRole', {
+ name: displayTitle,
+ });
+ }, [openingMessage, displayTitle, t]);
+
+ return (
+
+
+
+ {displayTitle}
+
+
+
+ {message}
+
+
+
+ );
+});
+
+export default AgentInfo;
diff --git a/src/features/AgentHome/OpeningQuestions.tsx b/src/features/AgentHome/OpeningQuestions.tsx
new file mode 100644
index 0000000000..4b873b62ef
--- /dev/null
+++ b/src/features/AgentHome/OpeningQuestions.tsx
@@ -0,0 +1,57 @@
+'use client';
+
+import { Block, Flexbox } from '@lobehub/ui';
+import { createStaticStyles } from 'antd-style';
+import { memo } from 'react';
+import { useTranslation } from 'react-i18next';
+
+import { useConversationStore } from '@/features/Conversation';
+
+const styles = createStaticStyles(({ css, cssVar }) => ({
+ card: css`
+ padding-block: 8px;
+ padding-inline: 16px;
+ border-radius: 48px;
+ `,
+ container: css`
+ padding-block: 0;
+ padding-inline: 0;
+ `,
+ title: css`
+ color: ${cssVar.colorTextDescription};
+ `,
+}));
+
+interface OpeningQuestionsProps {
+ questions: string[];
+}
+
+const OpeningQuestions = memo(({ questions }) => {
+ const { t } = useTranslation('welcome');
+ const [sendMessage] = useConversationStore((s) => [s.sendMessage]);
+
+ return (
+