Merge remote-tracking branch 'origin/canary' into fix/task-topic-status-cascade

This commit is contained in:
Arvin Xu 2026-04-11 18:42:57 +08:00
commit f68c45cab6
289 changed files with 5927 additions and 1321 deletions

View file

@ -1,7 +1,7 @@
---
name: pr
description: "Create a PR for the current branch. Use when the user asks to create a pull request, submit PR, or says 'pr'."
user_invocable: true
user-invocable: true
---
# Create Pull Request

View file

@ -208,7 +208,7 @@ function readAgentProfile(workspacePath: string): AgentProfile {
// Try to extract **Emoji:** value (single emoji)
const emojiMatch = content.match(/\*{0,2}Emoji:?\*{0,2}\s*(.+)/i);
const rawAvatar = emojiMatch ? emojiMatch[1].trim() : undefined;
// Filter out placeholder text like (待定), _(待定)_, (TBD), N/A, etc.
// Filter out placeholder text like (待定)(Chinese TBD), _(待定)_, (TBD), N/A, etc.
const isPlaceholder =
rawAvatar && /^[_*(].*[)_*]$|^(?:tbd|todo|n\/?a|none|待定|未定)$/i.test(rawAvatar);
const avatar = rawAvatar && !isPlaceholder ? rawAvatar : undefined;

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "تم الاتصال بالروبوت بنجاح",
"channel.connecting": "جارٍ الاتصال...",
"channel.connectionConfig": "إعدادات الاتصال",
"channel.connectionMode": "وضع الاتصال",
"channel.connectionModeHint": "يُفضَّل استخدام WebSocket للروبوتات الجديدة. استخدم Webhook إذا كان روبوتك يحتوي بالفعل على عنوان URL مُعدّ لرد النداء على منصة QQ المفتوحة.",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "تم النسخ إلى الحافظة",
"channel.copy": "نسخ",
"channel.credentials": "بيانات الاعتماد",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "يرجى نسخ هذا العنوان ولصقه في الحقل <bold>{{fieldName}}</bold> في بوابة مطوري {{name}}.",
"channel.exportConfig": "تصدير التكوين",
"channel.feishu.description": "قم بتوصيل هذا المساعد بـ Feishu للدردشة الخاصة والجماعية.",
"channel.feishu.webhookMigrationDesc": "يوفّر وضع WebSocket تسليمًا فوريًا للأحداث دون الحاجة إلى عنوان URL عام لرد النداء. للانتقال، قم بتغيير وضع الاتصال إلى WebSocket في الإعدادات المتقدمة. لا يلزم أي إعداد إضافي على منصة Feishu/Lark المفتوحة.",
"channel.feishu.webhookMigrationTitle": "النظر في الترقية إلى وضع WebSocket",
"channel.historyLimit": "حد رسائل السجل",
"channel.historyLimitHint": "العدد الافتراضي للرسائل التي يتم جلبها عند قراءة سجل القناة",
"channel.importConfig": "استيراد التكوين",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "مطلوب للتحقق من التفاعل",
"channel.qq.appIdHint": "معرّف تطبيق QQ Bot الخاص بك من منصة QQ المفتوحة",
"channel.qq.description": "قم بتوصيل هذا المساعد بـ QQ للمحادثات الجماعية والرسائل المباشرة.",
"channel.qq.webhookMigrationDesc": "يوفّر وضع WebSocket تسليمًا فوريًا للأحداث وإعادة اتصال تلقائية دون الحاجة إلى عنوان URL لرد النداء. للانتقال، أنشئ روبوتًا جديدًا على منصة QQ المفتوحة دون إعداد عنوان URL لرد النداء، ثم غيّر وضع الاتصال إلى WebSocket في الإعدادات المتقدمة.",
"channel.qq.webhookMigrationTitle": "النظر في الترقية إلى وضع WebSocket",
"channel.removeChannel": "إزالة القناة",
"channel.removeFailed": "فشل في إزالة القناة",
"channel.removed": "تمت إزالة القناة",
@ -93,7 +101,11 @@
"channel.signingSecret": "سر التوقيع",
"channel.signingSecretHint": "يُستخدم للتحقق من طلبات الويب هوك.",
"channel.slack.appIdHint": "معرف تطبيق Slack الخاص بك من لوحة تحكم API Slack (يبدأ بـ A).",
"channel.slack.appToken": "رمز على مستوى التطبيق",
"channel.slack.appTokenHint": "مطلوب لوضع Socket Mode (WebSocket). أنشئ رمزًا على مستوى التطبيق (xapp-...) من قسم المعلومات الأساسية في إعدادات تطبيق Slack الخاص بك.",
"channel.slack.description": "قم بتوصيل هذا المساعد بـ Slack للمحادثات القنوية والرسائل المباشرة.",
"channel.slack.webhookMigrationDesc": "يوفّر وضع Socket Mode تسليمًا فوريًا للأحداث عبر WebSocket دون الحاجة إلى تعريض نقطة نهاية HTTP عامة. للانتقال، فعّل Socket Mode في إعدادات تطبيق Slack، وأنشئ رمزًا على مستوى التطبيق، ثم غيّر وضع الاتصال إلى WebSocket في الإعدادات المتقدمة.",
"channel.slack.webhookMigrationTitle": "النظر في الترقية إلى وضع Socket Mode (WebSocket)",
"channel.telegram.description": "قم بتوصيل هذا المساعد بـ Telegram للدردشة الخاصة والجماعية.",
"channel.testConnection": "اختبار الاتصال",
"channel.testFailed": "فشل اختبار الاتصال",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "تم حذف المجموعة بنجاح",
"confirmRemoveSessionItemAlert": "أنت على وشك حذف هذا الوكيل. بمجرد الحذف، لا يمكن استعادته. يرجى تأكيد الإجراء.",
"confirmRemoveSessionSuccess": "تم حذف الوكيل بنجاح",
"createModal.createBlank": "إنشاء صفحة فارغة",
"createModal.groupPlaceholder": "صِف ما ينبغي أن يقوم به هذا الفريق...",
"createModal.groupTitle": "ما الذي ينبغي أن يقوم به فريقك؟",
"createModal.placeholder": "صِف ما ينبغي أن يقوم به وكيلك...",
"createModal.title": "ما الذي ينبغي أن يقوم به وكيلك؟",
"defaultAgent": "الوكيل الافتراضي",
"defaultGroupChat": "مجموعة",
"defaultList": "القائمة الافتراضية",
@ -229,6 +234,7 @@
"operation.contextCompression": "السياق طويل جدًا، يتم ضغط السجل...",
"operation.execAgentRuntime": "جارٍ تحضير الرد",
"operation.execClientTask": "تنفيذ المهمة",
"operation.execServerAgentRuntime": "قيد التنفيذ… يمكنك تغيير المهام أو إغلاق الصفحة — ستستمر المهمة بالعمل.",
"operation.sendMessage": "جارٍ إرسال الرسالة",
"owner": "مالك المجموعة",
"pageCopilot.title": "وكيل الصفحة",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "جارٍ جلب التفاصيل...",
"task.status.initializing": "جارٍ تهيئة المهمة...",
"task.subtask": "مهمة فرعية",
"task.title": "المهام",
"thread.divider": "موضوع فرعي",
"thread.threadMessageCount": "{{messageCount}} رسالة",
"thread.title": "موضوع فرعي",
@ -429,9 +436,11 @@
"toolAuth.title": "تفويض المهارات لهذا الوكيل",
"topic.checkOpenNewTopic": "هل تريد بدء موضوع جديد؟",
"topic.checkSaveCurrentMessages": "هل تريد حفظ المحادثة الحالية كموضوع؟",
"topic.defaultTitle": "موضوع بدون عنوان",
"topic.openNewTopic": "فتح موضوع جديد",
"topic.recent": "المواضيع الأخيرة",
"topic.saveCurrentMessages": "حفظ الجلسة الحالية كموضوع",
"topic.viewAll": "عرض جميع المواضيع",
"translate.action": "ترجمة",
"translate.clear": "مسح الترجمة",
"tts.action": "تحويل النص إلى كلام",

View file

@ -343,10 +343,19 @@
"mail.support": "دعم عبر البريد الإلكتروني",
"more": "المزيد",
"navPanel.agent": "الوكيل",
"navPanel.customizeSidebar": "تخصيص الشريط الجانبي",
"navPanel.displayItems": "عناصر العرض",
"navPanel.hidden": "مخفي",
"navPanel.hideSection": "إخفاء القسم",
"navPanel.library": "المكتبة",
"navPanel.moveDown": "نقل لأسفل",
"navPanel.moveUp": "نقل لأعلى",
"navPanel.pinned": "مثبّت",
"navPanel.searchAgent": "بحث عن وكيل...",
"navPanel.searchRecent": "البحث في الأخير...",
"navPanel.searchResultEmpty": "لم يتم العثور على نتائج",
"navPanel.show": "إظهار",
"navPanel.visible": "مرئي",
"new": "جديد",
"noContent": "لا يوجد محتوى",
"oauth": "تسجيل الدخول الموحد",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "ادعمنا",
"productHunt.description": "ادعمنا على Product Hunt. دعمك يعني لنا الكثير!",
"productHunt.title": "نحن على Product Hunt!",
"promptTransform.action": "تنقية الفكرة",
"promptTransform.actions.rewrite": "توسيع التفاصيل",
"promptTransform.actions.translate": "ترجمة",
"promptTransform.status.rewrite": "جارٍ توسيع التفاصيل...",
"promptTransform.status.translate": "جارٍ الترجمة...",
"recents": "العناصر الأخيرة",
"regenerate": "إعادة التوليد",
"releaseNotes": "تفاصيل الإصدار",
"rename": "إعادة التسمية",
@ -400,6 +415,7 @@
"tab.audio": "الصوت",
"tab.chat": "الدردشة",
"tab.community": "المجتمع",
"tab.create": "إنشاء",
"tab.discover": "اكتشف",
"tab.eval": "مختبر التقييم",
"tab.files": "الملفات",

View file

@ -12,6 +12,7 @@
"config.model.label": "النموذج",
"config.prompt.placeholder": "صف ما ترغب في إنشائه",
"config.prompt.placeholderWithRef": "وصف كيف تريد تعديل الصورة",
"config.promptExtend.label": "توسيع المطلب",
"config.quality.label": "جودة الصورة",
"config.quality.options.hd": "عالية الدقة",
"config.quality.options.standard": "قياسية",
@ -24,6 +25,8 @@
"config.size.label": "الحجم",
"config.steps.label": "الخطوات",
"config.title": "الإعدادات",
"config.watermark.label": "علامة مائية",
"config.webSearch.label": "بحث ويب",
"config.width.label": "العرض",
"generation.actions.applySeed": "تطبيق البذرة",
"generation.actions.copyError": "نسخ رسالة الخطأ",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "تجميع رسائل الوكيل ونتائج استدعاء الأدوات معًا للعرض",
"features.assistantMessageGroup.title": "تجميع رسائل الوكيل",
"features.gatewayMode.desc": "تنفيذ مهام الوكيل على الخادم عبر بوابة WebSocket بدلًا من التشغيل محليًا، مما يتيح تنفيذًا أسرع ويقلل من استهلاك موارد العميل.",
"features.gatewayMode.title": "تنفيذ الوكيل من جانب الخادم (البوابة)",
"features.groupChat.desc": "تمكين تنسيق الدردشة الجماعية متعددة الوكلاء.",
"features.groupChat.title": "دردشة جماعية (متعددة الوكلاء)",
"features.inputMarkdown.desc": "عرض Markdown في منطقة الإدخال في الوقت الفعلي (نص عريض، كتل الشيفرة، جداول، إلخ).",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "نموذج رائد في الصين، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة، النصوص الطويلة، والتوليد الإبداعي. كما يتميز بقدرات متعددة الوسائط رائدة في الصناعة ونتائج قوية في المعايير الموثوقة.",
"Baichuan4.description": "أداء محلي رائد، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والتوليد الإبداعي. كما يقدم قدرات متعددة الوسائط رائدة ونتائج قوية في المعايير.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS هي عائلة من النماذج مفتوحة المصدر من ByteDance Seed، مصممة للتعامل مع السياقات الطويلة، والاستدلال، والمهام العامة. Seed-OSS-36B-Instruct هو نموذج موجه بالتعليم يحتوي على 36 مليار معلمة مع دعم أصلي للسياقات الطويلة جدًا لمعالجة المستندات الكبيرة أو قواعد الشيفرة. يتميز بقدرات قوية في الاستدلال وتوليد الشيفرة واستخدام الأدوات. من أبرز ميزاته \"ميزانية التفكير\" التي تسمح بطول استدلال مرن لتحسين الكفاءة.",
"DeepSeek-OCR.description": "يعد DeepSeek-OCR نموذج رؤية-لغة من DeepSeek AI يركز على التعرف البصري على الحروف و\"الضغط السياقي البصري\". يستكشف ضغط السياق المستخرج من الصور، ويعالج المستندات بكفاءة، ويحوّلها إلى نص منظم (مثل Markdown). يقدّم دقة عالية في التعرف على النص داخل الصور، مما يجعله مناسباً لرقمنة المستندات واستخراج النصوص والمعالجة الهيكلية.",
"DeepSeek-R1-Distill-Llama-70B.description": "تم تقطير DeepSeek R1، النموذج الأكبر والأذكى في مجموعة DeepSeek، إلى بنية Llama 70B. تُظهر المعايير والتقييمات البشرية أنه أذكى من Llama 70B الأساسي، خاصة في مهام الرياضيات ودقة الحقائق.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "نموذج مقطر من DeepSeek-R1 يعتمد على Qwen2.5-Math-1.5B. يعمل التعلم المعزز وبيانات البداية الباردة على تحسين أداء الاستدلال، مما يضع معايير جديدة للمهام المتعددة في النماذج المفتوحة.",
"DeepSeek-R1-Distill-Qwen-14B.description": "نماذج DeepSeek-R1-Distill مدربة بدقة من نماذج مفتوحة المصدر باستخدام بيانات عينة تم إنشاؤها بواسطة DeepSeek-R1.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "المزود: sophnet. DeepSeek V3 Fast هو الإصدار عالي السرعة من DeepSeek V3 0324، بدقة كاملة (غير مضغوطة) مع أداء أقوى في البرمجة والرياضيات واستجابات أسرع.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast هو الإصدار السريع عالي السرعة من DeepSeek V3.1. وضع تفكير هجين: من خلال قوالب الدردشة، يدعم نموذج واحد كلاً من أوضاع التفكير وغير التفكير. استخدام أدوات أذكى: التحسينات بعد التدريب تعزز أداء المهام التي تتطلب أدوات ووكلاء.",
"DeepSeek-V3.1-Think.description": "وضع التفكير في DeepSeek-V3.1: نموذج استدلال هجين جديد يدعم أوضاع التفكير وغير التفكير، أكثر كفاءة من DeepSeek-R1-0528. التحسينات بعد التدريب تعزز بشكل كبير استخدام الأدوات وأداء المهام التي تتطلب وكلاء.",
"DeepSeek-V3.2.description": "يقدم deepseek-v3.2 آلية انتباه متفرّق تهدف إلى تحسين كفاءة التدريب والاستدلال عند معالجة النصوص الطويلة، مع كلفة أقل مقارنة بـ deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE تم تطويره بواسطة DeepSeek. يتفوق على نماذج مفتوحة أخرى مثل Qwen2.5-72B وLlama-3.1-405B في العديد من المعايير، ويتنافس مع النماذج المغلقة الرائدة مثل GPT-4o وClaude 3.5 Sonnet.",
"Doubao-lite-128k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 128K للاستدلال والتدريب الدقيق.",
"Doubao-lite-32k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 32K للاستدلال والتدريب الدقيق.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: نموذج عالي الأداء للمنطق، البرمجة، ومهام الوكلاء.",
"GLM-4.6.description": "GLM-4.6: نموذج الجيل السابق.",
"GLM-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، معزز لسيناريوهات البرمجة الوكيلية مع تحسين قدرات البرمجة، تخطيط المهام طويلة الأمد، والتعاون مع الأدوات.",
"GLM-5-Turbo.description": "GLM-5-Turbo: إصدار محسن من GLM-5 مع استدلال أسرع لمهام البرمجة.",
"GLM-5-Turbo.description": "GLM-5-Turbo هو نموذج أساس مُحسَّن بعمق لسيناريوهات الوكلاء. تم تحسينه خصيصاً لتلبية المتطلبات الأساسية لمهام الوكلاء منذ مرحلة التدريب، مما يعزز القدرات الأساسية مثل استدعاء الأدوات، تنفيذ الأوامر، وسلاسل التنفيذ الطويلة. وهو مثالي لبناء مساعدين ذكيين عاليي الأداء.",
"GLM-5.1.description": "GLM-5.1 هو أحدث نموذج رائد من Zhipu، وهو نسخة محسّنة من GLM-5 مع قدرات هندسية وكيلة محسّنة لأنظمة الهندسة المعقدة والمهام طويلة الأمد.",
"GLM-5.description": "GLM-5 هو نموذج الأساس الرائد من الجيل التالي لـ Zhipu، مصمم خصيصًا للهندسة الوكيلية. يوفر إنتاجية موثوقة في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة الأمد. في قدرات البرمجة والوكلاء، يحقق GLM-5 أداءً رائدًا بين النماذج مفتوحة المصدر.",
"GLM-5.description": "GLM-5 هو نموذج الجيل القادم الأساسي من شركة Zhipu، مصمّم خصيصاً لهندسة الوكلاء. يقدّم إنتاجية موثوقة في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة الأمد. في قدرات البرمجة والوكلاء، يحقق GLM-5 أداءً رائداً بين النماذج مفتوحة المصدر. وفي سيناريوهات البرمجة الواقعية، يقترب في تجربة المستخدم من Claude Opus 4.5. يتفوق في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة المدى، مما يجعله نموذجاً أساسياً مثالياً للمساعدين العامين.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) هو نموذج مبتكر لمجالات متنوعة ومهام معقدة.",
"HY-Image-V3.0.description": "قدرات قوية لاستخراج الميزات من الصور الأصلية والحفاظ على التفاصيل، مما يوفر نسيجًا بصريًا أكثر ثراءً وينتج صورًا عالية الدقة ومتقنة ومناسبة للإنتاج.",
"HelloMeme.description": "HelloMeme هي أداة ذكاء اصطناعي لإنشاء الميمات، الصور المتحركة (GIFs)، أو مقاطع الفيديو القصيرة من الصور أو الحركات التي تقدمها. لا تتطلب مهارات رسم أو برمجة—فقط صورة مرجعية—لإنتاج محتوى ممتع وجذاب ومتناسق من حيث الأسلوب.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter هو نموذج توليد شخصيات مخصص بدون ضبط من Tencent AI لعام 2025، يهدف إلى توليد شخصيات عالية الدقة ومتسقة عبر السيناريوهات. يمكنه نمذجة شخصية من صورة مرجعية واحدة ونقلها بمرونة عبر الأساليب، الحركات، والخلفيات.",
"InternVL2-8B.description": "InternVL2-8B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
"InternVL2.5-26B.description": "InternVL2.5-26B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
"KAT-Coder-Air-V1.description": "إصدار خفيف الوزن ضمن سلسلة KAT-Coder. مصمم خصيصاً للبرمجة عبر الوكلاء، ويغطي بشكل شامل مهام البرمجة وسيناريوهاتها. وبالاعتماد على التعلم المعزز واسع النطاق القائم على الوكلاء، يتيح ظهور سلوكيات ذكية ويتفوق بشكل كبير على النماذج المماثلة في أداء البرمجة.",
"KAT-Coder-Exp-72B-1010.description": "يعد KAT-Coder-Exp-72B الإصدار التجريبي المعتمد على الابتكار بالتعلم المعزز في سلسلة KAT-Coder، وقد حقق أداءً مذهلاً بنسبة 74.6٪ على معيار SWE-Bench Verified، مسجلاً رقماً قياسياً جديداً للنماذج مفتوحة المصدر. وهو يركز على البرمجة عبر الوكلاء ويدعم حالياً فقط هيكل SWE-Agent، لكنه قابل أيضاً للاستخدام في المحادثات البسيطة.",
"KAT-Coder-Pro-V1.description": "مصمم للبرمجة عبر الوكلاء، يغطي بشكل شامل مهام البرمجة وسيناريوهاتها، ويحقق سلوكاً ذكياً ناشئاً عبر التعلم المعزز واسع النطاق، متفوقاً بشكل كبير على النماذج المشابهة في أداء كتابة الأكواد.",
"KAT-Coder-Pro-V2.description": "أحدث نموذج عالي الأداء من فريق Kwaipilot لدى Kuaishou، مصمم للمشاريع المؤسسية المعقدة وتكامل SaaS. يتفوق في سيناريوهات البرمجة، ويتوافق مع مختلف أطر الوكلاء (Claude Code، OpenCode، KiloCode)، ويدعم OpenClaw أصلياً، ومُحسَّن خصيصاً لجماليات واجهات الويب الأمامية.",
"Kimi-K2.5.description": "Kimi K2.5 هو أقوى نموذج من سلسلة Kimi، ويقدم أداءً متقدماً مفتوح المصدر في مهام الوكلاء والبرمجة وفهم الرؤية. يدعم الإدخال متعدد الوسائط ووضعَي التفكير وغير التفكير.",
"Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة طوره فريق Kolors في Kuaishou. مدرب على مليارات المعاملات، يتميز بجودة بصرية عالية، فهم دلالي قوي للغة الصينية، وقدرات متميزة في عرض النصوص.",
"Kwai-Kolors/Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة واسع النطاق من فريق Kolors في Kuaishou. مدرب على مليارات أزواج النصوص والصور، يتفوق في الجودة البصرية، الدقة الدلالية المعقدة، وعرض النصوص الصينية/الإنجليزية، مع فهم وتوليد قويين للمحتوى الصيني.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) هو نموذج مفتوح المصدر لمهام هندسة البرمجيات. يحقق معدل حل 62.4% على SWE-Bench Verified، ويحتل المرتبة الخامسة بين النماذج المفتوحة. تم تحسينه عبر التدريب الوسيط، SFT، وRL لإكمال الشيفرة، إصلاح الأخطاء، ومراجعة الشيفرة.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "نموذج لغة صغير متطور يتمتع بفهم لغوي قوي، استدلال ممتاز، وتوليد نصوص عالي الجودة.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 هو النموذج مفتوح المصدر متعدد اللغات الأكثر تقدمًا من Llama، يقدم أداءً قريبًا من نموذج 405B بتكلفة منخفضة جدًا. يعتمد على بنية Transformer ومحسن باستخدام SFT وRLHF لتحقيق الفائدة والسلامة. النسخة المضبوطة على التعليمات محسنّة للمحادثة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة. تاريخ التحديث المعرفي: ديسمبر 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick هو نموذج MoE كبير مع تفعيل خبراء فعال لأداء استدلال قوي.",
"MiMo-V2-Pro.description": "MiMo-V2-Pro مصمم خصيصاً لتدفقات عمل الوكلاء عالية الكثافة في السيناريوهات الواقعية. يحتوي على أكثر من تريليون معلمة إجمالية (42 مليار معلمة مفعلة)، ويعتمد بنية انتباه هجينة مبتكرة، ويدعم طول سياق هائل يصل إلى مليون رمز. يعتمد على نموذج أساس قوي، ونواصل توسيع الموارد الحاسوبية عبر نطاق أوسع من سيناريوهات الوكلاء، مما يوسع فضاء الحركة للذكاء ويحقق تعميماً كبيراً — من البرمجة إلى تنفيذ المهام الواقعية (\"claw\").",
"MiniMax-Hailuo-02.description": "تم إصدار نموذج إنشاء الفيديو من الجيل التالي، MiniMax Hailuo 02، رسميًا، ويدعم دقة 1080P وإنشاء فيديو لمدة 10 ثوانٍ.",
"MiniMax-Hailuo-2.3-Fast.description": "نموذج جديد لإنشاء الفيديو مع تحسينات شاملة في حركة الجسم، والواقعية الفيزيائية، واتباع التعليمات.",
"MiniMax-Hailuo-2.3.description": "نموذج جديد لإنشاء الفيديو مع تحسينات شاملة في حركة الجسم، والواقعية الفيزيائية، واتباع التعليمات.",
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
"MiniMax-M2.1-Lightning.description": "قدرات برمجة متعددة اللغات قوية مع استدلال أسرع وأكثر كفاءة.",
"MiniMax-M2.1-highspeed.description": "قدرات برمجة متعددة اللغات قوية، تجربة برمجة مطورة بشكل شامل. أسرع وأكثر كفاءة.",
"MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام الواقعية المعقدة. يتميز بقدرات برمجة متعددة اللغات والقدرة على أداء المهام المعقدة كوكلاء ذكي.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: نفس أداء M2.5 مع استدلال أسرع.",
"MiniMax-M2.5.description": "أداء من الدرجة الأولى وفعالية تكلفة قصوى، يتعامل بسهولة مع المهام المعقدة (تقريباً 60 tps).",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: نفس أداء M2.7 مع استدلال أسرع بشكل ملحوظ.",
"MiniMax-M2.7.description": "MiniMax M2.7: بداية رحلة التحسين الذاتي التكراري، قدرات هندسية واقعية رائدة.",
"MiniMax-M2.7.description": "أول نموذج ذاتي التطور يتميز بأداء رائد في البرمجة والمهام عبر الوكلاء (~60 رمزاً في الثانية).",
"MiniMax-M2.description": "MiniMax M2: نموذج الجيل السابق.",
"MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 هو نموذج استدلال كبير مفتوح الأوزان مع 456 مليار معلمة إجمالية وحوالي 45.9 مليار نشطة لكل رمز. يدعم سياق 1 مليون بشكل طبيعي ويستخدم Flash Attention لتقليل FLOPs بنسبة 75% على توليد 100 ألف رمز مقارنة بـ DeepSeek R1. مع بنية MoE بالإضافة إلى CISPO وتدريب RL الهجين، يحقق أداءً رائدًا في الاستدلال طويل المدخلات ومهام الهندسة البرمجية الواقعية.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج MoE من الدرجة الأولى يحتوي على إجمالي 1 تريليون و32 مليار معلمة نشطة. من أبرز ميزاته الذكاء البرمجي القوي مع تحسينات كبيرة في المعايير ومهام الوكلاء الواقعية، بالإضافة إلى تحسينات في جمالية واجهة الشيفرة وسهولة الاستخدام.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo هو إصدار Turbo محسّن لسرعة الاستدلال والإنتاجية مع الحفاظ على قدرات التفكير متعدد الخطوات واستخدام الأدوات في K2 Thinking. إنه نموذج MoE يحتوي على حوالي 1 تريليون معلمة إجمالية، ويدعم سياقًا أصليًا بطول 256 ألف رمز، واستدعاء أدوات واسع النطاق ومستقر لسيناريوهات الإنتاج التي تتطلب زمن استجابة وتزامنًا صارمين.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 هو نموذج وكيل متعدد الوسائط مفتوح المصدر، مبني على Kimi-K2-Base، ومدرب على حوالي 1.5 تريليون رمز من النصوص والرؤية. يستخدم بنية MoE بعدد إجمالي 1 تريليون مع 32 مليار معلمات نشطة، ويدعم نافذة سياق تصل إلى 256 ألف، مما يدمج الفهم البصري واللغوي بسلاسة.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 هو نموذج الجيل التالي الرائد المصمم لهندسة الوكلاء، ويستخدم بنية خبراء مختلطة (MoE) بـ 754 مليار معلمة. يعزز قدرات البرمجة بشكل كبير، محققاً نتائج متقدمة على SWE-Bench Pro، ويتفوق بوضوح على سابقه في مقاييس مثل NL2Repo وTerminal-Bench 2.0. مصمم لمهام الوكلاء طويلة الأمد، ويتعامل مع الأسئلة الغامضة بشكل أدق، ويحلل المهام المعقدة، وينفذ التجارب، ويفحص النتائج، ويواصل التحسين عبر مئات الدورات وآلاف استدعاءات الأدوات.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 هو النموذج الرائد الجديد من Zhipu مع 355 مليار معلمة إجمالية و32 مليار معلمة نشطة، تم ترقيته بالكامل في الحوار العام، المنطق، وقدرات الوكلاء. يعزز GLM-4.7 التفكير المتداخل ويقدم التفكير المحفوظ والتفكير على مستوى الدور.",
"Pro/zai-org/glm-5.description": "GLM-5 هو نموذج اللغة الكبير من الجيل التالي من Zhipu، يركز على هندسة الأنظمة المعقدة ومهام الوكيل طويلة المدة. تم توسيع معلمات النموذج إلى 744 مليار (40 مليار نشطة) وتدمج DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ هو نموذج بحث تجريبي يركز على تحسين الاستدلال.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 مُحسَّن للاستدلال المتقدم واتباع التعليمات، ويستخدم بنية MoE للحفاظ على كفاءة الاستدلال على نطاق واسع.",
"Qwen3-235B.description": "Qwen3-235B-A22B هو نموذج MoE يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بسلاسة بين التفكير وعدم التفكير. يدعم الفهم والاستدلال عبر 119 لغة ولهجة، ويتمتع بقدرات قوية على استدعاء الأدوات، ويتنافس مع نماذج رائدة مثل DeepSeek R1 وOpenAI o1 وo3-mini وGrok 3 وGoogle Gemini 2.5 Pro في اختبارات القدرات العامة، والبرمجة والرياضيات، والقدرات متعددة اللغات، واستدلال المعرفة.",
"Qwen3-32B.description": "Qwen3-32B هو نموذج كثيف يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بين التفكير وعدم التفكير. بفضل تحسينات في البنية، وبيانات أكثر، وتدريب أفضل، يقدم أداءً مماثلًا لـ Qwen2.5-72B.",
"Qwen3.5-Plus.description": "يدعم Qwen3.5 Plus إدخال النصوص والصور والفيديو. أداؤه في المهام النصية البحتة مماثل لـ Qwen3 Max، مع أداء أفضل وتكلفة أقل. وقد تحسّنت قدراته متعددة الوسائط بشكل ملحوظ مقارنة بسلسلة Qwen3 VL.",
"S2V-01.description": "النموذج الأساسي لتحويل المرجع إلى فيديو من سلسلة 01.",
"SenseChat-128K.description": "الإصدار الرابع الأساسي مع سياق 128 ألف رمز، قوي في فهم وتوليد النصوص الطويلة.",
"SenseChat-32K.description": "الإصدار الرابع الأساسي مع سياق 32 ألف رمز، مرن لمجموعة متنوعة من السيناريوهات.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو النموذج الأسرع والأكثر ذكاءً من Anthropic، يتميز بسرعة البرق وقدرات تفكير ممتدة.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرات استدلال ممتدة.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 هو نموذج Haiku الأسرع والأذكى من Anthropic، يتميز بسرعة البرق وقدرات استدلال موسعة.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو النموذج الأكثر قوة من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام شديدة التعقيد، ويتفوق في الأداء والذكاء والطلاقة والفهم.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة جداً، ويتميز بأداء وذكاء وطلاقة وفهم متقدم.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
"claude-opus-4-6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-opus-4-6.description": "Claude Opus 4.6 هو أذكى نموذج من Anthropic لبناء الوكلاء والبرمجة.",
"claude-opus-4.5.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الفائق والأداء القابل للتوسع لمهام الاستدلال المعقدة وعالية الجودة.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-opus-4.6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن، يقدم استجابات شبه فورية أو تفكيرًا ممتدًا خطوة بخطوة مع تحكم دقيق للمستخدمين عبر واجهة API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 قادر على تقديم ردود شبه فورية أو عمليّة تفكير مفصلة خطوة بخطوة مع إظهار سير العملية.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج طورته Anthropic حتى الآن.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 يقدم أفضل مزيج بين السرعة والذكاء من Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 يمكنه إنتاج استجابات شبه فورية أو استدلال خطوة بخطوة ممتد يمكن للمستخدمين رؤيته. يمكن لمستخدمي API التحكم بدقة في مدة تفكير النموذج.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.",
"deepseek-chat.description": "DeepSeek V3.2 يوازن بين التفكير وطول المخرجات لمهام الأسئلة والأجوبة اليومية والمهام الوكيلة. تصل المعايير العامة إلى مستويات GPT-5، وهو الأول الذي يدمج التفكير في استخدام الأدوات، مما يؤدي إلى تقييمات وكلاء مفتوحة المصدر.",
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة وقدرات البرمجة. يحافظ على قدرة المحادثة للنموذج الحواري والقدرة البرمجية القوية لنموذج البرمجة، مع مواءمة تفضيلات أفضل. كما يحسن DeepSeek-V2.5 قدرات الكتابة واتباع التعليمات.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج تفكير عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية عالية وقدرات تفكير قابلة للمقارنة مع Gemini-3.0-Pro.",
"deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة منطقية قبل الإجابة النهائية لتحسين الدقة.",
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
"ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، الذي تم تطويره بواسطة فريق ByteDance Seed، يدعم تحرير الصور المتعددة والتكوين. يتميز باتساق الموضوع المحسن، واتباع التعليمات بدقة، وفهم المنطق المكاني، والتعبير الجمالي، وتخطيط الملصقات وتصميم الشعارات مع تقديم نصوص وصور عالية الدقة.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، الذي تم تطويره بواسطة ByteDance Seed، يدعم إدخال النصوص والصور لإنشاء صور عالية الجودة وقابلة للتحكم بدرجة عالية من التعليمات.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع قدرة عالية على التحكم وجودة عالية في توليد الصور. يمكنه إنتاج الصور بناءً على الأوامر النصية.",
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
"fal-ai/qwen-image-edit.description": "نموذج تحرير الصور الاحترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، وتحرير النصوص الدقيقة باللغتين الصينية والإنجليزية، ونقل الأنماط، والتدوير، والمزيد.",
"fal-ai/qwen-image.description": "نموذج إنشاء الصور القوي من فريق Qwen مع قدرات قوية في عرض النصوص الصينية وأنماط بصرية متنوعة.",
"fal-ai/qwen-image-edit.description": "نموذج احترافي لتحرير الصور من فريق Qwen، يدعم التحرير الدلالي والبصري، ويحرر النصوص الصينية والإنجليزية بدقة، ويتيح تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
"fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen يتميز بإظهار ممتاز للنصوص الصينية وأنماط بصرية متنوعة.",
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
"flux-dev.description": "نموذج مفتوح المصدر مخصص لتوليد الصور لأغراض البحث والابتكار غير التجاري، مع تحسينات فعالة.",
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
"flux-kontext-pro.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
"flux-merged.description": "FLUX.1 [merged] يجمع بين الميزات العميقة المستكشفة في \"DEV\" مع مزايا السرعة العالية لـ \"Schnell\"، مما يوسع حدود الأداء ويوسع التطبيقات.",
"flux-pro-1.1-ultra.description": "توليد صور بدقة فائقة تصل إلى 4 ميغابكسل، تنتج صورًا واضحة في غضون 10 ثوانٍ.",
"flux-pro-1.1.description": "نموذج توليد صور احترافي مطور يتميز بجودة صور ممتازة واتباع دقيق للأوامر.",
"flux-pro.description": "نموذج توليد صور تجاري من الدرجة الأولى بجودة صور لا مثيل لها ومخرجات متنوعة.",
"flux-schnell.description": "FLUX.1 [schnell] هو أكثر النماذج مفتوحة المصدر تقدمًا في توليد الصور بعدد خطوات قليلة، يتفوق على المنافسين المماثلين وحتى النماذج غير المقطرة القوية مثل Midjourney v6.0 و DALL-E 3 (HD). تم ضبطه بدقة للحفاظ على تنوع ما قبل التدريب، مما يحسن بشكل كبير من جودة الصور، واتباع التعليمات، وتنوع الحجم/النسبة، والتعامل مع الخطوط، وتنوع المخرجات.",
"flux.1-schnell.description": "FLUX.1-schnell هو نموذج عالي الأداء لتوليد الصور يدعم أنماطًا متعددة بسرعة.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) يوفر أداءً مستقرًا وقابلًا للضبط للمهام المعقدة.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) يوفر دعمًا متعدد الوسائط قويًا للمهام المعقدة.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج إنشاء الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضاً المحادثة متعددة الوسائط.",
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور بمستوى احترافي بسرعة Flash مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) هو أسرع نموذج توليد صور أصلي من Google مع دعم التفكير، وتوليد الصور التفاعلي، والتحرير.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview هو النموذج الأكثر كفاءة من حيث التكلفة من Google، مُحسّن للمهام الوكيلة ذات الحجم الكبير، الترجمة، ومعالجة البيانات.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.",
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "أقوى وأحدث نماذجنا، مصمم للمهام المؤسسية المعقدة بأداء متميز.",
"jamba-mini.description": "أكثر النماذج كفاءة في فئته، يوازن بين السرعة والجودة مع استهلاك منخفض للموارد.",
"jina-deepsearch-v1.description": "DeepSearch يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال لإجراء تحقيقات شاملة. فكر فيه كوكيل يأخذ مهمة البحث الخاصة بك، ويجري عمليات بحث واسعة متعددة المراحل، ثم يقدم إجابة. تتضمن العملية بحثًا مستمرًا، واستدلالًا، وحلًا متعدد الزوايا للمشكلات، وهو مختلف جوهريًا عن نماذج LLM التقليدية التي تعتمد على بيانات التدريب المسبق أو أنظمة RAG التقليدية التي تعتمد على بحث سطحي لمرة واحدة.",
"k2p5.description": "Kimi K2.5 هو النموذج الأكثر تنوعًا لـ Kimi حتى الآن، يتميز بهيكل متعدد الوسائط يدعم إدخال الرؤية والنصوص، أوضاع 'التفكير' و'غير التفكير'، بالإضافة إلى المهام الحوارية والوكيلة.",
"kimi-k2-0711-preview.description": "kimi-k2 هو نموذج MoE أساسي يتمتع بقدرات قوية في البرمجة والوكالة (1 تريليون معلمة إجمالية، 32 مليار نشطة)، ويتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال، البرمجة، الرياضيات، والوكالة.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview يوفر نافذة سياق 256k، برمجة وكيلة أقوى، جودة أفضل لرموز الواجهة الأمامية، وفهم سياقي محسن.",
"kimi-k2-instruct.description": "Kimi K2 Instruct هو النموذج الرسمي للاستدلال من Kimi مع سياق طويل للبرمجة، الأسئلة والأجوبة، والمزيد.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم قدرات تفكير واستدلال تعزز الأداء بشكل كبير، خاصة في المشكلات الصعبة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.",
"qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.",
"r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم النص إلى الفيديو، الصورة إلى الفيديو (الإطار الأول، الإطار الأول+الأخير)، وتوليد الصوت المتزامن مع المرئيات.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بتوليد معزز بالاسترجاع عبر الويب للحصول على معلومات في الوقت الفعلي، تفسير معقد للتعليمات، وتحسين اتساق المراجع لإنشاء مرئيات احترافية.",
"solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.",
"solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.",
"solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 هو نموذجنا الجديد القوي لتوليد الوسائط، يولد فيديوهات مع صوت متزامن. يمكنه إنشاء مقاطع غنية بالتفاصيل وديناميكية من اللغة الطبيعية أو الصور.",
"spark-x.description": "نظرة عامة على قدرات X2: 1. يقدم تعديل ديناميكي لوضع الاستدلال، يتم التحكم فيه عبر الحقل `thinking`. 2. طول سياق موسع: 64K رموز إدخال و128K رموز إخراج. 3. يدعم وظيفة استدعاء الأدوات.",
"stable-diffusion-3-medium.description": "أحدث نموذج تحويل النص إلى صورة من Stability AI. هذا الإصدار يحسن جودة الصور، وفهم النص، وتنوع الأساليب بشكل كبير، ويفسر التعليمات الطبيعية المعقدة بدقة أكبر وينتج صورًا أكثر دقة وتنوعًا.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo يستخدم تقنيات تقطير الانتشار العدائي (ADD) لتسريع stable-diffusion-3.5-large.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large هو نموذج تحويل نص إلى صورة بسعة 800 مليون معلمة، يتميز بجودة عالية وتوافق ممتاز مع التعليمات، ويدعم صورًا بدقة 1 ميغابيكسل وتشغيلًا فعالًا على الأجهزة الاستهلاكية.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 تم تهيئته من نقطة التحقق v1.2 وتم تحسينه لمدة 595 ألف خطوة على \"laion-aesthetics v2 5+\" بدقة 512x512، مع تقليل تكييف النص بنسبة 10% لتحسين التوجيه بدون مصنف.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo يركز على توليد صور عالية الجودة مع قوة ممتازة في إظهار التفاصيل وواقعية المشاهد.",
"stable-diffusion-xl-base-1.0.description": "نموذج تحويل نص إلى صورة مفتوح المصدر من Stability AI يتميز بإبداع رائد في توليد الصور. يتمتع بفهم قوي للتعليمات ويدعم تعريف التعليمات العكسية لتوليد دقيق.",
"stable-diffusion-xl.description": "stable-diffusion-xl يقدم تحسينات كبيرة مقارنة بـ v1.5 ويضاهي أفضل نتائج النماذج المفتوحة لتحويل النص إلى صورة. تشمل التحسينات مضاعفة حجم UNet ثلاث مرات، ووحدة تحسين لجودة الصورة، وتقنيات تدريب أكثر كفاءة.",
"step-1-128k.description": "يوفر توازنًا بين الأداء والتكلفة للسيناريوهات العامة.",
"step-1-256k.description": "يدعم السياقات الطويلة جدًا، مثالي لتحليل المستندات الطويلة.",
"step-1-32k.description": "يدعم المحادثات متوسطة الطول لمجموعة واسعة من الاستخدامات.",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "إجمالي {{count}} من المعاملات",
"arguments.title": "المعلمات",
"builtins.lobe-activator.apiName.activateTools": "تفعيل الأدوات",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} غير موجود",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "الحصول على النماذج المتاحة",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "الحصول على المهارات المتاحة",
"builtins.lobe-agent-builder.apiName.getConfig": "الحصول على الإعدادات",

View file

@ -33,7 +33,6 @@
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
"kimicodingplan.description": "كود Kimi من Moonshot AI يوفر الوصول إلى نماذج Kimi بما في ذلك K2.5 لأداء مهام الترميز.",
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
"lobehub.description": "يستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي ويقيس الاستخدام باستخدام أرصدة مرتبطة برموز النماذج.",
"longcat.description": "LongCat هو سلسلة من نماذج الذكاء الاصطناعي التوليدية الكبيرة التي تم تطويرها بشكل مستقل بواسطة Meituan. تم تصميمه لتعزيز إنتاجية المؤسسة الداخلية وتمكين التطبيقات المبتكرة من خلال بنية حسابية فعالة وقدرات متعددة الوسائط قوية.",
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
"minimaxcodingplan.description": "خطة الرموز MiniMax توفر الوصول إلى نماذج MiniMax بما في ذلك M2.7 لأداء مهام الترميز عبر اشتراك ثابت الرسوم.",
@ -60,6 +59,7 @@
"spark.description": "يوفر iFLYTEK Spark ذكاءً اصطناعيًا متعدد اللغات قويًا عبر مجالات متعددة، مما يمكّن من الابتكار في الأجهزة الذكية والرعاية الصحية والتمويل وغيرها.",
"stepfun.description": "تقدم نماذج Stepfun قدرات رائدة في التعدد الوسائطي والتفكير المعقد، مع فهم طويل للسياق وتنظيم بحث مستقل قوي.",
"straico.description": "يُبسط Straico دمج الذكاء الاصطناعي من خلال توفير مساحة عمل موحدة تجمع بين أفضل نماذج الذكاء الاصطناعي التوليدية للنصوص والصور والصوت، مما يمكّن المسوقين ورواد الأعمال والهواة من الوصول السلس إلى أدوات الذكاء الاصطناعي المتنوعة.",
"streamlake.description": "تعد StreamLake منصة سحابية للموديلات الذكية وحوسبة الذكاء الاصطناعي على مستوى المؤسسات، تجمع بين استدلال الموديلات عالي الأداء، وتخصيص الموديلات منخفض التكلفة، وخدمات مُدارة بالكامل، لتمكين المؤسسات من التركيز على ابتكار تطبيقات الذكاء الاصطناعي دون القلق بشأن تعقيد موارد الحوسبة الأساسية أو تكلفتها.",
"taichu.description": "Taichu هو نموذج متعدد الوسائط من الجيل التالي من CASIA ومعهد ووهان للذكاء الاصطناعي، يدعم الأسئلة والأجوبة متعددة الجولات، والكتابة، وتوليد الصور، وفهم الأبعاد الثلاثية، وتحليل الإشارات بقدرات إدراكية وإبداعية متقدمة.",
"tencentcloud.description": "توفر Tencent Cloud محرك معرفة قائم على النماذج اللغوية الكبيرة يقدم إجابات معرفية شاملة للمؤسسات والمطورين، مع خدمات معيارية مثل تحليل المستندات، والتقسيم، والتضمين، وإعادة الصياغة متعددة الجولات لبناء حلول ذكاء اصطناعي مخصصة.",
"togetherai.description": "توفر Together AI أداءً رائدًا من خلال نماذج مبتكرة، وتخصيص واسع، وتوسع سريع، ونشر بسيط لتلبية احتياجات المؤسسات.",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "أدوات النظام",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - أداة سريعة للبحث في الشيفرة البرمجية",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - واجهة سطر الأوامر لأتمتة المتصفح بدون واجهة لوكلاء الذكاء الاصطناعي",
"settingSystemTools.tools.bun.desc": "Bun - بيئة تشغيل JavaScript ومدير حزم سريع",
"settingSystemTools.tools.bunx.desc": "bunx - أداة تشغيل حزم Bun لتنفيذ حزم npm",
"settingSystemTools.tools.fd.desc": "fd - بديل سريع وسهل الاستخدام لأداة find",
"settingSystemTools.tools.find.desc": "أداة find في Unix - أمر قياسي للبحث عن الملفات",
"settingSystemTools.tools.grep.desc": "GNU grep - أداة قياسية للبحث في النصوص",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - إدارة والاتصال بخدمات LobeHub",
"settingSystemTools.tools.mdfind.desc": "بحث Spotlight في macOS (بحث مفهرس وسريع)",
"settingSystemTools.tools.node.desc": "Node.js - بيئة تشغيل JavaScript لـ JS/TS",
"settingSystemTools.tools.npm.desc": "npm - مدير حزم Node.js لتثبيت التبعيات",
"settingSystemTools.tools.pnpm.desc": "pnpm - مدير حزم سريع وفعّال في استخدام مساحة القرص",
"settingSystemTools.tools.python.desc": "Python - بيئة تشغيل لغة البرمجة",
"settingSystemTools.tools.rg.desc": "ripgrep - أداة بحث نصي سريعة للغاية",
"settingSystemTools.tools.uv.desc": "uv - مدير حزم Python فائق السرعة",
"settingTTS.openai.sttModel": "نموذج OpenAI لتحويل الكلام إلى نص",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "نموذج OpenAI لتحويل النص إلى كلام",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "النموذج",
"systemAgent.inputCompletion.modelDesc": "النموذج المستخدم لاقتراحات الإكمال التلقائي للإدخال (مثل نص الشبح في GitHub Copilot)",
"systemAgent.inputCompletion.title": "وكيل الإكمال التلقائي للإدخال",
"systemAgent.promptRewrite.label": "النموذج",
"systemAgent.promptRewrite.modelDesc": "حدد النموذج المستخدم لإعادة صياغة المطالبات",
"systemAgent.promptRewrite.title": "وكيل إعادة صياغة المطالبات",
"systemAgent.queryRewrite.label": "النموذج",
"systemAgent.queryRewrite.modelDesc": "تحديد النموذج المستخدم لتحسين استفسارات المستخدم",
"systemAgent.queryRewrite.title": "وكيل إعادة صياغة استعلام المكتبة",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "رفع ملف .zip أو .skill محلي",
"tab.usage": "إحصائيات الاستخدام",
"tools.add": "إضافة مهارة",
"tools.builtins.find-skills.description": "يساعد المستخدمين في اكتشاف وتثبيت مهارات الوكلاء عند سؤالهم \"كيف أفعل كذا\" أو \"اعثر على مهارة لكذا\" أو عند رغبتهم في توسيع القدرات",
"tools.builtins.find-skills.title": "العثور على المهارات",
"tools.builtins.groupName": "المهارات المدمجة",
"tools.builtins.install": "تثبيت",
"tools.builtins.installed": "مثبّت",
"tools.builtins.lobe-activator.description": "اكتشاف وتنشيط الأدوات والمهارات",
"tools.builtins.lobe-activator.title": "منشّط الأدوات والمهارات",
"tools.builtins.lobe-agent-browser.description": "واجهة سطر أوامر لأتمتة المتصفح للوكلاء الذكيين. تُستخدم للمهام التي تتضمن التفاعل مع المواقع أو تطبيقات Electron مثل التنقل، تعبئة النماذج، النقر، التقاط الصور، استخراج البيانات، تدفقات تسجيل الدخول، والاختبارات الشاملة.",
"tools.builtins.lobe-agent-browser.title": "متصفح الوكيل",
"tools.builtins.lobe-agent-builder.description": "إعداد بيانات الوكيل، إعدادات النموذج، الإضافات، والموجه النظامي",
"tools.builtins.lobe-agent-builder.title": "منشئ الوكيل",
"tools.builtins.lobe-agent-documents.description": "إدارة مستندات الوكيل (عرض، إنشاء، قراءة، تعديل، إزالة، إعادة تسمية) وقواعد التحميل",
"tools.builtins.lobe-agent-documents.title": "المستندات",
"tools.builtins.lobe-agent-management.description": "إنشاء الوكلاء وإدارتهم وتنظيم عملهم",
"tools.builtins.lobe-agent-management.title": "إدارة الوكلاء",
"tools.builtins.lobe-artifacts.description": "إنشاء ومعاينة مكونات واجهة المستخدم التفاعلية، وتصوير البيانات، والمخططات، والرسومات بصيغة SVG، وتطبيقات الويب بشكل مباشر. أنشئ محتوى بصريًا غنيًا يمكن للمستخدمين التفاعل معه مباشرة.",
"tools.builtins.lobe-artifacts.readme": "أنشئ معاينات حية وتفاعلية لمكونات واجهة المستخدم، وتصوير البيانات، والمخططات، والرسومات بصيغة SVG، وتطبيقات الويب. أنشئ محتوى بصريًا غنيًا يمكن للمستخدمين التفاعل معه مباشرة.",
"tools.builtins.lobe-artifacts.title": "القطع الفنية",
"tools.builtins.lobe-brief.description": "الإبلاغ عن التقدم، تسليم النتائج، وطلب القرارات من المستخدم",
"tools.builtins.lobe-brief.title": "أدوات المختصر",
"tools.builtins.lobe-calculator.description": "إجراء العمليات الحسابية، حل المعادلات، والعمل مع التعبيرات الرمزية",
"tools.builtins.lobe-calculator.readme": "آلة حاسبة رياضية متقدمة تدعم العمليات الحسابية الأساسية، المعادلات الجبرية، عمليات التفاضل والتكامل، والرياضيات الرمزية. تشمل تحويل القواعد، حل المعادلات، التفاضل، التكامل، وأكثر.",
"tools.builtins.lobe-calculator.title": "آلة حاسبة",
"tools.builtins.lobe-cloud-sandbox.description": "تنفيذ تعليمات برمجية بلغة بايثون، جافاسكريبت، وتايب سكريبت في بيئة سحابية معزولة. شغّل أوامر الصدفة، إدارة الملفات، البحث باستخدام تعبيرات regex، وتصدير النتائج بأمان.",
"tools.builtins.lobe-cloud-sandbox.readme": "نفّذ تعليمات برمجية بلغة Python وJavaScript وTypeScript في بيئة سحابية معزولة. شغّل أوامر الصدفة، وأدر الملفات، وابحث في المحتوى باستخدام regex، وصدّر النتائج بأمان.",
"tools.builtins.lobe-cloud-sandbox.title": "بيئة سحابية تجريبية",
"tools.builtins.lobe-creds.description": "إدارة بيانات اعتماد المستخدم للمصادقة، وحقن متغيرات البيئة، والتحقق من واجهات API — التعامل مع مفاتيح API، رموز OAuth، والأسرار للتكامل مع الخدمات الخارجية.",
"tools.builtins.lobe-creds.title": "بيانات الاعتماد",
"tools.builtins.lobe-cron.description": "إدارة المهام المجدولة التي تعمل تلقائيًا في أوقات محددة. إنشاء، تحديث، تفعيل/تعطيل، ومراقبة المهام المتكررة لوكلائك.",
"tools.builtins.lobe-cron.title": "المهام المجدولة",
"tools.builtins.lobe-group-agent-builder.description": "إعداد بيانات المجموعات، الأعضاء، والمحتوى المشترك لمجموعات الوكلاء متعددة",
"tools.builtins.lobe-group-agent-builder.title": "منشئ وكيل المجموعة",
"tools.builtins.lobe-group-management.description": "تنظيم وإدارة المحادثات الجماعية لوكلاء متعددين",
"tools.builtins.lobe-group-management.title": "إدارة المجموعات",
"tools.builtins.lobe-gtd.description": "خطط للأهداف وتابع التقدم باستخدام منهجية GTD. أنشئ خططًا استراتيجية، وأدر قوائم المهام مع تتبع الحالة، ونفّذ مهام غير متزامنة طويلة الأمد.",
"tools.builtins.lobe-gtd.readme": "خطط لأهدافك وتابع تقدمك باستخدام منهجية GTD. أنشئ خططًا استراتيجية، وأدر قوائم المهام مع تتبع الحالة، ونفّذ المهام غير المتزامنة طويلة الأمد.",
"tools.builtins.lobe-gtd.title": "أدوات GTD",
"tools.builtins.lobe-knowledge-base.description": "البحث في المستندات المرفوعة والمعرفة المتخصصة عبر البحث الدلالي — للرجوع الدائم والقابل لإعادة الاستخدام",
"tools.builtins.lobe-knowledge-base.title": "قاعدة المعرفة",
"tools.builtins.lobe-local-system.description": "الوصول إلى نظام الملفات المحلي على سطح المكتب. قراءة، وكتابة، والبحث، وتنظيم الملفات. تنفيذ أوامر الصدفة مع دعم المهام الخلفية والبحث في المحتوى باستخدام تعبيرات regex.",
"tools.builtins.lobe-local-system.readme": "يمكنك الوصول إلى نظام الملفات المحلي على سطح المكتب. اقرأ، واكتب، وابحث، ونظّم الملفات. نفّذ أوامر الصدفة مع دعم المهام الخلفية وابحث في المحتوى باستخدام أنماط regex.",
"tools.builtins.lobe-local-system.title": "النظام المحلي",
"tools.builtins.lobe-message.description": "إرسال، قراءة، تحرير، وإدارة الرسائل عبر منصات مراسلة متعددة من خلال واجهة موحدة",
"tools.builtins.lobe-message.readme": "أداة مراسلة متعددة المنصات تدعم Discord وTelegram وSlack وGoogle Chat وIRC. توفر واجهات موحدة لعمليات الرسائل، التفاعلات، التثبيت، المواضيع، إدارة القنوات، والميزات الخاصة بكل منصة مثل الاستفتاءات.",
"tools.builtins.lobe-message.title": "الرسائل",
"tools.builtins.lobe-notebook.description": "إنشاء وإدارة مستندات دائمة ضمن مواضيع المحادثة. احفظ الملاحظات، والتقارير، والمقالات، ومحتوى Markdown الذي يبقى متاحًا عبر الجلسات.",
"tools.builtins.lobe-notebook.readme": "أنشئ وادِر مستندات دائمة ضمن مواضيع المحادثة. احفظ الملاحظات، والتقارير، والمقالات، ومحتوى Markdown ليبقى متاحًا عبر الجلسات.",
"tools.builtins.lobe-notebook.title": "دفتر الملاحظات",
"tools.builtins.lobe-page-agent.description": "إنشاء، قراءة، تحديث، وحذف العقد في المستندات ذات البنية XML",
"tools.builtins.lobe-page-agent.readme": "إنشاء وتحرير مستندات منظمة مع تحكم دقيق على مستوى العقد. البدء من Markdown، إجراء عمليات إدراج/تعديل/حذف مجمّعة، والبحث والاستبدال عبر المستندات.",
"tools.builtins.lobe-page-agent.title": "المستند",
"tools.builtins.lobe-remote-device.description": "اكتشاف وإدارة اتصالات أجهزة سطح المكتب البعيدة",
"tools.builtins.lobe-remote-device.readme": "إدارة الاتصالات مع أجهزة سطح المكتب الخاصة بك. عرض الأجهزة المتصلة، تفعيل جهاز للعمليات البعيدة، والتحقق من حالة الاتصال.",
"tools.builtins.lobe-remote-device.title": "جهاز بعيد",
"tools.builtins.lobe-skill-store.description": "تصفح وتثبيت مهارات الوكلاء من سوق LobeHub. استخدم هذا عند حاجتك لقدرات إضافية أو لتثبيت مهارة محددة.",
"tools.builtins.lobe-skill-store.title": "متجر المهارات",
"tools.builtins.lobe-skills.description": "تنشيط واستخدام حزم المهارات القابلة لإعادة الاستخدام",
"tools.builtins.lobe-skills.title": "المهارات",
"tools.builtins.lobe-task.description": "إنشاء، عرض، تحرير، وحذف المهام مع إدارة التبعيات وإعدادات المراجعة",
"tools.builtins.lobe-task.title": "أدوات المهام",
"tools.builtins.lobe-topic-reference.description": "استرجاع السياق من المحادثات المرجعية للمواضيع",
"tools.builtins.lobe-topic-reference.title": "مرجع الموضوع",
"tools.builtins.lobe-user-interaction.description": "طرح الأسئلة على المستخدمين عبر تفاعلات الواجهة ومتابعة نتائج دورة حياتهم",
"tools.builtins.lobe-user-interaction.title": "تفاعل المستخدم",
"tools.builtins.lobe-user-memory.description": "أنشئ قاعدة معرفة مخصصة عنك. تذكّر التفضيلات، وتتبع الأنشطة والتجارب، واحفظ معلومات الهوية، واسترجع السياق المناسب في المحادثات المستقبلية.",
"tools.builtins.lobe-user-memory.readme": "أنشئ قاعدة معرفة مخصصة عنك. تذكّر التفضيلات، وتتبع الأنشطة والتجارب، واحتفظ بمعلومات الهوية، واسترجع السياق المناسب في المحادثات المستقبلية.",
"tools.builtins.lobe-user-memory.title": "الذاكرة",
"tools.builtins.lobe-web-browsing.description": "البحث في الويب للحصول على معلومات حديثة وزحف الصفحات لاستخراج المحتوى. يدعم عدة محركات بحث، فئات، ونطاقات زمنية.",
"tools.builtins.lobe-web-browsing.readme": "البحث في الويب وجمع المعلومات الحديثة وزحف الصفحات لاستخراج المحتوى. يدعم محركات بحث متعددة، فئات، ونطاقات زمنية للبحث الشامل.",
"tools.builtins.lobe-web-browsing.title": "تصفح الويب",
"tools.builtins.lobe-web-onboarding.description": "قيادة عملية الإعداد على الويب ببيئة تشغيل وكيل مُتحكم بها",
"tools.builtins.lobe-web-onboarding.title": "إعداد الويب",
"tools.builtins.lobehub.description": "إدارة منصة LobeHub عبر CLI — قواعد المعرفة، الذاكرة، الوكلاء، الملفات، البحث، التوليد، والمزيد.",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "غير مثبّت",
"tools.builtins.task.description": "إدارة وتنفيذ المهام — إنشاء، تتبع، مراجعة، وإكمال المهام عبر CLI.",
"tools.builtins.task.title": "المهام",
"tools.builtins.uninstall": "إلغاء التثبيت",
"tools.builtins.uninstallConfirm.desc": "هل أنت متأكد أنك تريد إلغاء تثبيت {{name}}؟ سيتم إزالة هذه المهارة من الوكيل الحالي.",
"tools.builtins.uninstallConfirm.title": "إلغاء تثبيت {{name}}",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "هل تريد قطع الاتصال بـ {{name}}؟",
"tools.lobehubSkill.disconnected": "غير متصل",
"tools.lobehubSkill.error": "خطأ",
"tools.lobehubSkill.providers.github.description": "GitHub هو منصة للتحكم بالإصدارات والتعاون، تتيح للمطورين استضافة، مراجعة، وإدارة مستودعات الأكواد.",
"tools.lobehubSkill.providers.github.readme": "اتصل بـ GitHub للوصول إلى مستودعاتك، إنشاء وإدارة القضايا، مراجعة طلبات السحب، والتعاون في الأكواد — وكل ذلك عبر محادثة طبيعية مع مساعدك الذكي.",
"tools.lobehubSkill.providers.linear.description": "Linear هي أداة حديثة لتتبع القضايا وإدارة المشاريع مصممة للفرق عالية الأداء لبناء برمجيات أفضل بشكل أسرع",
"tools.lobehubSkill.providers.linear.readme": "اجلب قوة Linear مباشرة إلى مساعدك الذكي. أنشئ وحدث المشكلات، وأدر السبرينت، وتتبع تقدم المشاريع، وسهّل سير عمل التطوير — كل ذلك من خلال المحادثة الطبيعية.",
"tools.lobehubSkill.providers.microsoft.description": "تقويم Outlook هو أداة جدولة مدمجة ضمن Microsoft Outlook تتيح للمستخدمين إنشاء المواعيد، تنظيم الاجتماعات، وإدارة الوقت والفعاليات بفعالية.",
"tools.lobehubSkill.providers.microsoft.readme": "تكامل مع تقويم Outlook لعرض وإنشاء وإدارة فعالياتك بسلاسة. جدْوِل الاجتماعات، وتحقق من التوفر، واضبط التذكيرات، ونظّم وقتك — كل ذلك باستخدام أوامر اللغة الطبيعية.",
"tools.lobehubSkill.providers.twitter.description": "X (تويتر سابقًا) هي منصة تواصل اجتماعي لمشاركة التحديثات الفورية، الأخبار، والتفاعل مع جمهورك من خلال المنشورات، الردود، والرسائل المباشرة.",
"tools.lobehubSkill.providers.twitter.readme": "اتصل بـ X (تويتر) لنشر التغريدات، وإدارة الجدول الزمني، والتفاعل مع جمهورك. أنشئ المحتوى، وجدول المنشورات، وراقب الإشارات، وابنِ حضورك على وسائل التواصل الاجتماعي من خلال الذكاء الاصطناعي الحواري.",
"tools.lobehubSkill.providers.vercel.description": "Vercel هي منصة سحابية للمطورين الأماميين، توفر الاستضافة والدوال الخادمة لنشر التطبيقات بسهولة.",
"tools.lobehubSkill.providers.vercel.readme": "اتصل بـ Vercel لإدارة عمليات النشر، مراقبة حالة المشاريع، والتحكم في البنية التحتية. انشر التطبيقات، تحقق من سجلات البناء، أدر متغيرات البيئة، ووسع مشاريعك عبر محادثة ذكية.",
"tools.notInstalled": "غير مثبت",
"tools.notInstalledWarning": "هذه المهارة غير مثبتة حاليًا، مما قد يؤثر على وظائف الوكيل.",
"tools.plugins.enabled": "مفعلة: {{num}}",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "الترقية إلى",
"credits.topUp.upgradeSuffix": "لتوفير ${{savings}}",
"credits.topUp.validityInfo": "صالح لمدة {{months}} أشهر",
"crossPlatform.desc": "تم شراء هذا الاشتراك من خلال تطبيق الهاتف المحمول ولا يمكن تعديله هنا. يرجى إدارة اشتراكك على جهازك المحمول.",
"crossPlatform.manageOnMobile": "إدارة على الجهاز المحمول",
"crossPlatform.title": "اشتراك عبر الأنظمة الأساسية",
"currentPlan.cancelAlert": "سيتم إلغاء الاشتراك بعد {{canceledAt}}. لا يزال بإمكانك استعادته من \"إدارة الاشتراك\" قبل ذلك",
"currentPlan.downgradeAlert": "سيتم تخفيض الخطة إلى {{plan}} بعد {{downgradedAt}}.",
"currentPlan.management": "إدارة الاشتراك",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "الإطار الابتدائي",
"config.prompt.placeholder": "صف الفيديو الذي ترغب في إنشائه",
"config.prompt.placeholderWithRef": "وصف المشهد الذي تريد إنشاؤه مع الصورة",
"config.promptExtend.label": "توسيع المطالبة",
"config.referenceImage.label": "صورة مرجعية",
"config.resolution.label": "الدقة",
"config.seed.label": "البذرة",
"config.seed.random": "عشوائي",
"config.size.label": "الحجم",
"config.watermark.label": "علامة مائية",
"config.webSearch.label": "البحث في الويب",
"generation.actions.copyError": "نسخ رسالة الخطأ",
"generation.actions.errorCopied": "تم نسخ رسالة الخطأ إلى الحافظة",
"generation.actions.errorCopyFailed": "فشل في نسخ رسالة الخطأ",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "Ботът е успешно свързан",
"channel.connecting": "Свързване...",
"channel.connectionConfig": "Конфигурация на връзката",
"channel.connectionMode": "Режим на свързване",
"channel.connectionModeHint": "WebSocket се препоръчва за нови ботове. Използвайте Webhook, ако вашият бот вече има конфигуриран callback URL в платформата QQ Open Platform.",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "Копирано в клипборда",
"channel.copy": "Копирай",
"channel.credentials": "Удостоверения",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Моля, копирайте този URL и го поставете в полето <bold>{{fieldName}}</bold> в {{name}} Developer Portal.",
"channel.exportConfig": "Експортиране на конфигурация",
"channel.feishu.description": "Свържете този асистент с Feishu за лични и групови чатове.",
"channel.feishu.webhookMigrationDesc": "Режимът WebSocket осигурява доставяне на събития в реално време без необходимост от публичен callback URL. За миграция превключете режима на свързване към WebSocket в Разширени настройки. Не е необходима допълнителна конфигурация в Feishu/Lark Open Platform.",
"channel.feishu.webhookMigrationTitle": "Обмислете миграция към режим WebSocket",
"channel.historyLimit": "Лимит на съобщенията в историята",
"channel.historyLimitHint": "По подразбиране брой съобщения за извличане при четене на историята на канала",
"channel.importConfig": "Импортиране на конфигурация",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Задължително за проверка на взаимодействия",
"channel.qq.appIdHint": "Вашият QQ Bot App ID от QQ Open Platform",
"channel.qq.description": "Свържете този асистент с QQ за групови чатове и директни съобщения.",
"channel.qq.webhookMigrationDesc": "Режимът WebSocket осигурява доставяне на събития в реално време и автоматично повторно свързване без необходимост от callback URL. За миграция създайте нов бот в QQ Open Platform без да конфигурирате callback URL, след което превключете режима на свързване към WebSocket в Разширени настройки.",
"channel.qq.webhookMigrationTitle": "Обмислете миграция към режим WebSocket",
"channel.removeChannel": "Премахване на канал",
"channel.removeFailed": "Неуспешно премахване на канала",
"channel.removed": "Каналът е премахнат",
@ -93,7 +101,11 @@
"channel.signingSecret": "Тайна за подписване",
"channel.signingSecretHint": "Използва се за проверка на заявки към уебхук.",
"channel.slack.appIdHint": "Вашият Slack App ID от таблото за управление на Slack API (започва с A).",
"channel.slack.appToken": "Токен на ниво приложение",
"channel.slack.appTokenHint": "Задължителен за Socket Mode (WebSocket). Генерирайте токен на ниво приложение (xapp-...) в секцията Basic Information в настройките на вашето Slack приложение.",
"channel.slack.description": "Свържете този асистент със Slack за разговори в канали и директни съобщения.",
"channel.slack.webhookMigrationDesc": "Socket Mode осигурява доставяне на събития в реално време чрез WebSocket без да изисква публичен HTTP endpoint. За миграция активирайте Socket Mode в настройките на вашето Slack приложение, генерирайте токен на ниво приложение, след което превключете режима на свързване към WebSocket в Разширени настройки.",
"channel.slack.webhookMigrationTitle": "Обмислете миграция към Socket Mode (WebSocket)",
"channel.telegram.description": "Свържете този асистент с Telegram за лични и групови чатове.",
"channel.testConnection": "Тестване на връзката",
"channel.testFailed": "Тестът на връзката неуспешен",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Групата е изтрита успешно",
"confirmRemoveSessionItemAlert": "Ще изтриете този агент. След изтриване, той не може да бъде възстановен. Моля, потвърдете действието си.",
"confirmRemoveSessionSuccess": "Агентът е премахнат успешно",
"createModal.createBlank": "Създай празен",
"createModal.groupPlaceholder": "Опишете какво трябва да прави тази група...",
"createModal.groupTitle": "Какво трябва да прави вашата група?",
"createModal.placeholder": "Опишете какво трябва да прави вашият агент...",
"createModal.title": "Какво трябва да прави вашият агент?",
"defaultAgent": "Агент по подразбиране",
"defaultGroupChat": "Група",
"defaultList": "Списък по подразбиране",
@ -229,6 +234,7 @@
"operation.contextCompression": "Контекстът е твърде дълъг, компресиране на историята...",
"operation.execAgentRuntime": "Подготвяне на отговор",
"operation.execClientTask": "Изпълнение на задача",
"operation.execServerAgentRuntime": "Работи… Можете да превключите задачи или да затворите страницата — задачата ще продължи.",
"operation.sendMessage": "Изпращане на съобщение",
"owner": "Собственик на групата",
"pageCopilot.title": "Агент на страницата",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Извличане на подробности...",
"task.status.initializing": "Инициализиране на задачата...",
"task.subtask": "Подзадача",
"task.title": "Задачи",
"thread.divider": "Подтема",
"thread.threadMessageCount": "{{messageCount}} съобщения",
"thread.title": "Подтема",
@ -429,9 +436,11 @@
"toolAuth.title": "Упълномощи уменията за този агент",
"topic.checkOpenNewTopic": "Да започнем нова тема?",
"topic.checkSaveCurrentMessages": "Искате ли да запазите текущия разговор като тема?",
"topic.defaultTitle": "Неозаглавена тема",
"topic.openNewTopic": "Отвори нова тема",
"topic.recent": "Скорошни теми",
"topic.saveCurrentMessages": "Запази текущата сесия като тема",
"topic.viewAll": "Виж всички теми",
"translate.action": "Преведи",
"translate.clear": "Изчисти превода",
"tts.action": "Текст към реч",

View file

@ -343,10 +343,19 @@
"mail.support": "Имейл поддръжка",
"more": "Още",
"navPanel.agent": "Агент",
"navPanel.customizeSidebar": "Персонализиране на страничната лента",
"navPanel.displayItems": "Показвани елементи",
"navPanel.hidden": "Скрито",
"navPanel.hideSection": "Скриване на раздел",
"navPanel.library": "Библиотека",
"navPanel.moveDown": "Преместване надолу",
"navPanel.moveUp": "Преместване нагоре",
"navPanel.pinned": "Закачено",
"navPanel.searchAgent": "Търсене на агент...",
"navPanel.searchRecent": "Търсене в скорошни...",
"navPanel.searchResultEmpty": "Няма намерени резултати",
"navPanel.show": "Показване",
"navPanel.visible": "Видимо",
"new": "Нов",
"noContent": "Няма съдържание",
"oauth": "SSO вход",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "Подкрепете ни",
"productHunt.description": "Подкрепете ни в Product Hunt. Вашата подкрепа означава много за нас!",
"productHunt.title": "Ние сме в Product Hunt!",
"promptTransform.action": "Усъвършенстване на идеята",
"promptTransform.actions.rewrite": "Разширяване на подробностите",
"promptTransform.actions.translate": "Превод",
"promptTransform.status.rewrite": "Разширяване на подробностите...",
"promptTransform.status.translate": "Превеждане...",
"recents": "Скорошни",
"regenerate": "Генерирай отново",
"releaseNotes": "Детайли за версията",
"rename": "Преименувай",
@ -400,6 +415,7 @@
"tab.audio": "Аудио",
"tab.chat": "Чат",
"tab.community": "Общност",
"tab.create": "Създаване",
"tab.discover": "Открий",
"tab.eval": "Оценителна лаборатория",
"tab.files": "Файлове",

View file

@ -12,6 +12,7 @@
"config.model.label": "Модел",
"config.prompt.placeholder": "Опишете какво искате да генерирате",
"config.prompt.placeholderWithRef": "Опишете как искате да промените изображението",
"config.promptExtend.label": "Разширяване на подсказката",
"config.quality.label": "Качество на изображението",
"config.quality.options.hd": "Висока резолюция",
"config.quality.options.standard": "Стандартно",
@ -24,6 +25,8 @@
"config.size.label": "Размер",
"config.steps.label": "Стъпки",
"config.title": "Конфигурация",
"config.watermark.label": "Воден знак",
"config.webSearch.label": "Уеб търсене",
"config.width.label": "Ширина",
"generation.actions.applySeed": "Приложи сийд",
"generation.actions.copyError": "Копирай съобщението за грешка",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Групиране на съобщенията от агента и резултатите от извикванията на инструменти заедно за показване",
"features.assistantMessageGroup.title": "Групиране на съобщения от агент",
"features.gatewayMode.desc": "Изпълнявайте задачите на агента на сървъра чрез Gateway WebSocket вместо локално. Осигурява по-бързо изпълнение и намалява използването на ресурси от клиента.",
"features.gatewayMode.title": "Изпълнение на агента от страна на сървъра (Gateway)",
"features.groupChat.desc": "Активиране на координация в групов чат с множество агенти.",
"features.groupChat.title": "Групов чат (многоагентен)",
"features.inputMarkdown.desc": "Реално време визуализация на Markdown в полето за въвеждане (удебелен текст, кодови блокове, таблици и др.).",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Водещ модел в Китай, надминаващ основни чуждестранни модели при китайски задачи като знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности с отлични резултати на авторитетни бенчмаркове.",
"Baichuan4.description": "Водещо вътрешно представяне, надминаващо водещи чуждестранни модели при китайски задачи като енциклопедични знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности и силни резултати на бенчмаркове.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS е семейство от отворени LLM модели от ByteDance Seed, проектирани за силна обработка на дълъг контекст, логическо мислене, агентни и общи способности. Seed-OSS-36B-Instruct е 36B модел, настроен за инструкции, с вграден ултра-дълъг контекст за обработка на големи документи или кодови бази. Оптимизиран е за логическо мислене, генериране на код и агентни задачи (използване на инструменти), като същевременно запазва силни общи способности. Ключова характеристика е \"Бюджет за мислене\", позволяващ гъвкава дължина на разсъждение за подобрена ефективност.",
"DeepSeek-OCR.description": "DeepSeek-OCR е мултимоделен модел на DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Той изследва техники за компресиране на контекст от изображения, обработва документи ефективно и ги преобразува в структуриран текст (например Markdown). Точно разпознава текст в изображения и е подходящ за дигитализация на документи, извличане на текст и структурирана обработка.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, по-големият и по-интелигентен модел от серията DeepSeek, е дистилиран в архитектурата Llama 70B. Бенчмаркове и човешки оценки показват, че е по-умен от базовия Llama 70B, особено при задачи по математика и точност на фактите.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Дистилиран модел DeepSeek-R1, базиран на Qwen2.5-Math-1.5B. Подсилващо обучение и cold-start данни оптимизират логическата производителност, поставяйки нови мултизадачни бенчмаркове за отворени модели.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Моделите DeepSeek-R1-Distill са фино настроени от отворени модели с помощта на примерни данни, генерирани от DeepSeek-R1.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Доставчик: sophnet. DeepSeek V3 Fast е високоскоростната версия на DeepSeek V3 0324, с пълна прецизност (без квантизация), по-силен при програмиране и математика и по-бързи отговори.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast е високоскоростният вариант на DeepSeek V3.1. Хибриден режим на мислене: чрез шаблони за чат, един модел поддържа както мислещ, така и немислещ режим. По-умно използване на инструменти: оптимизации след обучение подобряват производителността при задачи с инструменти и агенти.",
"DeepSeek-V3.1-Think.description": "Режим на мислене на DeepSeek-V3.1: нов хибриден модел за разсъждение с мислещ и немислещ режим, по-ефективен от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и производителността при агентни задачи.",
"DeepSeek-V3.2.description": "deepseek-v3.2 въвежда механизъм за разредено внимание, който подобрява ефективността при обучение и инференция при обработка на дълги текстове, като е по-евтин от deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 е MoE модел, разработен от DeepSeek. Надминава други отворени модели като Qwen2.5-72B и Llama-3.1-405B в много бенчмаркове и е конкурентен с водещи затворени модели като GPT-4o и Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 128K контекст за извеждане и фина настройка.",
"Doubao-lite-32k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 32K контекст за извеждане и фина настройка.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Високопроизводителен модел за разсъждения, програмиране и задачи с агенти.",
"GLM-4.6.description": "GLM-4.6: Модел от предишно поколение.",
"GLM-4.7.description": "GLM-4.7 е най-новият водещ модел на Zhipu, подобрен за сценарии на агентно програмиране с усъвършенствани възможности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти.",
"GLM-5-Turbo.description": "GLM-5-Turbo: Оптимизирана версия на GLM-5 с по-бързо извеждане за задачи по програмиране.",
"GLM-5-Turbo.description": "GLM-5-Turbo е базов модел, силно оптимизиран за агентни сценарии. Той е специално трениран за основните изисквания на агентните задачи, подобрявайки ключови способности като извикване на инструменти, следване на команди и изпълнение на дълги вериги от действия. Идеален е за изграждане на високопроизводителни агентни асистенти.",
"GLM-5.1.description": "GLM-5.1 е най-новият флагмански модел на Zhipu, подобрена версия на GLM-5 с усъвършенствани възможности за агентно инженерство за сложни системни инженерни задачи и задачи с дълъг хоризонт.",
"GLM-5.description": "GLM-5 е водещ модел от следващо поколение на Zhipu, създаден за агентно инженерство. Той осигурява надеждна продуктивност в сложни системни инженерни задачи и дългосрочни агентни задачи. В областта на програмирането и агентните способности GLM-5 постига най-добри резултати сред моделите с отворен код.",
"GLM-5.description": "GLM-5 е следващото флагманско поколение базови модели на Zhipu, създадено за Agentic Engineering. Осигурява надеждна продуктивност при сложни системни разработки и дългосрочни агентни задачи. В кодирането и агентните способности GLM-5 постига водещи резултати сред отворените модели. В реални програмни сценарии потребителското му изживяване се доближава до това на Claude Opus 4.5. Отличава се при сложни системни инженерни задачи и дълги агентни процеси, което го прави идеална основа за универсални агентни асистенти.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) е иновативен модел за разнообразни области и сложни задачи.",
"HY-Image-V3.0.description": "Мощни възможности за извличане на характеристики от оригиналното изображение и запазване на детайлите, предоставящи по-богата визуална текстура и създаващи високоточни, добре композирани, продукционни визуализации.",
"HelloMeme.description": "HelloMeme е AI инструмент, който генерира мемета, GIF-ове или кратки видеа от предоставени изображения или движения. Не изисква умения за рисуване или програмиране — само референтно изображение — за създаване на забавно, атрактивно и стилово консистентно съдържание.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter е модел за персонализирано генериране на персонажи без нужда от настройка, пуснат от Tencent AI през 2025 г., насочен към висок реализъм и консистентност на персонажа в различни сценарии. Може да моделира персонаж от едно референтно изображение и гъвкаво да го прехвърля между стилове, действия и фонове.",
"InternVL2-8B.description": "InternVL2-8B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
"InternVL2.5-26B.description": "InternVL2.5-26B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
"KAT-Coder-Air-V1.description": "Лек модел от серията KAT-Coder. Специално създаден за Agentic Coding, покрива широк спектър от програмни задачи и сценарии. Благодарение на мащабно обучение с подсилване върху агентни методи, развива интелигентно поведение и значително превъзхожда подобни модели в производителността при програмиране.",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B е експерименталната версия с RL иновации в серията KAT-Coder, постигайки забележителни 74.6% на бенчмарка SWE-Bench Verified — нов рекорд за отворени модели. Фокусира се върху Agentic Coding и към момента поддържа само SWE-Agent структурата, но може да се използва и за прости разговори.",
"KAT-Coder-Pro-V1.description": "Създаден за Agentic Coding, покрива комплексно програмни задачи и сценарии, като постига интелигентно поведение чрез мащабно обучение с подсилване и значително превъзхожда сходни модели в производителността при писане на код.",
"KAT-Coder-Pro-V2.description": "Най-новият високопроизводителен модел на екипа Kwaipilot на Kuaishou, създаден за сложни корпоративни проекти и SaaS интеграции. Отличава се в сценарии, свързани с код, и е съвместим с различни агентни рамки (Claude Code, OpenCode, KiloCode), поддържа OpenClaw нативно и е специално оптимизиран за естетика на фронт-енд страници.",
"Kimi-K2.5.description": "Kimi K2.5 е най-способният модел от серията Kimi, постигащ водещи резултати при агентни задачи, програмиране и визуално разбиране. Поддържа мултимодални входове и режими с мислене и без мислене.",
"Kolors.description": "Kolors е модел за преобразуване на текст в изображение, разработен от екипа на Kuaishou Kolors. Обучен с милиарди параметри, той има значителни предимства във визуалното качество, разбиране на китайски семантики и визуализиране на текст.",
"Kwai-Kolors/Kolors.description": "Kolors е мащабен латентен дифузионен модел за преобразуване на текст в изображение от екипа на Kuaishou Kolors. Обучен върху милиарди двойки текст-изображение, той се отличава с високо визуално качество, точност при сложни семантики и визуализиране на китайски/английски текст, с отлично разбиране и генериране на китайско съдържание.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) е модел с отворен код за задачи в софтуерното инженерство. Постига 62.4% успеваемост в SWE-Bench Verified, класирайки се на 5-то място сред отворените модели. Оптимизиран чрез междинно обучение, SFT и RL за допълване на код, отстраняване на грешки и преглед на код.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Модерен малък езиков модел с отлично езиково разбиране, логическо мислене и генериране на текст.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много по-ниска цена. Базиран е на трансформерна архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и надминава много отворени и затворени модели на индустриални бенчмаркове. Граница на знанието: декември 2023 г.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick е голям MoE модел с ефективна активация на експерти за силна логическа производителност.",
"MiMo-V2-Pro.description": "MiMo-V2-Pro е специално създаден за високонатоварени агентни работни процеси в реални условия. Разполага с над 1 трилион параметъра (42B активирани), използва хибридна архитектура за внимание и поддържа ултра-дълъг контекст до 1 милион токена. Изграден върху мощен базов модел, той непрекъснато разширява изчислителните възможности за по-широк набор агентни сценарии, увеличава действията, които интелигентността може да изпълнява, и постига значима генерализация — от програмиране до изпълнение на реални задачи („claw“).",
"MiniMax-Hailuo-02.description": "Моделът за видео генериране от следващо поколение, MiniMax Hailuo 02, е официално пуснат, поддържащ резолюция 1080P и генериране на видеа с продължителност 10 секунди.",
"MiniMax-Hailuo-2.3-Fast.description": "Чисто нов модел за видео генериране с цялостни подобрения в движенията на тялото, физическата реалистичност и следването на инструкции.",
"MiniMax-Hailuo-2.3.description": "Чисто нов модел за видео генериране с цялостни подобрения в движенията на тялото, физическата реалистичност и следването на инструкции.",
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
"MiniMax-M2.1-Lightning.description": "Мощни многоезични програмни възможности с по-бързо и ефективно извеждане.",
"MiniMax-M2.1-highspeed.description": "Мощни многоезични програмни възможности, цялостно подобрено програмиране. По-бързо и по-ефективно.",
"MiniMax-M2.1.description": "MiniMax-M2.1 е водеща отворена голяма езикова система от MiniMax, фокусирана върху решаването на сложни реални задачи. Основните ѝ предимства са възможностите за програмиране на множество езици и способността да действа като агент за решаване на сложни задачи.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Същата производителност като M2.5, но с по-бързо извеждане.",
"MiniMax-M2.5.description": "MiniMax-M2.5 е водещ модел с отворен код от MiniMax, фокусиран върху решаването на сложни реални задачи. Основните му предимства са мултиезиковите програмни възможности и способността да решава сложни задачи като агент.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Същата производителност като M2.7, но със значително по-бързо извеждане.",
"MiniMax-M2.7.description": "MiniMax M2.7: Начало на пътя към рекурсивно самоусъвършенстване, водещи инженерни способности в реалния свят.",
"MiniMax-M2.7.description": "Първият самоеволюиращ се модел с висок клас производителност при програмиране и агентни задачи (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Модел от предишно поколение.",
"MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е модел за хибридно внимание с отворени тегла, съдържащ 456 милиарда общи параметри и ~45.9 милиарда активни на токен. Той поддържа контекст от 1 милион токена и използва Flash Attention за намаляване на FLOPs с 75% при генериране на 100K токена спрямо DeepSeek R1. С архитектура MoE плюс CISPO и обучение с хибридно внимание RL, той постига водещи резултати в задачи за дългосрочно разсъждение и реално софтуерно инженерство.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 е най-новият и най-мощен модел от серията Kimi K2. Това е MoE модел от най-висок клас с 1T общо и 32B активни параметъра. Основните му предимства включват по-силна агентна интелигентност при програмиране с значителни подобрения в бенчмаркове и реални задачи, както и подобрена естетика и използваемост на фронтенд кода.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo е ускорен вариант, оптимизиран за скорост на разсъждение и пропускателна способност, като запазва многoетапното разсъждение и използване на инструменти от K2 Thinking. Това е MoE модел с ~1T общи параметри, роден 256K контекст и стабилно мащабируемо извикване на инструменти за производствени сценарии с по-строги изисквания за латентност и едновременност.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 е отворен мултимодален агентен модел, базиран на Kimi-K2-Base, обучен върху приблизително 1.5 трилиона смесени визуални и текстови токени. Моделът използва MoE архитектура с общо 1T параметри и 32B активни параметри, поддържа контекстен прозорец от 256K и безпроблемно интегрира визуално и езиково разбиране.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 е следващо поколение флагмански модел, създаден за агентно инженерство, използващ архитектура Mixture of Experts (MoE) с 754B параметъра. Значително подобрява програмните способности, постигайки водещи резултати на SWE-Bench Pro, и превъзхожда предшественика си на NL2Repo и Terminal-Bench 2.0. Създаден за дълги агентни процеси, обработва неясни въпроси с по-добра преценка, разбива сложни задачи, изпълнява експерименти, анализира резултати и оптимизира решенията чрез стотици итерации и хиляди извиквания на инструменти.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 е новото поколение водещ модел на Zhipu с 355 милиарда общи параметри и 32 милиарда активни параметри, напълно обновен за общ диалог, разсъждения и агентни способности. GLM-4.7 подобрява преплетеното мислене и въвежда запазено мислене и мислене на ниво завой.",
"Pro/zai-org/glm-5.description": "GLM-5 е следващото поколение голям езиков модел на Zhipu, фокусиран върху сложното системно инженерство и задачи на агенти с дълга продължителност. Параметрите на модела са разширени до 744 милиарда (40 милиарда активни) и интегрират DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобряване на разсъждението.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 е оптимизиран за напреднало разсъждение и следване на инструкции, използвайки MoE за ефективно мащабиране на разсъждението.",
"Qwen3-235B.description": "Qwen3-235B-A22B е MoE модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват безпроблемно между мислещ и немислещ режим. Поддържа разбиране и разсъждение на 119 езика и диалекта и има силни възможности за извикване на инструменти, конкурирайки се с водещи модели като DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro в бенчмаркове за общи способности, програмиране и математика, многоезичност и логическо разсъждение.",
"Qwen3-32B.description": "Qwen3-32B е плътен модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват между мислещ и немислещ режим. С архитектурни подобрения, повече данни и по-добро обучение, той се представя наравно с Qwen2.5-72B.",
"Qwen3.5-Plus.description": "Qwen3.5 Plus поддържа текст, изображения и видео. Представянето му при чисто текстови задачи е сравнимо с Qwen3 Max, но е по-ефективно и по-евтино. Мултимодалните му способности са значително подобрени спрямо серията Qwen3 VL.",
"S2V-01.description": "Основният модел за преобразуване на референция във видео от серията 01.",
"SenseChat-128K.description": "Базов модел V4 с контекст от 128K, силен в разбиране и генериране на дълги текстове.",
"SenseChat-32K.description": "Базов модел V4 с контекст от 32K, гъвкав за различни сценарии.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и интелигентен модел Haiku на Anthropic, с мълниеносна скорост и разширено мислене.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и интелигентен модел Haiku на Anthropic, отличаващ се със светкавична скорост и разширени способности за разсъждение.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 е най-бързият и най-умен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способният модел на Anthropic за силно комплексни задачи, превъзхождащ по производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително комплексни задачи, предоставящ върхова производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и програмиране.",
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.5.description": "Claude Opus 4.5 е водещият модел на Anthropic, съчетаващ първокласен интелект с мащабируемо представяне за сложни задачи с високо качество на разсъжденията.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено мислене стъпка по стъпка с фино управление за API потребители.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширени стъпкови разсъждения с видим мисловен процес.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 предлага най-добрия баланс между скорост и интелигентност.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено стъпка по стъпка разсъждение, което потребителите могат да видят. Потребителите на API могат фино да контролират колко дълго моделът разсъждава.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.",
"deepseek-chat.description": "DeepSeek V3.2 балансира разсъжденията и дължината на изхода за ежедневни задачи за въпроси и отговори и агенти. Публичните бенчмаркове достигат нива на GPT-5, и това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на агенти с отворен код.",
"deepseek-chat.description": "Нов модел с отворен код, комбиниращ общи и програмни способности. Запазва диалоговите възможности на чат моделите и силното програмиране на coder моделите, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също подобрява писането и следването на инструкции.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking е модел за дълбоко разсъждение, който генерира верига от мисли преди изходите за по-висока точност, с топ резултати в конкуренцията и разсъждения, сравними с Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Режимът за мислене на DeepSeek V3.2 извежда вериги от разсъждения преди крайния отговор за по-висока точност.",
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
"ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, създаден от екипа Seed на ByteDance, поддържа редактиране и композиция на множество изображения. Характеризира се с подобрена консистенция на обектите, прецизно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на плакати и дизайн на лого с високопрецизно рендиране на текст и изображения.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа текстови и визуални входове за силно контролируемо, висококачествено генериране на изображения от подсказки.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ текстови и визуални входове и предлагаш висококачествен, силно контролиран визуален резултат. Генерира изображения по текстови описания.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, ротация и други.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа Qwen със силно рендиране на текст на китайски и разнообразни визуални стилове.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени промени като трансфер на стил и завъртане на обекти.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen, отличаващ се с впечатляващо качествено изобразяване на китайски текст и разнообразни визуални стилове.",
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 14 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
"flux-dev.description": "Модел за генериране на изображения с отворен код, оптимизиран за неконкурентни изследвания и иновации.",
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
"flux-kontext-pro.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
"flux-merged.description": "FLUX.1 [обединен] комбинира дълбоките функции, изследвани в \"DEV\", с високоскоростните предимства на \"Schnell\", разширявайки границите на производителността и разширявайки приложенията.",
"flux-pro-1.1-ultra.description": "Генериране на изображения с ултра висока резолюция и изход от 4MP, създаващ ясни изображения за 10 секунди.",
"flux-pro-1.1.description": "Подобрен професионален модел за генериране на изображения с отлично качество и прецизно следване на подсказки.",
"flux-pro.description": "Висококласен търговски модел за генериране на изображения с несравнимо качество и разнообразие на изхода.",
"flux-schnell.description": "FLUX.1 [schnell] е най-усъвършенстваният отворен модел с малко стъпки, надминаващ подобни конкуренти и дори силни недестилирани модели като Midjourney v6.0 и DALL-E 3 (HD). Фино настроен е да запази разнообразието от предварително обучение, значително подобрявайки визуалното качество, следването на инструкции, вариациите в размер/съотношение, обработката на шрифтове и разнообразието на изхода.",
"flux.1-schnell.description": "FLUX.1-schnell е високопроизводителен модел за генериране на изображения с бърз изход в различни стилове.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) осигурява стабилна и настройваема производителност за комплексни задачи.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) предлага силна мултимодална поддръжка за комплексни задачи.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google, който също поддържа мултимодален диалог.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът за генериране на изображения на Google, който също поддържа мултимодален чат.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения и поддържа мултимодален чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) предлага качество на изображения от професионално ниво с Flash скорост и поддръжка на мултимодален чат.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият нативен модел на Google за генериране на изображения, с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview е най-икономичният мултимодален модел на Google, оптимизиран за задачи с голям обем, превод и обработка на данни.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.",
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
"jina-deepsearch-v1.description": "DeepSearch комбинира уеб търсене, четене и разсъждение за задълбочени изследвания. Представете си го като агент, който поема вашата изследователска задача, извършва широки търсения с множество итерации и едва след това предоставя отговор. Процесът включва непрекъснато проучване, разсъждение и многопластово решаване на проблеми, коренно различен от стандартните LLM, които отговарят въз основа на предварително обучение или традиционни RAG системи, разчитащи на еднократно повърхностно търсене.",
"k2p5.description": "Kimi K2.5 е най-гъвкавият модел на Kimi досега, с вградена мултимодална архитектура, която поддържа както визуални, така и текстови входове, режими на 'мислене' и 'немислене', както и както разговорни, така и агентски задачи.",
"kimi-k2-0711-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлага прозорец на контекста от 256k, по-силно агентно програмиране, по-добро качество на front-end код и подобрено разбиране на контекста.",
"kimi-k2-instruct.description": "Kimi K2 Instruct е официалният модел за разсъждение на Kimi с дълъг контекст за код, въпроси и отговори и други.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при трудни задачи. QwQ-32B е среден по размер модел, който се конкурира с водещи модели като DeepSeek-R1 и o1-mini.",
"qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.",
"r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа преобразуване на текст във видео, изображение във видео (първи кадър, първи+последен кадър) и генериране на аудио, синхронизирано с визуализациите.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus предлага генериране, обогатено с уеб извличане за реална информация, подобрена интерпретация на сложни подсказки и подобрена консистентност на референциите за професионално визуално създаване.",
"solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.",
"solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.",
"solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 е нашият нов мощен модел за генериране на медии, генериращ видеа със синхронизиран звук. Той може да създава богато детайлизирани, динамични клипове от естествен език или изображения.",
"spark-x.description": "Преглед на възможностите на X2: 1. Въвежда динамично регулиране на режима на разсъждение, контролирано чрез полето `thinking`. 2. Разширена дължина на контекста: 64K входни токени и 128K изходни токени. 3. Поддържа функционалност за извикване на функции.",
"stable-diffusion-3-medium.description": "Най-новият модел за преобразуване на текст в изображение от Stability AI. Тази версия значително подобрява качеството на изображенията, разбирането на текст и стиловото разнообразие, като по-точно интерпретира сложни естественоезикови заявки и генерира по-прецизни и разнообразни изображения.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo използва adversarial diffusion distillation (ADD) върху stable-diffusion-3.5-large за по-висока скорост.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large е текст-към-изображение модел MMDiT с 800 милиона параметъра, предлагащ отлично качество и съответствие с подадените инструкции, поддържащ изображения с резолюция 1 мегапиксел и ефективна работа на потребителски хардуер.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 е инициализиран от контролна точка v1.2 и фино настроен за 595 хиляди стъпки върху „laion-aesthetics v2 5+“ при резолюция 512x512, като намалява влиянието на текстовото условие с 10% за подобрено семплиране без класификатор.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo е фокусиран върху висококачествено генериране на изображения с отлична детайлност и вярност на сцените.",
"stable-diffusion-xl-base-1.0.description": "Модел с отворен код за генериране на изображения от текст от Stability AI, предлагащ водещо в индустрията творческо качество. Притежава силно разбиране на инструкции и поддържа обратни дефиниции на подканите за прецизно генериране.",
"stable-diffusion-xl.description": "stable-diffusion-xl предлага значителни подобрения спрямо v1.5 и съответства на водещите отворени модели за генериране на изображения от текст. Подобренията включват 3 пъти по-голям UNet гръбнак, модул за прецизиране за по-добро качество на изображенията и по-ефективни техники на обучение.",
"step-1-128k.description": "Баланс между производителност и разходи за общи сценарии.",
"step-1-256k.description": "Обработка на изключително дълъг контекст, идеална за анализ на дълги документи.",
"step-1-32k.description": "Поддържа разговори със средна дължина за широк спектър от приложения.",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} параметъра общо",
"arguments.title": "Аргументи",
"builtins.lobe-activator.apiName.activateTools": "Активиране на инструменти",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} не са намерени",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Извличане на налични модели",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Извличане на налични умения",
"builtins.lobe-agent-builder.apiName.getConfig": "Извличане на конфигурация",

View file

@ -33,7 +33,6 @@
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
"kimicodingplan.description": "Kimi Code от Moonshot AI предоставя достъп до модели Kimi, включително K2.5, за задачи, свързани с програмиране.",
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
"lobehub.description": "LobeHub Cloud използва официални API за достъп до AI модели и измерва използването с Кредити, свързани с токени на модела.",
"longcat.description": "LongCat е серия от големи модели за генеративен AI, независимо разработени от Meituan. Той е създаден да подобри вътрешната продуктивност на предприятието и да позволи иновативни приложения чрез ефективна изчислителна архитектура и силни мултимодални възможности.",
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan предоставя достъп до модели MiniMax, включително M2.7, за задачи, свързани с програмиране, чрез абонамент с фиксирана такса.",
@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark предоставя мощен многоезичен AI в различни области, позволявайки иновации в умния хардуер, здравеопазването, финансите и други вертикали.",
"stepfun.description": "Моделите на Stepfun предлагат водещи мултимодални и сложни разсъждателни възможности, с разбиране на дълъг контекст и мощна автономна координация на търсене.",
"straico.description": "Straico опростява интеграцията на изкуствения интелект, като предоставя унифицирано работно пространство, което обединява водещи модели за генериране на текст, изображения и аудио, давайки възможност на маркетолози, предприемачи и ентусиасти за лесен достъп до разнообразни AI инструменти.",
"streamlake.description": "StreamLake е корпоративна платформа за модели и AI изчислителен облак, която обединява високопроизводителна инференция на модели, нискобюджетна персонализация на модели и напълно управлявани услуги, за да помогне на предприятията да се съсредоточат върху иновациите в AI приложенията, без да се притесняват за сложността и разходите на базовите изчислителни ресурси.",
"taichu.description": "Модел от ново поколение от CASIA и Института по AI в Ухан, поддържащ многократни въпроси и отговори, писане, генериране на изображения, 3D разбиране и анализ на сигнали с по-силна когниция и креативност.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power предоставя цялостни решения за въпроси и отговори за предприятия и разработчици, с модулни услуги като анализ на документи, сегментиране, вграждания и многократна пренаписка за изграждане на персонализирани AI решения.",
"togetherai.description": "Together AI предлага водеща производителност с иновативни модели, широка персонализация, бързо мащабиране и лесно внедряване за нуждите на предприятията.",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "Системни инструменти",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - бърз инструмент за търсене в код",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI за автоматизация на браузъра без графичен интерфейс за AI агенти",
"settingSystemTools.tools.bun.desc": "Bun бърза JavaScript среда за изпълнение и мениджър на пакети",
"settingSystemTools.tools.bunx.desc": "bunx инструмент на Bun за изпълнение на npm пакети",
"settingSystemTools.tools.fd.desc": "fd - бърза и удобна алтернатива на find",
"settingSystemTools.tools.find.desc": "Unix find - стандартна команда за търсене на файлове",
"settingSystemTools.tools.grep.desc": "GNU grep - стандартен инструмент за търсене в текст",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI управлявайте и свързвайте услуги на LobeHub",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight търсене (бързо индексирано търсене)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript среда за изпълнение за JS/TS",
"settingSystemTools.tools.npm.desc": "npm - мениджър на пакети Node.js за инсталиране на зависимости",
"settingSystemTools.tools.pnpm.desc": "pnpm бърз и ефективен по отношение на дисковото пространство мениджър на пакети",
"settingSystemTools.tools.python.desc": "Python - среда за изпълнение на езика за програмиране",
"settingSystemTools.tools.rg.desc": "ripgrep - изключително бърз инструмент за търсене в текст",
"settingSystemTools.tools.uv.desc": "uv изключително бърз мениджър на Python пакети",
"settingTTS.openai.sttModel": "OpenAI модел за разпознаване на реч",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI модел за преобразуване на текст в реч",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Модел",
"systemAgent.inputCompletion.modelDesc": "Модел, използван за предложения за автоматично довършване на въвеждане (като призрачния текст на GitHub Copilot)",
"systemAgent.inputCompletion.title": "Агент за автоматично довършване на въвеждане",
"systemAgent.promptRewrite.label": "Модел",
"systemAgent.promptRewrite.modelDesc": "Определете модела, използван за пренаписване на подсказки",
"systemAgent.promptRewrite.title": "Агент за пренаписване на подсказки",
"systemAgent.queryRewrite.label": "Модел",
"systemAgent.queryRewrite.modelDesc": "Посочете модел за оптимизиране на потребителски заявки",
"systemAgent.queryRewrite.title": "Агент за пренаписване на заявки в библиотеката",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Качване на локален .zip или .skill файл",
"tab.usage": "Статистика на използване",
"tools.add": "Добави умение",
"tools.builtins.find-skills.description": "Помага на потребителите да откриват и инсталират умения за агенти, когато питат „как да направя X“, „намери умение за X“ или когато искат да разширят възможностите",
"tools.builtins.find-skills.title": "Намиране на умения",
"tools.builtins.groupName": "Вградени",
"tools.builtins.install": "Инсталирай",
"tools.builtins.installed": "Инсталирано",
"tools.builtins.lobe-activator.description": "Откриване и активиране на инструменти и умения",
"tools.builtins.lobe-activator.title": "Активатор на инструменти и умения",
"tools.builtins.lobe-agent-browser.description": "CLI за автоматизация на браузър за AI агенти. Използва се при задачи, включващи уебсайтове или Electron навигация, попълване на формуляри, кликване, заснемане на екрана, извличане на данни, логин процеси и end-to-end тестване.",
"tools.builtins.lobe-agent-browser.title": "Браузър за агенти",
"tools.builtins.lobe-agent-builder.description": "Конфигурирайте метаданни на агента, настройки на модела, плъгини и системната подсказка",
"tools.builtins.lobe-agent-builder.title": "Създател на агенти",
"tools.builtins.lobe-agent-documents.description": "Управление на документи в обхвата на агента (списък, създаване, четене, редактиране, премахване, преименуване) и правила за зареждане",
"tools.builtins.lobe-agent-documents.title": "Документи",
"tools.builtins.lobe-agent-management.description": "Създаване, управление и оркестриране на AI агенти",
"tools.builtins.lobe-agent-management.title": "Управление на агенти",
"tools.builtins.lobe-artifacts.description": "Генерирайте и визуализирайте интерактивни UI компоненти, визуализации на данни, диаграми, SVG графики и уеб приложения в реално време. Създавайте богато визуално съдържание, с което потребителите могат директно да взаимодействат.",
"tools.builtins.lobe-artifacts.readme": "Генерирайте и визуализирайте интерактивни UI компоненти, визуализации на данни, диаграми, SVG графики и уеб приложения в реално време. Създавайте богато визуално съдържание, с което потребителите могат директно да взаимодействат.",
"tools.builtins.lobe-artifacts.title": "Артефакти",
"tools.builtins.lobe-brief.description": "Докладване на напредък, предоставяне на резултати и заявка за решения от потребителя",
"tools.builtins.lobe-brief.title": "Инструменти за отчети",
"tools.builtins.lobe-calculator.description": "Извършвайте математически изчисления, решавайте уравнения и работете със символни изрази",
"tools.builtins.lobe-calculator.readme": "Разширен математически калкулатор, поддържащ основна аритметика, алгебрични уравнения, операции с калкулус и символна математика. Включва преобразуване на бази, решаване на уравнения, диференциране, интегриране и други.",
"tools.builtins.lobe-calculator.title": "Калкулатор",
"tools.builtins.lobe-cloud-sandbox.description": "Изпълнявайте код на Python, JavaScript и TypeScript в изолирана облачна среда. Стартирайте shell команди, управлявайте файлове, търсете съдържание с regex и експортирайте резултати сигурно.",
"tools.builtins.lobe-cloud-sandbox.readme": "Изпълнявайте код на Python, JavaScript и TypeScript в изолирана облачна среда. Стартирайте shell команди, управлявайте файлове, търсете съдържание с regex и експортирайте резултати сигурно.",
"tools.builtins.lobe-cloud-sandbox.title": "Облачна пясъчник среда",
"tools.builtins.lobe-creds.description": "Управление на потребителски идентификационни данни за автентикация, задаване на променливи на средата и API проверка — управление на API ключове, OAuth токени и тайни за интеграции на трети страни.",
"tools.builtins.lobe-creds.title": "Идентификационни данни",
"tools.builtins.lobe-cron.description": "Управление на планирани задачи, които се изпълняват автоматично в определени моменти. Създаване, актуализиране, активиране/деактивиране и наблюдение на повтарящи се задачи.",
"tools.builtins.lobe-cron.title": "Планирани задачи",
"tools.builtins.lobe-group-agent-builder.description": "Конфигурирайте метаданни на групи, членове и споделено съдържание за групи с множество агенти",
"tools.builtins.lobe-group-agent-builder.title": "Създател на групови агенти",
"tools.builtins.lobe-group-management.description": "Оркестрирайте и управлявайте разговори в групи от агенти",
"tools.builtins.lobe-group-management.title": "Групово управление",
"tools.builtins.lobe-gtd.description": "Планирайте цели и следете напредъка с помощта на методологията GTD. Създавайте стратегически планове, управлявайте списъци със задачи със следене на статус и изпълнявайте дълготрайни асинхронни задачи.",
"tools.builtins.lobe-gtd.readme": "Планирайте цели и следете напредъка си с помощта на методологията GTD. Създавайте стратегически планове, управлявайте списъци със задачи със следене на статус и изпълнявайте дълготрайни асинхронни задачи.",
"tools.builtins.lobe-gtd.title": "GTD Инструменти",
"tools.builtins.lobe-knowledge-base.description": "Търсене в качени документи и специализирани знания чрез семантично векторно търсене — за постоянно и многократно използване",
"tools.builtins.lobe-knowledge-base.title": "База знания",
"tools.builtins.lobe-local-system.description": "Достъп до локалната файлова система на настолния компютър. Четете, записвайте, търсете и организирайте файлове. Изпълнявайте shell команди с поддръжка на фонови задачи и търсете съдържание с regex шаблони.",
"tools.builtins.lobe-local-system.readme": "Достъп до локалната файлова система на вашия компютър. Четете, записвайте, търсете и организирайте файлове. Изпълнявайте shell команди с поддръжка на фонови задачи и търсете съдържание с regex шаблони.",
"tools.builtins.lobe-local-system.title": "Локална система",
"tools.builtins.lobe-message.description": "Изпращане, четене, редактиране и управление на съобщения в множество платформи чрез обединен интерфейс",
"tools.builtins.lobe-message.readme": "Инструмент за съобщения с поддръжка на Discord, Telegram, Slack, Google Chat и IRC. Осигурява унифицирани API за операции със съобщения, реакции, закачане, нишки, управление на канали и специфични функции като анкети.",
"tools.builtins.lobe-message.title": "Съобщения",
"tools.builtins.lobe-notebook.description": "Създавайте и управлявайте постоянни документи в рамките на разговорни теми. Запазвайте бележки, доклади, статии и markdown съдържание, достъпно през различни сесии.",
"tools.builtins.lobe-notebook.readme": "Създавайте и управлявайте постоянни документи в рамките на разговорни теми. Запазвайте бележки, доклади, статии и markdown съдържание, достъпно през различни сесии.",
"tools.builtins.lobe-notebook.title": "Бележник",
"tools.builtins.lobe-page-agent.description": "Създаване, четене, актуализиране и изтриване на възли в XML-структурирани документи",
"tools.builtins.lobe-page-agent.readme": "Създавайте и редактирайте структурирани документи с прецизен контрол на ниво възел. Инициализирайте от Markdown, извършвайте групово вмъкване/промяна/премахване и търсене и замяна на текст.",
"tools.builtins.lobe-page-agent.title": "Документ",
"tools.builtins.lobe-remote-device.description": "Откриване и управление на връзки към отдалечени настолни устройства",
"tools.builtins.lobe-remote-device.readme": "Управлявайте връзки към настолните си устройства. Преглеждайте онлайн устройства, активирайте устройство за дистанционни операции и проверявайте състоянието на връзката.",
"tools.builtins.lobe-remote-device.title": "Отдалечено устройство",
"tools.builtins.lobe-skill-store.description": "Разглеждайте и инсталирайте умения за агенти от LobeHub Marketplace. Използвайте, когато имате нужда от разширени възможности или искате да инсталирате конкретно умение.",
"tools.builtins.lobe-skill-store.title": "Магазин за умения",
"tools.builtins.lobe-skills.description": "Активирайте и използвайте многократни пакети с умения",
"tools.builtins.lobe-skills.title": "Умения",
"tools.builtins.lobe-task.description": "Създаване, изброяване, редактиране и изтриване на задачи с зависимости и настройки за преглед",
"tools.builtins.lobe-task.title": "Инструменти за задачи",
"tools.builtins.lobe-topic-reference.description": "Извличане на контекст от свързани тематични разговори",
"tools.builtins.lobe-topic-reference.title": "Тематична препратка",
"tools.builtins.lobe-user-interaction.description": "Задаване на въпроси на потребителите чрез UI взаимодействия и проследяване на техните резултати",
"tools.builtins.lobe-user-interaction.title": "Взаимодействие с потребителя",
"tools.builtins.lobe-user-memory.description": "Изградете персонализирана база знания за вас. Запомняйте предпочитания, следете дейности и преживявания, съхранявайте информация за идентичност и извличайте релевантен контекст в бъдещи разговори.",
"tools.builtins.lobe-user-memory.readme": "Изградете персонализирана база знания за себе си. Запомняйте предпочитания, следете дейности и преживявания, съхранявайте информация за идентичност и извличайте релевантен контекст в бъдещи разговори.",
"tools.builtins.lobe-user-memory.title": "Памет",
"tools.builtins.lobe-web-browsing.description": "Търсене в уеб пространството за актуална информация и обхождане на страници за извличане на съдържание. Поддържа множество търсачки, категории и времеви диапазони.",
"tools.builtins.lobe-web-browsing.readme": "Търсете актуална информация в мрежата и обхождайте уеб страници за извличане на съдържание. Поддръжка на множество търсачки, категории и времеви диапазони за цялостно изследване.",
"tools.builtins.lobe-web-browsing.title": "Уеб търсене",
"tools.builtins.lobe-web-onboarding.description": "Управлявайте процеса на уеб onboarding с контролиран агентски runtime",
"tools.builtins.lobe-web-onboarding.title": "Уеб въведение",
"tools.builtins.lobehub.description": "Управление на платформата LobeHub чрез CLI — бази знания, памет, агенти, файлове, търсене, генериране и други.",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Не е инсталирано",
"tools.builtins.task.description": "Управление и изпълнение на задачи — създаване, проследяване, преглед и завършване на задачи чрез CLI.",
"tools.builtins.task.title": "Задача",
"tools.builtins.uninstall": "Деинсталирай",
"tools.builtins.uninstallConfirm.desc": "Сигурни ли сте, че искате да деинсталирате {{name}}? Това умение ще бъде премахнато от текущия агент.",
"tools.builtins.uninstallConfirm.title": "Деинсталиране на {{name}}",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Прекъсване на връзката с {{name}}?",
"tools.lobehubSkill.disconnected": "Изключено",
"tools.lobehubSkill.error": "Грешка",
"tools.lobehubSkill.providers.github.description": "GitHub е платформа за контрол на версиите и сътрудничество, позволяваща на разработчиците да хостват, преглеждат и управляват кодови хранилища.",
"tools.lobehubSkill.providers.github.readme": "Свържете се с GitHub, за да имате достъп до хранилищата си, да създавате и управлявате задачи (issues), да преглеждате pull заявки и да си сътрудничите по код — всичко това чрез естествен разговор с вашия AI асистент.",
"tools.lobehubSkill.providers.linear.description": "Linear е модерен инструмент за проследяване на проблеми и управление на проекти, създаден за високоефективни екипи, които искат да създават по-добър софтуер по-бързо",
"tools.lobehubSkill.providers.linear.readme": "Използвайте възможностите на Linear директно чрез вашия AI асистент. Създавайте и актуализирайте задачи, управлявайте спринтове, следете напредъка на проекти и оптимизирайте работния си процес чрез естествен разговор.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar е интегриран инструмент за планиране в Microsoft Outlook, който позволява на потребителите да създават срещи, организират събития и управляват времето си ефективно.",
"tools.lobehubSkill.providers.microsoft.readme": "Интегрирайте се с Outlook Calendar за лесно преглеждане, създаване и управление на събития. Насрочвайте срещи, проверявайте наличност, задавайте напомняния и координирайте времето си чрез естествени езикови команди.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) е социална медийна платформа за споделяне на актуални новини, ангажиране с аудиторията чрез публикации, отговори и директни съобщения.",
"tools.lobehubSkill.providers.twitter.readme": "Свържете се с X (Twitter), за да публикувате туитове, управлявате времевата си линия и взаимодействате с аудиторията си. Създавайте съдържание, планирайте публикации, следете споменавания и изграждайте присъствие в социалните мрежи чрез разговорен AI.",
"tools.lobehubSkill.providers.vercel.description": "Vercel е облачна платформа за фронтенд разработчици, предоставяща хостинг и serverless функции за лесно разгръщане на уеб приложения.",
"tools.lobehubSkill.providers.vercel.readme": "Свържете се с Vercel, за да управлявате разгръщанията си, да наблюдавате състоянието на проектите и да контролирате инфраструктурата си. Разгръщайте приложения, преглеждайте build логове, управлявайте променливи на средата и мащабирайте проекти чрез разговорен AI.",
"tools.notInstalled": "Не е инсталирано",
"tools.notInstalledWarning": "Това умение не е инсталирано в момента, което може да повлияе на функционалността на агента.",
"tools.plugins.enabled": "Активирани: {{num}}",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Надстрой до",
"credits.topUp.upgradeSuffix": "за да спестиш ${{savings}}",
"credits.topUp.validityInfo": "Валидност: {{months}} месеца",
"crossPlatform.desc": "Този абонамент е закупен чрез мобилното приложение и не може да бъде променен тук. Моля, управлявайте абонамента си на мобилното устройство.",
"crossPlatform.manageOnMobile": "Управлявайте на мобилното устройство",
"crossPlatform.title": "Абонамент за различни платформи",
"currentPlan.cancelAlert": "Абонаментът ще бъде анулиран след {{canceledAt}}. Можете да го възстановите в \"Управление на абонамента\" преди това",
"currentPlan.downgradeAlert": "Ще бъде понижен до {{plan}} след {{downgradedAt}}.",
"currentPlan.management": "Управление на абонамента",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "Начална рамка",
"config.prompt.placeholder": "Опишете видеото, което искате да генерирате",
"config.prompt.placeholderWithRef": "Опишете сцената, която искате да създадете с изображението",
"config.promptExtend.label": "Разширяване на подканата",
"config.referenceImage.label": "Референтно изображение",
"config.resolution.label": "Резолюция",
"config.seed.label": "Сийд",
"config.seed.random": "Случаен",
"config.size.label": "Размер",
"config.watermark.label": "Воден знак",
"config.webSearch.label": "Уеб търсене",
"generation.actions.copyError": "Копирай съобщението за грешка",
"generation.actions.errorCopied": "Съобщението за грешка е копирано в клипборда",
"generation.actions.errorCopyFailed": "Неуспешно копиране на съобщението за грешка",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot erfolgreich verbunden",
"channel.connecting": "Verbinden...",
"channel.connectionConfig": "Verbindungskonfiguration",
"channel.connectionMode": "Verbindungsmodus",
"channel.connectionModeHint": "Für neue Bots wird WebSocket empfohlen. Verwenden Sie Webhook, wenn Ihr Bot bereits über eine konfigurierte Callback-URL auf der QQ Open Platform verfügt.",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "In die Zwischenablage kopiert",
"channel.copy": "Kopieren",
"channel.credentials": "Anmeldedaten",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Bitte kopieren Sie diese URL und fügen Sie sie in das Feld <bold>{{fieldName}}</bold> im {{name}} Entwicklerportal ein.",
"channel.exportConfig": "Konfiguration exportieren",
"channel.feishu.description": "Verbinden Sie diesen Assistenten mit Feishu für private und Gruppenchats.",
"channel.feishu.webhookMigrationDesc": "Der WebSocket-Modus bietet die Zustellung von Ereignissen in Echtzeit, ohne dass eine öffentliche Callback-URL erforderlich ist. Um zu migrieren, wechseln Sie den Verbindungsmodus in den erweiterten Einstellungen zu WebSocket. Es ist keine zusätzliche Konfiguration auf der Feishu/Lark Open Platform erforderlich.",
"channel.feishu.webhookMigrationTitle": "Erwägen Sie die Migration zum WebSocket-Modus",
"channel.historyLimit": "Begrenzung der Nachrichtenhistorie",
"channel.historyLimitHint": "Standardanzahl von Nachrichten, die beim Lesen der Kanäle-Historie abgerufen werden",
"channel.importConfig": "Konfiguration importieren",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Erforderlich für Interaktionsüberprüfung",
"channel.qq.appIdHint": "Ihre QQ-Bot-App-ID von der QQ Open Platform",
"channel.qq.description": "Verbinden Sie diesen Assistenten mit QQ für Gruppenchats und Direktnachrichten.",
"channel.qq.webhookMigrationDesc": "Der WebSocket-Modus bietet die Zustellung von Ereignissen in Echtzeit und automatische Wiederverbindung, ohne dass eine Callback-URL benötigt wird. Um zu migrieren, erstellen Sie einen neuen Bot auf der QQ Open Platform, ohne eine Callback-URL zu konfigurieren, und wechseln Sie dann in den erweiterten Einstellungen den Verbindungsmodus zu WebSocket.",
"channel.qq.webhookMigrationTitle": "Erwägen Sie die Migration zum WebSocket-Modus",
"channel.removeChannel": "Kanal entfernen",
"channel.removeFailed": "Kanal konnte nicht entfernt werden",
"channel.removed": "Kanal entfernt",
@ -93,7 +101,11 @@
"channel.signingSecret": "Signatur-Geheimnis",
"channel.signingSecretHint": "Wird verwendet, um Webhook-Anfragen zu verifizieren.",
"channel.slack.appIdHint": "Ihre Slack-App-ID aus dem Slack-API-Dashboard (beginnt mit A).",
"channel.slack.appToken": "App-Level-Token",
"channel.slack.appTokenHint": "Erforderlich für den Socket-Modus (WebSocket). Generieren Sie ein App-Level-Token (xapp-...) unter \"Basic Information\" in den Einstellungen Ihrer Slack-App.",
"channel.slack.description": "Verbinden Sie diesen Assistenten mit Slack für Kanalgespräche und Direktnachrichten.",
"channel.slack.webhookMigrationDesc": "Der Socket-Modus bietet die Zustellung von Ereignissen in Echtzeit über WebSocket, ohne dass ein öffentlicher HTTP-Endpunkt erforderlich ist. Um zu migrieren, aktivieren Sie den Socket-Modus in den Einstellungen Ihrer Slack-App, generieren Sie ein App-Level-Token und wechseln Sie anschließend den Verbindungsmodus in den erweiterten Einstellungen zu WebSocket.",
"channel.slack.webhookMigrationTitle": "Erwägen Sie die Migration zum Socket-Modus (WebSocket)",
"channel.telegram.description": "Verbinden Sie diesen Assistenten mit Telegram für private und Gruppenchats.",
"channel.testConnection": "Verbindung testen",
"channel.testFailed": "Verbindungstest fehlgeschlagen",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Gruppe erfolgreich gelöscht",
"confirmRemoveSessionItemAlert": "Sie sind dabei, diesen Agenten zu löschen. Nach dem Löschen kann er nicht wiederhergestellt werden. Bitte bestätigen Sie Ihre Aktion.",
"confirmRemoveSessionSuccess": "Agent erfolgreich entfernt",
"createModal.createBlank": "Leere erstellen",
"createModal.groupPlaceholder": "Beschreiben Sie, was diese Gruppe tun soll...",
"createModal.groupTitle": "Was soll Ihre Gruppe tun?",
"createModal.placeholder": "Beschreiben Sie, was Ihr Agent tun soll...",
"createModal.title": "Was soll Ihr Agent tun?",
"defaultAgent": "Standardagent",
"defaultGroupChat": "Gruppe",
"defaultList": "Standardliste",
@ -229,6 +234,7 @@
"operation.contextCompression": "Kontext zu lang, komprimiere Verlauf...",
"operation.execAgentRuntime": "Antwort wird vorbereitet",
"operation.execClientTask": "Aufgabe wird ausgeführt",
"operation.execServerAgentRuntime": "Wird ausgeführt… Sie können die Aufgabe wechseln oder die Seite schließen — die Aufgabe läuft weiter.",
"operation.sendMessage": "Nachricht wird gesendet",
"owner": "Gruppeninhaber",
"pageCopilot.title": "Seitenagent",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Details werden abgerufen...",
"task.status.initializing": "Aufgabe wird initialisiert...",
"task.subtask": "Teilaufgabe",
"task.title": "Aufgaben",
"thread.divider": "Unterthema",
"thread.threadMessageCount": "{{messageCount}} Nachrichten",
"thread.title": "Unterthema",
@ -429,9 +436,11 @@
"toolAuth.title": "Skills für diesen Agenten autorisieren",
"topic.checkOpenNewTopic": "Neues Thema starten?",
"topic.checkSaveCurrentMessages": "Möchtest du die aktuelle Unterhaltung als Thema speichern?",
"topic.defaultTitle": "Unbenanntes Thema",
"topic.openNewTopic": "Neues Thema öffnen",
"topic.recent": "Letzte Themen",
"topic.saveCurrentMessages": "Aktuelle Sitzung als Thema speichern",
"topic.viewAll": "Alle Themen anzeigen",
"translate.action": "Übersetzen",
"translate.clear": "Übersetzung löschen",
"tts.action": "Text-zu-Sprache",

View file

@ -343,10 +343,19 @@
"mail.support": "E-Mail-Support",
"more": "Mehr",
"navPanel.agent": "Agent",
"navPanel.customizeSidebar": "Seitenleiste anpassen",
"navPanel.displayItems": "Anzuzeigende Elemente",
"navPanel.hidden": "Ausgeblendet",
"navPanel.hideSection": "Abschnitt ausblenden",
"navPanel.library": "Bibliothek",
"navPanel.moveDown": "Nach unten verschieben",
"navPanel.moveUp": "Nach oben verschieben",
"navPanel.pinned": "Angeheftet",
"navPanel.searchAgent": "Agent suchen...",
"navPanel.searchRecent": "Zuletzt gesucht...",
"navPanel.searchResultEmpty": "Keine Suchergebnisse gefunden",
"navPanel.show": "Anzeigen",
"navPanel.visible": "Sichtbar",
"new": "Neu",
"noContent": "Kein Inhalt",
"oauth": "SSO-Anmeldung",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "Unterstütze uns",
"productHunt.description": "Unterstütze uns auf Product Hunt. Deine Unterstützung bedeutet uns viel!",
"productHunt.title": "Wir sind auf Product Hunt!",
"promptTransform.action": "Idee verfeinern",
"promptTransform.actions.rewrite": "Details ausweiten",
"promptTransform.actions.translate": "Übersetzen",
"promptTransform.status.rewrite": "Details werden ausgeweitet...",
"promptTransform.status.translate": "Wird übersetzt...",
"recents": "Kürzlich",
"regenerate": "Neu generieren",
"releaseNotes": "Versionshinweise",
"rename": "Umbenennen",
@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Community",
"tab.create": "Erstellen",
"tab.discover": "Entdecken",
"tab.eval": "Bewertungslabor",
"tab.files": "Dateien",

View file

@ -12,6 +12,7 @@
"config.model.label": "Modell",
"config.prompt.placeholder": "Beschreiben Sie, was Sie generieren möchten",
"config.prompt.placeholderWithRef": "Beschreiben Sie, wie Sie das Bild anpassen möchten",
"config.promptExtend.label": "Prompt-Erweiterung",
"config.quality.label": "Bildqualität",
"config.quality.options.hd": "Hohe Auflösung",
"config.quality.options.standard": "Standard",
@ -24,6 +25,8 @@
"config.size.label": "Größe",
"config.steps.label": "Schritte",
"config.title": "Konfiguration",
"config.watermark.label": "Wasserzeichen",
"config.webSearch.label": "Websuche",
"config.width.label": "Breite",
"generation.actions.applySeed": "Seed anwenden",
"generation.actions.copyError": "Fehlermeldung kopieren",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Agenten-Nachrichten und deren Tool-Ergebnisse gemeinsam anzeigen",
"features.assistantMessageGroup.title": "Agenten-Nachrichten gruppieren",
"features.gatewayMode.desc": "Führt Agentenaufgaben über die Gateway-WebSocket-Verbindung auf dem Server aus, statt sie lokal auszuführen. Ermöglicht eine schnellere Ausführung und verringert die Client-Ressourcennutzung.",
"features.gatewayMode.title": "Serverseitige Agentenausführung (Gateway)",
"features.groupChat.desc": "Koordination von Gruppenchats mit mehreren Agenten aktivieren.",
"features.groupChat.title": "Gruppenchat (Multi-Agenten)",
"features.inputMarkdown.desc": "Markdown in Echtzeit im Eingabebereich rendern (fetter Text, Codeblöcke, Tabellen usw.).",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Ein Spitzenmodell in China, das führende internationale Modelle bei chinesischen Aufgaben wie Wissen, Langtextverarbeitung und kreativer Generierung übertrifft. Es bietet zudem branchenführende multimodale Fähigkeiten mit starken Ergebnissen in anerkannten Benchmarks.",
"Baichuan4.description": "Hervorragende nationale Leistung, übertrifft führende internationale Modelle bei chinesischen Aufgaben wie enzyklopädischem Wissen, langen Texten und kreativer Generierung. Bietet zudem branchenführende multimodale Fähigkeiten und starke Benchmark-Ergebnisse.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS ist eine Familie quelloffener LLMs von ByteDance Seed, entwickelt für starke Langkontextverarbeitung, logisches Denken, Agentenfunktionen und allgemeine Fähigkeiten. Seed-OSS-36B-Instruct ist ein 36B-Modell, das auf Anweisungen abgestimmt ist und nativ ultralangen Kontext unterstützt ideal für große Dokumente oder Codebasen. Es ist für logisches Denken, Codegenerierung und Agentenaufgaben (Toolnutzung) optimiert und behält dabei starke allgemeine Fähigkeiten. Ein zentrales Merkmal ist das „Thinking Budget“, das eine flexible Denklänge zur Effizienzsteigerung ermöglicht.",
"DeepSeek-OCR.description": "DeepSeek-OCR ist ein Vision-Language-Modell von DeepSeek AI, das sich auf OCR und „Context Optical Compression“ konzentriert. Es erforscht die Komprimierung von Kontext aus Bildern, verarbeitet Dokumente effizient und wandelt sie in strukturierten Text (z. B. Markdown) um. Es erkennt Text in Bildern präzise und eignet sich für die Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, das größere und intelligentere Modell der DeepSeek-Reihe, wurde in die Llama-70B-Architektur destilliert. Benchmarks und menschliche Bewertungen zeigen, dass es intelligenter ist als das ursprüngliche Llama-70B, insbesondere bei Mathematik- und Faktenaufgaben.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Ein aus Qwen2.5-Math-1.5B destilliertes DeepSeek-R1-Modell. Verstärkendes Lernen und Cold-Start-Daten optimieren die Denkleistung und setzen neue Maßstäbe für offene Multitasking-Modelle.",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill-Modelle sind feinabgestimmte Versionen quelloffener Modelle, die mit von DeepSeek-R1 generierten Beispieldaten trainiert wurden.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Anbieter: sophnet. DeepSeek V3 Fast ist die Hoch-TPS-Version von DeepSeek V3 0324, in voller Präzision (nicht quantisiert) mit stärkerer Leistung bei Code und Mathematik sowie schnelleren Antworten.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast ist die Hoch-TPS-Variante von DeepSeek V3.1. Hybrid-Denkmodus: Über Chatvorlagen unterstützt ein Modell sowohl Denk- als auch Nicht-Denk-Modi. Intelligente Toolnutzung: Nachtrainingsoptimierungen verbessern die Leistung bei Tool- und Agentenaufgaben.",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 Denkmodus: Ein neues hybrides Denkmodell mit Denk- und Nicht-Denk-Modi, effizienter als DeepSeek-R1-0528. Nachtrainingsoptimierungen verbessern die Toolnutzung und Agentenleistung erheblich.",
"DeepSeek-V3.2.description": "deepseek-v3.2 führt einen Sparse-Attention-Mechanismus ein, um die Trainings- und Inferenzeffizienz bei der Verarbeitung langer Texte zu verbessern und bietet gleichzeitig geringere Kosten als deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell, das von DeepSeek entwickelt wurde. Es übertrifft andere offene Modelle wie Qwen2.5-72B und Llama-3.1-405B in vielen Benchmarks und ist konkurrenzfähig mit führenden geschlossenen Modellen wie GPT-4o und Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite bietet ultraschnelle Antworten und ein hervorragendes Preis-Leistungs-Verhältnis mit flexiblen Optionen für verschiedene Szenarien. Unterstützt 128K Kontext für Inferenz und Feinabstimmung.",
"Doubao-lite-32k.description": "Doubao-lite bietet ultraschnelle Antworten und ein hervorragendes Preis-Leistungs-Verhältnis mit flexiblen Optionen für verschiedene Szenarien. Unterstützt 32K Kontext für Inferenz und Feinabstimmung.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Hochleistungsmodell für logisches Denken, Programmierung und Agentenaufgaben.",
"GLM-4.6.description": "GLM-4.6: Modell der vorherigen Generation.",
"GLM-4.7.description": "GLM-4.7 ist Zhipus neuestes Flaggschiffmodell, optimiert für agentenbasierte Codierungsszenarien mit verbesserten Programmierfähigkeiten, langfristiger Aufgabenplanung und Werkzeugzusammenarbeit.",
"GLM-5-Turbo.description": "GLM-5-Turbo: Optimierte Version von GLM-5 mit schnellerer Inferenz für Programmieraufgaben.",
"GLM-5-Turbo.description": "GLM-5-Turbo ist ein Foundation-Modell, das speziell für agentische Szenarien optimiert wurde. Es wurde bereits in der Trainingsphase auf die Kernanforderungen von Agent-Aufgaben ausgerichtet und verbessert wichtige Fähigkeiten wie Tool-Aufrufe, Befehlsausführung und langkettige Abläufe. Ideal für den Aufbau leistungsstarker Agent-Assistenten.",
"GLM-5.1.description": "GLM-5.1 ist Zhipus neuestes Flaggschiffmodell, eine verbesserte Version von GLM-5 mit erweiterten agentischen Ingenieursfähigkeiten für komplexe Systementwicklung und langfristige Aufgaben.",
"GLM-5.description": "GLM-5 ist Zhipus Flaggschiffmodell der nächsten Generation, speziell entwickelt für agentenbasierte Ingenieursaufgaben. Es bietet zuverlässige Produktivität in komplexen Systemingenieurprojekten und langfristigen agentenbasierten Aufgaben. In den Bereichen Programmierung und Agentenfähigkeiten erreicht GLM-5 Spitzenleistungen unter Open-Source-Modellen.",
"GLM-5.description": "GLM-5 ist Zhipus nächste Generation des Flaggschiff-Foundation-Modells, das speziell für Agentic Engineering entwickelt wurde. Es liefert zuverlässige Produktivität in komplexen Systemingenieuraufgaben und langfristigen Agent-Prozessen. In den Bereichen Codierung und agentische Fähigkeiten erreicht GLM-5 Spitzenleistungen unter Open-Source-Modellen. In realen Programmierumgebungen nähert sich die Nutzungserfahrung der von Claude Opus 4.5 an. Es überzeugt besonders in komplexen Systementwicklungen und langlaufenden Agent-Aufgaben und ist damit ein ideales Foundation-Modell für vielseitige Agent-Assistenten.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) ist ein innovatives Modell für vielfältige Anwendungsbereiche und komplexe Aufgaben.",
"HY-Image-V3.0.description": "Leistungsstarke Funktionen zur Extraktion von Originalbildern und zur Detailerhaltung, die eine reichere visuelle Textur liefern und hochpräzise, gut komponierte, produktionsreife Bilder erzeugen.",
"HelloMeme.description": "HelloMeme ist ein KI-Tool zur Erstellung von Memes, GIFs oder Kurzvideos aus bereitgestellten Bildern oder Bewegungen. Es erfordert keine Zeichen- oder Programmierkenntnisse ein Referenzbild genügt, um unterhaltsame, ansprechende und stilistisch konsistente Inhalte zu erzeugen.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter ist ein personalisiertes Charaktergenerierungsmodell ohne Feintuning, veröffentlicht von Tencent AI im Jahr 2025. Es ermöglicht hochrealistische, szenenübergreifend konsistente Charaktere. Ein einzelnes Referenzbild genügt, um den Charakter flexibel in verschiedene Stile, Aktionen und Hintergründe zu übertragen.",
"InternVL2-8B.description": "InternVL2-8B ist ein leistungsstarkes Vision-Language-Modell für multimodale Bild-Text-Verarbeitung. Es erkennt Bildinhalte präzise und generiert passende Beschreibungen oder Antworten.",
"InternVL2.5-26B.description": "InternVL2.5-26B ist ein leistungsstarkes Vision-Language-Modell für multimodale Bild-Text-Verarbeitung. Es erkennt Bildinhalte präzise und generiert passende Beschreibungen oder Antworten.",
"KAT-Coder-Air-V1.description": "Eine leichte Version der KAT-Coder-Serie. Speziell für Agentic Coding entwickelt und deckt Programmieraufgaben und -szenarien umfassend ab. Durch großskaliges, agentenbasiertes Reinforcement Learning ermöglicht es emergentes intelligentes Verhalten und übertrifft vergleichbare Modelle deutlich in der Codeleistung.",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B ist die experimentelle RL-Innovationsversion der KAT-Coder-Serie und erreicht eine bemerkenswerte Leistung von 74,6 % im SWE-Bench-Verified-Benchmark ein neuer Rekord für Open-Source-Modelle. Es konzentriert sich auf Agentic Coding und unterstützt derzeit ausschließlich das SWE-Agent-Gerüst, kann jedoch auch für einfache Gespräche genutzt werden.",
"KAT-Coder-Pro-V1.description": "Für Agentic Coding entwickelt und umfassend auf Programmieraufgaben und -szenarien ausgelegt. Durch großskaliges Reinforcement Learning entstehen intelligente Verhaltensweisen, wodurch es vergleichbare Modelle in der Codegenerierung deutlich übertrifft.",
"KAT-Coder-Pro-V2.description": "Das neueste Hochleistungsmodell des Kuaishou-Kwaipilot-Teams, entwickelt für komplexe Unternehmensprojekte und SaaS-Integration. Es überzeugt in codebezogenen Szenarien und ist mit verschiedenen Agent-Frameworks (Claude Code, OpenCode, KiloCode) kompatibel, unterstützt OpenClaw nativ und ist speziell für die Ästhetik von Frontend-Seiten optimiert.",
"Kimi-K2.5.description": "Kimi K2.5 ist das leistungsfähigste Kimi-Modell und liefert Open-SourceSOTA in Agent-Aufgaben, Codierung und visuellem Verständnis. Es unterstützt multimodale Eingaben sowie Thinking- und Non-Thinking-Modi.",
"Kolors.description": "Kolors ist ein Text-zu-Bild-Modell, entwickelt vom Kuaishou-Kolors-Team. Mit Milliarden von Parametern trainiert, bietet es herausragende visuelle Qualität, starkes Verständnis chinesischer Semantik und präzise Textdarstellung.",
"Kwai-Kolors/Kolors.description": "Kolors ist ein großskaliges Latent-Diffusion-Text-zu-Bild-Modell des Kuaishou-Kolors-Teams. Trainiert auf Milliarden Text-Bild-Paaren, überzeugt es durch visuelle Qualität, semantische Präzision und Textdarstellung in Chinesisch und Englisch. Es bietet starkes Verständnis und Generierung chinesischer Inhalte.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) ist ein Open-Source-Modell für Softwareentwicklung. Es erreicht eine Lösungsrate von 62,4% auf SWE-Bench Verified und belegt Platz 5 unter Open-Source-Modellen. Optimiert durch Mid-Training, SFT und RL für Codevervollständigung, Fehlerbehebung und Code-Review.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modernes kompaktes Sprachmodell mit starkem Sprachverständnis, exzellenter Argumentation und Textgenerierung.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Modell der Llama-Reihe. Es bietet nahezu 405B-Leistung zu sehr niedrigen Kosten. Basierend auf Transformer-Architektur, verbessert durch SFT und RLHF für Nützlichkeit und Sicherheit. Die instruktionstaugliche Version ist für mehrsprachige Konversation optimiert und übertrifft viele offene und geschlossene Modelle in Benchmarks. Wissensstand: Dezember 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick ist ein großes MoE-Modell mit effizienter Expertenaktivierung für starke Argumentationsleistung.",
"MiMo-V2-Pro.description": "MiMoV2Pro wurde speziell für hochintensive Agent-Workflows in realen Anwendungsszenarien entwickelt. Es verfügt über mehr als 1 Billion Gesamtparameter (42B aktivierte Parameter), nutzt eine innovative Hybrid-Attention-Architektur und unterstützt eine ultralange Kontextlänge von bis zu 1 Million Tokens. Basierend auf einem leistungsstarken Foundation-Modell skalieren wir kontinuierlich die Rechenressourcen für ein breites Spektrum agentischer Szenarien, erweitern den Handlungsspielraum künstlicher Intelligenz und erreichen starke Generalisierung von Codierung bis hin zur physischen Ausführung realer Aufgaben („claw“).",
"MiniMax-Hailuo-02.description": "Das nächste Generation Videoerzeugungsmodell, MiniMax Hailuo 02, wurde offiziell veröffentlicht und unterstützt 1080P-Auflösung sowie die Erzeugung von 10-Sekunden-Videos.",
"MiniMax-Hailuo-2.3-Fast.description": "Brandneues Videoerzeugungsmodell mit umfassenden Verbesserungen in Körperbewegung, physikalischem Realismus und Befolgung von Anweisungen.",
"MiniMax-Hailuo-2.3.description": "Brandneues Videoerzeugungsmodell mit umfassenden Verbesserungen in Körperbewegung, physikalischem Realismus und Befolgung von Anweisungen.",
"MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
"MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
"MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten mit schnellerer und effizienterer Inferenz.",
"MiniMax-M2.1-highspeed.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten, umfassend verbesserte Programmiererfahrung. Schneller und effizienter.",
"MiniMax-M2.1.description": "MiniMax-M2.1 ist das Flaggschiff unter den Open-Source-Großmodellen von MiniMax und konzentriert sich auf die Lösung komplexer Aufgaben aus der realen Welt. Seine zentralen Stärken liegen in der mehrsprachigen Programmierfähigkeit und der Fähigkeit, als Agent komplexe Aufgaben zu bewältigen.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Gleiche Leistung wie M2.5 mit schnellerer Inferenz.",
"MiniMax-M2.5.description": "MiniMax-M2.5 ist ein Flaggschiff-Open-Source-Großmodell von MiniMax, das sich auf die Lösung komplexer realer Aufgaben konzentriert. Seine Kernstärken sind mehrsprachige Programmierfähigkeiten und die Fähigkeit, komplexe Aufgaben als Agent zu lösen.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Gleiche Leistung wie M2.7 mit deutlich schnellerer Inferenz.",
"MiniMax-M2.7.description": "MiniMax M2.7: Beginn der Reise zur rekursiven Selbstverbesserung, erstklassige reale Ingenieursfähigkeiten.",
"MiniMax-M2.7.description": "Das erste selbst-evolvierende Modell mit erstklassiger Code- und Agent-Leistung (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Modell der vorherigen Generation.",
"MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 ist ein großskaliges Hybrid-Attention-Reasoning-Modell mit offenen Gewichten, 456 Milliarden Gesamtparametern und ~45,9 Milliarden aktiven Parametern pro Token. Es unterstützt nativ 1 Million Kontext und verwendet Flash Attention, um FLOPs bei der Generierung von 100.000 Tokens im Vergleich zu DeepSeek R1 um 75 % zu reduzieren. Mit einer MoE-Architektur sowie CISPO und Hybrid-Attention-RL-Training erreicht es führende Leistungen bei langem Input-Reasoning und realen Software-Engineering-Aufgaben.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 ist ein Open-Source-natives multimodales Agentenmodell, basierend auf Kimi-K2-Base, trainiert mit etwa 1,5 Billionen gemischten Bild- und Text-Tokens. Das Modell verwendet eine MoE-Architektur mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern, unterstützt ein Kontextfenster von 256K und integriert nahtlos visuelle und sprachliche Verständnisfähigkeiten.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 ist ein Next-Generation-Flaggschiffmodell für Agent Engineering und nutzt eine Mixture-of-Experts-(MoE)-Architektur mit 754B Parametern. Es verbessert die Programmierfähigkeiten erheblich, erzielt Spitzenwerte auf SWE-Bench Pro und übertrifft seinen Vorgänger deutlich bei Benchmarks wie NL2Repo und Terminal-Bench 2.0. Für langanhaltende Agent-Aufgaben konzipiert, verarbeitet es mehrdeutige Fragen mit besserem Urteilsvermögen, zerlegt komplexe Aufgaben, führt Experimente aus, analysiert Ergebnisse und optimiert kontinuierlich über hunderte Iterationen und tausende Tool-Aufrufe.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 ist Zhipus neues Flaggschiffmodell der Generation mit 355 Milliarden Gesamt- und 32 Milliarden aktiven Parametern, vollständig aktualisiert in allgemeinem Dialog, logischem Denken und Agentenfähigkeiten. GLM-4.7 verbessert Interleaved Thinking und führt Preserved Thinking sowie Turn-level Thinking ein.",
"Pro/zai-org/glm-5.description": "GLM-5 ist Zhipus nächste Generation eines großen Sprachmodells, das sich auf komplexe Systementwicklung und lang andauernde Agentenaufgaben konzentriert. Die Modellparameter wurden auf 744 Milliarden (40 Milliarden aktiv) erweitert und integrieren DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 ist für fortgeschrittenes logisches Denken und Befolgen von Anweisungen optimiert. Es nutzt MoE, um effizientes Denken im großen Maßstab zu ermöglichen.",
"Qwen3-235B.description": "Qwen3-235B-A22B ist ein MoE-Modell mit einem hybriden Denkmodus, der es Nutzern ermöglicht, nahtlos zwischen Denk- und Nicht-Denk-Modus zu wechseln. Es unterstützt Verständnis und logisches Denken in 119 Sprachen und Dialekten und verfügt über starke Tool-Calling-Fähigkeiten. Es konkurriert mit führenden Modellen wie DeepSeek R1, OpenAI o1, o3-mini, Grok 3 und Google Gemini 2.5 Pro in Benchmarks zu allgemeinen Fähigkeiten, Programmierung, Mathematik, Mehrsprachigkeit und Wissensverarbeitung.",
"Qwen3-32B.description": "Qwen3-32B ist ein dichtes Modell mit einem hybriden Denkmodus, der Nutzern erlaubt, zwischen Denk- und Nicht-Denk-Modus zu wechseln. Durch Verbesserungen in der Architektur, mehr Trainingsdaten und besseres Training erreicht es eine Leistung auf dem Niveau von Qwen2.5-72B.",
"Qwen3.5-Plus.description": "Qwen3.5 Plus unterstützt Text-, Bild- und Videoeingaben. Die Leistung bei reinen Textaufgaben ist vergleichbar mit Qwen3 Max, jedoch mit besseren Ergebnissen und niedrigeren Kosten. Seine multimodalen Fähigkeiten sind deutlich verbessert gegenüber der Qwen3-VL-Serie.",
"S2V-01.description": "Das grundlegende Referenz-zu-Video-Modell der 01-Serie.",
"SenseChat-128K.description": "Basisversion V4 mit 128K Kontext, stark im Verständnis und der Generierung von Langtexten.",
"SenseChat-32K.description": "Basisversion V4 mit 32K Kontext, flexibel einsetzbar in vielen Szenarien.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweitertem Denken.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic blitzschnell und mit erweitertem Denkvermögen.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweiterten Denkfähigkeiten.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist Anthropics neuestes und leistungsfähigstes Modell für hochkomplexe Aufgaben und überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist Anthropics leistungsstärkstes Modell für besonders komplexe Aufgaben und überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
"claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Erstellung von Agenten und Programmierung.",
"claude-opus-4-6.description": "Claude Opus 4.6 ist Anthropics intelligentestes Modell für die Entwicklung von Agenten und Codierung.",
"claude-opus-4.5.description": "Claude Opus 4.5 ist das Flaggschiff-Modell von Anthropic, das erstklassige Intelligenz mit skalierbarer Leistung für komplexe, hochwertige Denkaufgaben kombiniert.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
"claude-opus-4.6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic, das nahezu sofortige Antworten oder erweitertes schrittweises Denken mit fein abgestimmter Kontrolle für API-Benutzer bietet.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche schrittweise Denkprozesse mit sichtbarer Herleitung erzeugen.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 bietet die beste Kombination aus Geschwindigkeit und Intelligenz.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche schrittweise Überlegungen liefern, die Benutzer sehen können. API-Benutzer können fein steuern, wie lange das Modell nachdenkt.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Next-Gen-Modell für logisches Denken mit stärkeren Fähigkeiten für komplexes Denken und Kettenlogik.",
"deepseek-chat.description": "DeepSeek V3.2 balanciert Argumentation und Ausgabelänge für tägliche QA- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau, und es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führende Open-Source-Agentenbewertungen erzielt.",
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Coding-Fähigkeiten kombiniert. Es behält die dialogorientierten Eigenschaften des Chat-Modells und die starke Codierleistung des Coder-Modells bei mit besserer Präferenzabstimmung. DeepSeekV2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2B Tokens (87% Code, 13% chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche bietet stärkeres Verständnis und bessere Generierung.",
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein tiefes Argumentationsmodell, das vor der Ausgabe eine Gedankenverkettung erzeugt, um höhere Genauigkeit zu erzielen, mit Spitzenwettbewerbsergebnissen und Argumentation vergleichbar mit Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Der Thinking-Modus von DeepSeek V3.2 erzeugt vor der finalen Antwort eine Chain-of-Thought, um die Genauigkeit zu erhöhen.",
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
"ernie-x1.1.description": "ERNIE X1.1 ist ein Vorschau-Denkmodell für Evaluierung und Tests.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom ByteDance Seed-Team, unterstützt Multi-Bild-Bearbeitung und Komposition. Es bietet verbesserte Konsistenz des Subjekts, präzise Befolgung von Anweisungen, Verständnis räumlicher Logik, ästhetischen Ausdruck, Posterlayout und Logodesign mit hochpräziser Text-Bild-Wiedergabe.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochkontrollierbare, qualitativ hochwertige Bildgenerierung aus Aufforderungen.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed und unterstützt Text- sowie Bildeingaben mit hochgradig steuerbarer, hochwertiger Bildgenerierung. Es erzeugt Bilder auf Basis von Texteingaben.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell vom Qwen-Team, das semantische und Erscheinungsbearbeitungen, präzise chinesische/englische Textbearbeitung, Stilübertragung, Rotation und mehr unterstützt.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell vom Qwen-Team mit starker chinesischer Textwiedergabe und vielfältigen visuellen Stilen.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und optische Anpassungen unterstützt, chinesischen und englischen Text präzise bearbeiten kann und hochwertige Bearbeitungen wie Stiltransfer und Objektrotation ermöglicht.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textdarstellung und vielfältigen visuellen Stilen.",
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 14 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
"flux-dev.description": "Open-SourceBildgenerierungsmodell für Forschung und Entwicklung, effizient optimiert für nichtkommerzielle Innovationsforschung.",
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
"flux-kontext-pro.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
"flux-merged.description": "FLUX.1 [merged] kombiniert die tiefen Features, die in \"DEV\" erforscht wurden, mit den Hochgeschwindigkeitsvorteilen von \"Schnell\", erweitert die Leistungsgrenzen und erweitert die Anwendungsbereiche.",
"flux-pro-1.1-ultra.description": "Bildgenerierung in Ultra-HD mit 4MP-Ausgabe, erzeugt gestochen scharfe Bilder in 10 Sekunden.",
"flux-pro-1.1.description": "Verbessertes professionelles Bildgenerierungsmodell mit exzellenter Bildqualität und präziser Prompt-Umsetzung.",
"flux-pro.description": "Hochwertiges kommerzielles Bildgenerierungsmodell mit unübertroffener Bildqualität und vielfältigen Ausgaben.",
"flux-schnell.description": "FLUX.1 [schnell] ist das fortschrittlichste Open-Source-Modell mit wenigen Schritten, übertrifft vergleichbare Konkurrenten und sogar starke nicht-destillierte Modelle wie Midjourney v6.0 und DALL-E 3 (HD). Feinabgestimmt zur Erhaltung der Vielfalt aus dem Pretraining, verbessert es visuelle Qualität, Anweisungsbefolgung, Größen-/Seitenverhältnisvariation, Schriftverarbeitung und Ausgabediversität erheblich.",
"flux.1-schnell.description": "FLUX.1-schnell ist ein leistungsstarkes Bildgenerierungsmodell für schnelle Ausgaben in mehreren Stilen.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile, anpassbare Leistung für komplexe Aufgaben.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) bietet starke multimodale Unterstützung für komplexe Aufgaben.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
"gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell, das auch multimodale Dialoge unterstützt.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodalen Chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt zudem multimodale Chats.",
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Denkunterstützung, konversationaler Bildgenerierung und -bearbeitung.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Pro-Level-Bildqualität mit Flash-Geschwindigkeit und unterstützt multimodalen Chat.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Thinking-Unterstützung sowie dialogorientierter Bildgenerierung und -bearbeitung.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview ist Googles kosteneffizientestes multimodales Modell, optimiert für hochvolumige agentische Aufgaben, Übersetzung und Datenverarbeitung.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbessert Gemini 3 Pro mit erweiterten Fähigkeiten für logisches Denken und unterstützt mittleres Denklevel.",
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "Unser leistungsstärkstes und fortschrittlichstes Modell, entwickelt für komplexe Unternehmensaufgaben mit herausragender Leistung.",
"jamba-mini.description": "Das effizienteste Modell seiner Klasse vereint Geschwindigkeit und Qualität bei geringem Ressourcenverbrauch.",
"jina-deepsearch-v1.description": "DeepSearch kombiniert Websuche, Leseverständnis und logisches Denken für gründliche Recherchen. Stellen Sie sich einen Agenten vor, der Ihre Rechercheaufgabe übernimmt, breit gefächerte Suchen in mehreren Iterationen durchführt und erst dann eine Antwort liefert. Der Prozess umfasst kontinuierliche Recherche, Schlussfolgerungen und Problemlösungen aus verschiedenen Blickwinkeln grundlegend anders als herkömmliche LLMs, die auf vortrainierten Daten basieren, oder klassische RAG-Systeme mit einmaliger Oberflächensuche.",
"k2p5.description": "Kimi K2.5 ist Kimi's vielseitigstes Modell bis heute, mit einer nativen multimodalen Architektur, die sowohl visuelle als auch textuelle Eingaben unterstützt, 'denkenden' und 'nicht-denkenden' Modi sowie sowohl konversationelle als auch agentenbasierte Aufgaben.",
"kimi-k2-0711-preview.description": "kimi-k2 ist ein MoE-Grundlagenmodell mit starken Fähigkeiten in den Bereichen Programmierung und Agentenfunktionen (1T Gesamtparameter, 32B aktiv) und übertrifft andere gängige Open-Source-Modelle in den Bereichen logisches Denken, Programmierung, Mathematik und Agenten-Benchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview bietet ein 256k-Kontextfenster, verbesserte agentenbasierte Programmierung, höhere Codequalität im Frontend und ein besseres Kontextverständnis.",
"kimi-k2-instruct.description": "Kimi K2 Instruct ist das offizielle Modell von Kimi für logisches Denken mit erweitertem Kontext für Code, Fragenbeantwortung und mehr.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ ist ein Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen bietet es überlegene Denk- und Schlussfolgerungsfähigkeiten, die die Leistung bei nachgelagerten Aufgaben deutlich verbessern insbesondere bei schwierigen Problemen. QwQ-32B ist ein mittelgroßes Modell, das mit führenden Schlussfolgerungsmodellen wie DeepSeek-R1 und o1-mini mithalten kann.",
"qwq_32b.description": "Mittelgroßes Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen steigern QwQs Denk- und Schlussfolgerungsfähigkeiten die Leistung bei nachgelagerten Aufgaben deutlich insbesondere bei schwierigen Problemen.",
"r1-1776.description": "R1-1776 ist eine nachtrainierte Variante von DeepSeek R1, die darauf ausgelegt ist, unzensierte, objektive und faktenbasierte Informationen bereitzustellen.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro von ByteDance unterstützt Text-zu-Video, Bild-zu-Video (erstes Bild, erstes+letztes Bild) und Audioerzeugung synchronisiert mit visuellen Inhalten.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite von BytePlus bietet webabfrage-unterstützte Erzeugung für Echtzeitinformationen, verbesserte Interpretation komplexer Aufforderungen und verbesserte Referenzkonsistenz für professionelle visuelle Erstellung.",
"solar-mini-ja.description": "Solar Mini (Ja) erweitert Solar Mini mit einem Fokus auf Japanisch und behält dabei eine effiziente und starke Leistung in Englisch und Koreanisch bei.",
"solar-mini.description": "Solar Mini ist ein kompaktes LLM, das GPT-3.5 übertrifft. Es bietet starke mehrsprachige Fähigkeiten in Englisch und Koreanisch und ist eine effiziente Lösung mit kleinem Ressourcenbedarf.",
"solar-pro.description": "Solar Pro ist ein hochintelligentes LLM von Upstage, das auf Befolgen von Anweisungen auf einer einzelnen GPU ausgelegt ist und IFEval-Werte über 80 erreicht. Derzeit wird Englisch unterstützt; die vollständige Veröffentlichung mit erweitertem Sprachsupport und längeren Kontexten war für November 2024 geplant.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 ist unser neues leistungsstarkes Medienerzeugungsmodell, das Videos mit synchronisiertem Audio erzeugt. Es kann reich detaillierte, dynamische Clips aus natürlicher Sprache oder Bildern erstellen.",
"spark-x.description": "X2-Fähigkeiten-Übersicht: 1. Führt dynamische Anpassung des Denkmodus ein, gesteuert über das `thinking`-Feld. 2. Erweiterte Kontextlänge: 64K Eingabetokens und 128K Ausgabetokens. 3. Unterstützt Funktionaufruf-Funktionalität.",
"stable-diffusion-3-medium.description": "Das neueste Text-zu-Bild-Modell von Stability AI. Diese Version verbessert die Bildqualität, das Textverständnis und die Stilvielfalt erheblich, interpretiert komplexe Spracheingaben präziser und erzeugt genauere, vielfältigere Bilder.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo nutzt Adversarial Diffusion Distillation (ADD) auf stable-diffusion-3.5-large für höhere Geschwindigkeit.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large ist ein MMDiT Text-zu-Bild-Modell mit 800 Millionen Parametern, das hervorragende Qualität und präzise Prompt-Umsetzung bietet. Es unterstützt 1-Megapixel-Bilder und läuft effizient auf Consumer-Hardware.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 basiert auf dem v1.2-Checkpoint und wurde 595.000 Schritte lang auf „laion-aesthetics v2 5+“ bei 512x512 Auflösung feinjustiert. Die Textkonditionierung wurde um 10 % reduziert, um das classifier-free guidance sampling zu verbessern.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo konzentriert sich auf hochwertige Bildgenerierung mit starker Detaildarstellung und hoher Szenentreue.",
"stable-diffusion-xl-base-1.0.description": "Ein Open-Source-Text-zu-Bild-Modell von Stability AI mit branchenführender kreativer Bildgenerierung. Es versteht Anweisungen sehr gut und unterstützt umgekehrte Prompt-Definitionen für präzise Generierung.",
"stable-diffusion-xl.description": "stable-diffusion-xl bringt große Verbesserungen gegenüber v1.5 und erreicht Ergebnisse auf dem Niveau der besten offenen Text-zu-Bild-Modelle. Zu den Verbesserungen gehören ein dreimal größerer UNet-Backbone, ein Verfeinerungsmodul für bessere Bildqualität und effizientere Trainingstechniken.",
"step-1-128k.description": "Ausgewogenes Verhältnis von Leistung und Kosten für allgemeine Anwendungsfälle.",
"step-1-256k.description": "Verarbeitung extralanger Kontexte ideal für die Analyse langer Dokumente.",
"step-1-32k.description": "Unterstützt mittellange Konversationen für vielfältige Szenarien.",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} Parameter insgesamt",
"arguments.title": "Argumente",
"builtins.lobe-activator.apiName.activateTools": "Werkzeuge aktivieren",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} nicht gefunden",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Verfügbare Modelle abrufen",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Verfügbare Skills abrufen",
"builtins.lobe-agent-builder.apiName.getConfig": "Konfiguration abrufen",

View file

@ -33,7 +33,6 @@
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
"kimicodingplan.description": "Kimi Code von Moonshot AI bietet Zugriff auf Kimi-Modelle, darunter K2.5, für Coding-Aufgaben.",
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung mit Credits, die an Modell-Token gebunden sind.",
"longcat.description": "LongCat ist eine Reihe von generativen KI-Großmodellen, die unabhängig von Meituan entwickelt wurden. Sie sind darauf ausgelegt, die Produktivität innerhalb des Unternehmens zu steigern und innovative Anwendungen durch eine effiziente Rechenarchitektur und starke multimodale Fähigkeiten zu ermöglichen.",
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
"minimaxcodingplan.description": "Der MiniMax Token Plan bietet Zugriff auf MiniMax-Modelle, darunter M2.7, für Coding-Aufgaben im Rahmen eines Festpreis-Abonnements.",
@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark bietet leistungsstarke mehrsprachige KI für verschiedene Branchen von Smart Hardware über Gesundheitswesen bis hin zu Finanzen.",
"stepfun.description": "Stepfun-Modelle bieten führende multimodale und komplexe Denkfähigkeiten mit Langkontextverständnis und leistungsstarker autonomer Suchorchestrierung.",
"straico.description": "Straico vereinfacht die Integration von KI, indem es einen einheitlichen Arbeitsbereich bietet, der führende text-, bild- und audiogenerative KI-Modelle zusammenführt. So erhalten Marketer, Unternehmer und Enthusiasten nahtlosen Zugang zu vielfältigen KI-Tools.",
"streamlake.description": "StreamLake ist eine Unternehmensplattform für Modellservices und Cloud-Computing im Bereich KI. Sie vereint leistungsstarke Modellinferenz, kostengünstige Modellanpassung und vollständig verwaltete Services, sodass Unternehmen sich auf die Entwicklung innovativer KI-Anwendungen konzentrieren können, ohne sich um die Komplexität und die Kosten der zugrunde liegenden ComputingRessourcen sorgen zu müssen.",
"taichu.description": "Ein multimodales Next-Gen-Modell von CASIA und dem Wuhan Institute of AI unterstützt mehrstufige Q&A, Schreiben, Bildgenerierung, 3D-Verständnis und Signalanalyse mit starker Kognition und Kreativität.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power bietet End-to-End-Wissens-Q&A für Unternehmen und Entwickler mit modularen Diensten wie Dokumentenparsing, Chunking, Embeddings und mehrstufigem Rewriting für individuelle KI-Lösungen.",
"togetherai.description": "Together AI liefert führende Leistung mit innovativen Modellen, breiter Anpassbarkeit, schneller Skalierung und einfacher Bereitstellung für Unternehmensanforderungen.",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "Systemwerkzeuge",
"settingSystemTools.tools.ag.desc": "The Silver Searcher schnelles Tool zur Codesuche",
"settingSystemTools.tools.agentBrowser.desc": "Agent-Browser - headless Browser-Automatisierungs-CLI für KI-Agenten",
"settingSystemTools.tools.bun.desc": "Bun schnelle JavaScript-Laufzeitumgebung und Paketmanager",
"settingSystemTools.tools.bunx.desc": "bunx Bun-Paketausführer zum Ausführen von npm-Paketen",
"settingSystemTools.tools.fd.desc": "fd schnelle und benutzerfreundliche Alternative zu find",
"settingSystemTools.tools.find.desc": "Unix find Standardbefehl zur Dateisuche",
"settingSystemTools.tools.grep.desc": "GNU grep Standardwerkzeug zur Textsuche",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI LobeHub-Dienste verwalten und verbinden",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight-Suche (schnelle indizierte Suche)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript-Laufzeitumgebung für JS/TS",
"settingSystemTools.tools.npm.desc": "npm - Node.js-Paketmanager für die Installation von Abhängigkeiten",
"settingSystemTools.tools.pnpm.desc": "pnpm schneller, platzsparender Paketmanager",
"settingSystemTools.tools.python.desc": "Python - Laufzeitumgebung für die Programmiersprache",
"settingSystemTools.tools.rg.desc": "ripgrep extrem schnelles Tool zur Textsuche",
"settingSystemTools.tools.uv.desc": "uv extrem schneller Python-Paketmanager",
"settingTTS.openai.sttModel": "OpenAI Sprach-zu-Text-Modell",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI Text-zu-Sprache-Modell",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modell",
"systemAgent.inputCompletion.modelDesc": "Modell, das für Eingabevorschläge zur automatischen Vervollständigung verwendet wird (wie GitHub Copilot-Geistertext)",
"systemAgent.inputCompletion.title": "Agent für automatische Eingabevervollständigung",
"systemAgent.promptRewrite.label": "Modell",
"systemAgent.promptRewrite.modelDesc": "Geben Sie das Modell an, das zum Umschreiben von Prompts verwendet wird",
"systemAgent.promptRewrite.title": "Prompt-Umschreibagent",
"systemAgent.queryRewrite.label": "Modell",
"systemAgent.queryRewrite.modelDesc": "Modell zur Optimierung von Benutzeranfragen",
"systemAgent.queryRewrite.title": "Agent zur Umschreibung von Bibliotheksanfragen",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Laden Sie eine lokale .zip- oder .skill-Datei hoch",
"tab.usage": "Nutzungsstatistik",
"tools.add": "Fähigkeit hinzufügen",
"tools.builtins.find-skills.description": "Hilft Nutzern, AgentenFähigkeiten zu entdecken und zu installieren, wenn sie fragen „Wie mache ich X?“, „Finde eine Fähigkeit für X“ oder Funktionen erweitern möchten",
"tools.builtins.find-skills.title": "Fähigkeiten finden",
"tools.builtins.groupName": "Integriert",
"tools.builtins.install": "Installieren",
"tools.builtins.installed": "Installiert",
"tools.builtins.lobe-activator.description": "Werkzeuge und Fähigkeiten entdecken und aktivieren",
"tools.builtins.lobe-activator.title": "Tools & Skills Aktivator",
"tools.builtins.lobe-agent-browser.description": "BrowserAutomatisierungsCLI für KI-Agenten. Nutzen Sie sie bei Aufgaben mit Webseiten- oder ElectronInteraktion wie Navigation, Formularausfüllung, Klicken, Screenshot-Erfassung, Datenscraping, LoginAbläufen und EndtoEndAppTests.",
"tools.builtins.lobe-agent-browser.title": "Agent Browser",
"tools.builtins.lobe-agent-builder.description": "Metadaten, Modelleinstellungen, Plugins und den System-Prompt des Agents konfigurieren",
"tools.builtins.lobe-agent-builder.title": "Agent Builder",
"tools.builtins.lobe-agent-documents.description": "Agentenbezogene Dokumente verwalten (auflisten, erstellen, lesen, bearbeiten, löschen, umbenennen) und LadeRegeln steuern",
"tools.builtins.lobe-agent-documents.title": "Dokumente",
"tools.builtins.lobe-agent-management.description": "KIAgenten erstellen, verwalten und orchestrieren",
"tools.builtins.lobe-agent-management.title": "Agentenverwaltung",
"tools.builtins.lobe-artifacts.description": "Interaktive UI-Komponenten, Datenvisualisierungen, Diagramme, SVG-Grafiken und Webanwendungen generieren und in Echtzeit anzeigen. Erstellen Sie reichhaltige visuelle Inhalte, mit denen Nutzer direkt interagieren können.",
"tools.builtins.lobe-artifacts.readme": "Erstellen und live-vorschauen interaktive UI-Komponenten, Datenvisualisierungen, Diagramme, SVG-Grafiken und Webanwendungen. Erzeugen Sie reichhaltige visuelle Inhalte, mit denen Nutzer direkt interagieren können.",
"tools.builtins.lobe-artifacts.title": "Artefakte",
"tools.builtins.lobe-brief.description": "Fortschritte melden, Ergebnisse liefern und Benutzerentscheidungen einholen",
"tools.builtins.lobe-brief.title": "Brief Tools",
"tools.builtins.lobe-calculator.description": "Mathematische Berechnungen durchführen, Gleichungen lösen und mit symbolischen Ausdrücken arbeiten",
"tools.builtins.lobe-calculator.readme": "Erweiterter mathematischer Rechner, der grundlegende Arithmetik, algebraische Gleichungen, Kalkulationsoperationen und symbolische Mathematik unterstützt. Beinhaltet Basisumrechnung, Gleichungslösung, Differentiation, Integration und mehr.",
"tools.builtins.lobe-calculator.title": "Rechner",
"tools.builtins.lobe-cloud-sandbox.description": "Python-, JavaScript- und TypeScript-Code in einer isolierten Cloud-Umgebung ausführen. Shell-Befehle ausführen, Dateien verwalten, Inhalte mit Regex durchsuchen und Ergebnisse sicher exportieren.",
"tools.builtins.lobe-cloud-sandbox.readme": "Führen Sie Python-, JavaScript- und TypeScript-Code in einer isolierten Cloud-Umgebung aus. Führen Sie Shell-Befehle aus, verwalten Sie Dateien, durchsuchen Sie Inhalte mit regulären Ausdrücken und exportieren Sie Ergebnisse sicher.",
"tools.builtins.lobe-cloud-sandbox.title": "Cloud-Sandbox",
"tools.builtins.lobe-creds.description": "Benutzeranmeldedaten für Authentifizierung, Umgebungsvariablen und APIVerifikation verwalten APISchlüssel, OAuthTokens und Secrets für Integrationen Dritter handhaben.",
"tools.builtins.lobe-creds.title": "Zugangsdaten",
"tools.builtins.lobe-cron.description": "Geplante Aufgaben verwalten, die automatisch zu bestimmten Zeiten ausgeführt werden. Wiederkehrende Aufgaben für Ihre Agenten erstellen, aktualisieren, aktivieren/deaktivieren und überwachen.",
"tools.builtins.lobe-cron.title": "Geplante Aufgaben",
"tools.builtins.lobe-group-agent-builder.description": "Metadaten, Mitglieder und gemeinsame Inhalte für MultiAgentenGruppen konfigurieren",
"tools.builtins.lobe-group-agent-builder.title": "GruppenAgentBuilder",
"tools.builtins.lobe-group-management.description": "Unterhaltungen von MultiAgentenGruppen orchestrieren und verwalten",
"tools.builtins.lobe-group-management.title": "Gruppenverwaltung",
"tools.builtins.lobe-gtd.description": "Ziele planen und Fortschritte mit der GTD-Methode verfolgen. Strategische Pläne erstellen, Aufgabenlisten mit Statusverfolgung verwalten und lang laufende asynchrone Aufgaben ausführen.",
"tools.builtins.lobe-gtd.readme": "Planen Sie Ziele und verfolgen Sie Fortschritte mit der GTD-Methodik. Erstellen Sie strategische Pläne, verwalten Sie Aufgabenlisten mit Statusverfolgung und führen Sie lang laufende asynchrone Aufgaben aus.",
"tools.builtins.lobe-gtd.title": "GTD-Werkzeuge",
"tools.builtins.lobe-knowledge-base.description": "Hochgeladene Dokumente und Domainwissen per semantischer Vektorsuche durchsuchen für persistente, wiederverwendbare Referenzen",
"tools.builtins.lobe-knowledge-base.title": "Wissensdatenbank",
"tools.builtins.lobe-local-system.description": "Zugriff auf Ihr lokales Dateisystem auf dem Desktop. Dateien lesen, schreiben, durchsuchen und organisieren. Shell-Befehle mit Unterstützung für Hintergrundaufgaben ausführen und Inhalte mit Regex-Mustern durchsuchen.",
"tools.builtins.lobe-local-system.readme": "Greifen Sie auf Ihr lokales Dateisystem auf dem Desktop zu. Lesen, schreiben, durchsuchen und organisieren Sie Dateien. Führen Sie Shell-Befehle mit Unterstützung für Hintergrundaufgaben aus und durchsuchen Sie Inhalte mit regulären Ausdrücken.",
"tools.builtins.lobe-local-system.title": "Lokales System",
"tools.builtins.lobe-message.description": "Nachrichten über mehrere MessagingPlattformen hinweg senden, lesen, bearbeiten und verwalten über eine einheitliche Schnittstelle",
"tools.builtins.lobe-message.readme": "Plattformübergreifendes MessagingTool mit Unterstützung für Discord, Telegram, Slack, Google Chat und IRC. Bietet einheitliche APIs für Nachrichtenoperationen, Reaktionen, Pins, Threads, Kanalverwaltung und plattformspezifische Funktionen wie Umfragen.",
"tools.builtins.lobe-message.title": "Nachricht",
"tools.builtins.lobe-notebook.description": "Erstellen und verwalten Sie persistente Dokumente innerhalb von Konversationsthemen. Notizen, Berichte, Artikel und Markdown-Inhalte speichern, die über Sitzungen hinweg zugänglich bleiben.",
"tools.builtins.lobe-notebook.readme": "Erstellen und verwalten Sie persistente Dokumente innerhalb von Konversationsthemen. Speichern Sie Notizen, Berichte, Artikel und Markdown-Inhalte, die über Sitzungen hinweg zugänglich bleiben.",
"tools.builtins.lobe-notebook.title": "Notizbuch",
"tools.builtins.lobe-page-agent.description": "Knoten in XMLstrukturierten Dokumenten erstellen, lesen, aktualisieren und löschen",
"tools.builtins.lobe-page-agent.readme": "Strukturierte Dokumente mit präziser Kontrolle auf Knotenebene erstellen und bearbeiten. Aus Markdown initialisieren, BatchOperationen durchführen und SuchenundErsetzen über Dokumente hinweg anwenden.",
"tools.builtins.lobe-page-agent.title": "Dokument",
"tools.builtins.lobe-remote-device.description": "RemoteDesktopGeräteverbindungen entdecken und verwalten",
"tools.builtins.lobe-remote-device.readme": "Verbindungen zu Ihren DesktopGeräten verwalten. OnlineGeräte auflisten, ein Gerät für RemoteOperationen aktivieren und den Verbindungsstatus prüfen.",
"tools.builtins.lobe-remote-device.title": "RemoteGerät",
"tools.builtins.lobe-skill-store.description": "AgentenFähigkeiten aus dem LobeHubMarktplatz durchsuchen und installieren. Nutzen Sie dies, wenn Sie Funktionen erweitern oder eine bestimmte Fähigkeit installieren möchten.",
"tools.builtins.lobe-skill-store.title": "FähigkeitenStore",
"tools.builtins.lobe-skills.description": "Wiederverwendbare Fähigkeitenpakete aktivieren und nutzen",
"tools.builtins.lobe-skills.title": "Fähigkeiten",
"tools.builtins.lobe-task.description": "Aufgaben mit Abhängigkeiten und ReviewKonfiguration erstellen, auflisten, bearbeiten und löschen",
"tools.builtins.lobe-task.title": "Aufgabentools",
"tools.builtins.lobe-topic-reference.description": "Kontext aus referenzierten Themenunterhaltungen abrufen",
"tools.builtins.lobe-topic-reference.title": "Themenreferenz",
"tools.builtins.lobe-user-interaction.description": "Benutzern über UIInteraktionen Fragen stellen und deren Ergebnisverläufe beobachten",
"tools.builtins.lobe-user-interaction.title": "Benutzerinteraktion",
"tools.builtins.lobe-user-memory.description": "Erstellen Sie eine personalisierte Wissensdatenbank über sich selbst. Präferenzen merken, Aktivitäten und Erfahrungen verfolgen, Identitätsinformationen speichern und relevanten Kontext in zukünftigen Gesprächen abrufen.",
"tools.builtins.lobe-user-memory.readme": "Erstellen Sie eine personalisierte Wissensdatenbank über sich selbst. Merken Sie sich Vorlieben, verfolgen Sie Aktivitäten und Erfahrungen, speichern Sie Identitätsinformationen und erinnern Sie sich an relevante Kontexte in zukünftigen Gesprächen.",
"tools.builtins.lobe-user-memory.title": "Gedächtnis",
"tools.builtins.lobe-web-browsing.description": "Web durchsuchen, um aktuelle Informationen zu finden, und Webseiten crawlen, um Inhalte zu extrahieren. Unterstützt mehrere Suchmaschinen, Kategorien und Zeiträume.",
"tools.builtins.lobe-web-browsing.readme": "Web nach aktuellen Informationen durchsuchen und Webseiten crawlen, um Inhalte zu extrahieren. Unterstützt mehrere Suchmaschinen, Kategorien und Zeiträume für umfassende Recherche.",
"tools.builtins.lobe-web-browsing.title": "WebBrowsing",
"tools.builtins.lobe-web-onboarding.description": "Den WebOnboardingProzess mit einer kontrollierten AgentenLaufzeit steuern",
"tools.builtins.lobe-web-onboarding.title": "WebOnboarding",
"tools.builtins.lobehub.description": "Die LobeHubPlattform per CLI verwalten Wissensdatenbanken, Speicher, Agenten, Dateien, Suche, Generierung und mehr.",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Nicht installiert",
"tools.builtins.task.description": "Aufgabenverwaltung und ausführung Aufgaben per CLI erstellen, verfolgen, überprüfen und abschließen.",
"tools.builtins.task.title": "Aufgabe",
"tools.builtins.uninstall": "Deinstallieren",
"tools.builtins.uninstallConfirm.desc": "Möchten Sie {{name}} wirklich deinstallieren? Diese Fähigkeit wird vom aktuellen Agenten entfernt.",
"tools.builtins.uninstallConfirm.title": "{{name}} deinstallieren",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "{{name}} trennen?",
"tools.lobehubSkill.disconnected": "Getrennt",
"tools.lobehubSkill.error": "Fehler",
"tools.lobehubSkill.providers.github.description": "GitHub ist eine Plattform für Versionskontrolle und Zusammenarbeit, die es Entwicklern ermöglicht, Code-Repositories zu hosten, zu prüfen und zu verwalten.",
"tools.lobehubSkill.providers.github.readme": "Mit GitHub verbinden, um auf Ihre Repositories zuzugreifen, Issues zu erstellen und zu verwalten, Pull Requests zu prüfen und an Code zusammenzuarbeiten alles in natürlicher Sprache mit Ihrem KIAssistenten.",
"tools.lobehubSkill.providers.linear.description": "Linear ist ein modernes Tool zur Aufgabenverfolgung und Projektverwaltung, das für leistungsstarke Teams entwickelt wurde, um bessere Software schneller zu entwickeln.",
"tools.lobehubSkill.providers.linear.readme": "Nutzen Sie die Funktionen von Linear direkt in Ihrem KI-Assistenten. Issues erstellen und aktualisieren, Sprints verwalten, Projektfortschritte verfolgen und Ihren Entwicklungsworkflow per Konversation optimieren.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Kalender ist ein integriertes Planungstool in Microsoft Outlook, mit dem Nutzer Termine erstellen, Meetings organisieren und ihre Zeit effektiv verwalten können.",
"tools.lobehubSkill.providers.microsoft.readme": "Integrieren Sie Outlook Kalender, um Ihre Termine nahtlos anzuzeigen, zu erstellen und zu verwalten. Meetings planen, Verfügbarkeiten prüfen, Erinnerungen setzen und Ihre Zeit per natürlicher Sprache koordinieren.",
"tools.lobehubSkill.providers.twitter.description": "X (ehemals Twitter) ist eine Social-Media-Plattform für Echtzeit-Updates, Nachrichten und Interaktion mit Ihrem Publikum über Beiträge, Antworten und Direktnachrichten.",
"tools.lobehubSkill.providers.twitter.readme": "Verbinden Sie sich mit X (Twitter), um Tweets zu posten, Ihre Timeline zu verwalten und mit Ihrem Publikum zu interagieren. Inhalte erstellen, Beiträge planen, Erwähnungen überwachen und Ihre Social-Media-Präsenz per Konversation ausbauen.",
"tools.lobehubSkill.providers.vercel.description": "Vercel ist eine CloudPlattform für FrontendEntwickler und bietet Hosting sowie serverlose Funktionen, um Webanwendungen mühelos bereitzustellen.",
"tools.lobehubSkill.providers.vercel.readme": "Mit Vercel verbinden, um Bereitstellungen zu verwalten, Projektstatus zu überwachen und Ihre Infrastruktur zu steuern. Anwendungen deployen, BuildLogs prüfen, Umgebungsvariablen verwalten und Projekte per KonversationsKI skalieren.",
"tools.notInstalled": "Nicht installiert",
"tools.notInstalledWarning": "Diese Fähigkeit ist derzeit nicht installiert, was die Funktionalität des Agenten beeinträchtigen kann.",
"tools.plugins.enabled": "Aktiviert: {{num}}",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Upgrade auf",
"credits.topUp.upgradeSuffix": "und spare ${{savings}}",
"credits.topUp.validityInfo": "{{months}} Monate gültig",
"crossPlatform.desc": "Dieses Abonnement wurde über die mobile App erworben und kann hier nicht geändert werden. Bitte verwalten Sie Ihr Abonnement auf Ihrem mobilen Gerät.",
"crossPlatform.manageOnMobile": "Auf mobilem Gerät verwalten",
"crossPlatform.title": "Plattformübergreifendes Abonnement",
"currentPlan.cancelAlert": "Das Abonnement wird nach dem {{canceledAt}} gekündigt. Du kannst es bis dahin unter „Abonnement verwalten“ wiederherstellen.",
"currentPlan.downgradeAlert": "Wird nach dem {{downgradedAt}} auf {{plan}} herabgestuft.",
"currentPlan.management": "Abonnement verwalten",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "Startbild",
"config.prompt.placeholder": "Beschreiben Sie das Video, das Sie erstellen möchten",
"config.prompt.placeholderWithRef": "Beschreiben Sie die Szene, die Sie mit dem Bild erstellen möchten",
"config.promptExtend.label": "Prompt-Erweiterung",
"config.referenceImage.label": "Referenzbild",
"config.resolution.label": "Auflösung",
"config.seed.label": "Seed",
"config.seed.random": "Zufällig",
"config.size.label": "Größe",
"config.watermark.label": "Wasserzeichen",
"config.webSearch.label": "Websuche",
"generation.actions.copyError": "Fehlermeldung kopieren",
"generation.actions.errorCopied": "Fehlermeldung in die Zwischenablage kopiert",
"generation.actions.errorCopyFailed": "Fehlermeldung konnte nicht kopiert werden",

View file

@ -77,6 +77,8 @@
"channel.publicKeyPlaceholder": "Required for interaction verification",
"channel.qq.appIdHint": "Your QQ Bot App ID from QQ Open Platform",
"channel.qq.description": "Connect this assistant to QQ for group chats and direct messages.",
"channel.qq.webhookMigrationDesc": "WebSocket mode provides real-time event delivery and automatic reconnection without needing a callback URL. To migrate, create a new bot on QQ Open Platform without configuring a callback URL, then switch the Connection Mode to WebSocket in Advanced Settings.",
"channel.qq.webhookMigrationTitle": "Consider migrating to WebSocket mode",
"channel.removeChannel": "Remove Channel",
"channel.removeFailed": "Failed to remove channel",
"channel.removed": "Channel removed",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Group deleted successfully",
"confirmRemoveSessionItemAlert": "You are about to delete this agent. Once deleted, it cannot be retrieved. Please confirm your action.",
"confirmRemoveSessionSuccess": "Agent removed successfully",
"createModal.createBlank": "Create Blank",
"createModal.groupPlaceholder": "Describe what this group should do...",
"createModal.groupTitle": "What should your group do?",
"createModal.placeholder": "Describe what your agent should do...",
"createModal.title": "What should your agent do?",
"defaultAgent": "Default Agent",
"defaultGroupChat": "Group",
"defaultList": "Default List",
@ -129,7 +134,7 @@
"input.addUser": "Add a user message",
"input.disclaimer": "Agents can make mistakes. Use your judgment for critical info.",
"input.errorMsg": "Send failed: {{errorMsg}}. Retry, or send again later.",
"input.more": "more",
"input.more": "More",
"input.send": "Send",
"input.sendWithCmdEnter": "Press <key/> to send",
"input.sendWithEnter": "Press <key/> to send",
@ -229,7 +234,7 @@
"operation.contextCompression": "Context too long, compressing history...",
"operation.execAgentRuntime": "Preparing response",
"operation.execClientTask": "Executing task",
"operation.execServerAgentRuntime": "Preparing response (switching tasks or closing the page won't stop)",
"operation.execServerAgentRuntime": "Running… You can switch tasks or close the page — the task will keep going.",
"operation.sendMessage": "Sending message",
"owner": "Group owner",
"pageCopilot.title": "Page Agent",
@ -383,6 +388,7 @@
"task.status.fetchingDetails": "Fetching details...",
"task.status.initializing": "Initializing task...",
"task.subtask": "Subtask",
"task.title": "Tasks",
"thread.divider": "Subtopic",
"thread.threadMessageCount": "{{messageCount}} messages",
"thread.title": "Subtopic",
@ -430,9 +436,11 @@
"toolAuth.title": "Authorize Skills for this Agent",
"topic.checkOpenNewTopic": "Start a new topic?",
"topic.checkSaveCurrentMessages": "Do you want to save the current conversation as a topic?",
"topic.defaultTitle": "Untitled Topic",
"topic.openNewTopic": "Open New Topic",
"topic.recent": "Recent Topics",
"topic.saveCurrentMessages": "Save current session as topic",
"topic.viewAll": "View All Topics",
"translate.action": "Translate",
"translate.clear": "Clear Translation",
"tts.action": "Text-to-Speech",
@ -457,6 +465,80 @@
"viewMode.fullWidth": "Full Width",
"viewMode.normal": "Standard",
"viewMode.wideScreen": "Widescreen",
"workflow.failedSuffix": "(failed)",
"workflow.thoughtForDuration": "Thought for {{duration}}",
"workflow.toolDisplayName.activateDevice": "Activated device",
"workflow.toolDisplayName.activateSkill": "Activated a skill",
"workflow.toolDisplayName.activateTools": "Activated tools",
"workflow.toolDisplayName.addActivityMemory": "Saved memory",
"workflow.toolDisplayName.addContextMemory": "Saved memory",
"workflow.toolDisplayName.addExperienceMemory": "Saved memory",
"workflow.toolDisplayName.addIdentityMemory": "Saved memory",
"workflow.toolDisplayName.addPreferenceMemory": "Saved memory",
"workflow.toolDisplayName.calculate": "Calculated",
"workflow.toolDisplayName.callAgent": "Called an agent",
"workflow.toolDisplayName.clearTodos": "Cleared todos",
"workflow.toolDisplayName.copyDocument": "Copied a document",
"workflow.toolDisplayName.crawlMultiPages": "Crawled pages",
"workflow.toolDisplayName.crawlSinglePage": "Crawled a page",
"workflow.toolDisplayName.createAgent": "Created an agent",
"workflow.toolDisplayName.createDocument": "Created a document",
"workflow.toolDisplayName.createPlan": "Created a plan",
"workflow.toolDisplayName.createTodos": "Created todos",
"workflow.toolDisplayName.deleteAgent": "Deleted an agent",
"workflow.toolDisplayName.deleteDocument": "Deleted a document",
"workflow.toolDisplayName.editDocument": "Edited a document",
"workflow.toolDisplayName.editLocalFile": "Edited a file",
"workflow.toolDisplayName.editTitle": "Edited title",
"workflow.toolDisplayName.evaluate": "Evaluated expression",
"workflow.toolDisplayName.execScript": "Executed a script",
"workflow.toolDisplayName.execTask": "Executed a task",
"workflow.toolDisplayName.execTasks": "Executed tasks",
"workflow.toolDisplayName.execute": "Executed calculation",
"workflow.toolDisplayName.executeCode": "Executed code",
"workflow.toolDisplayName.finishOnboarding": "Finished onboarding",
"workflow.toolDisplayName.getCommandOutput": "Read command output",
"workflow.toolDisplayName.getDocument": "Read a document",
"workflow.toolDisplayName.getOnboardingState": "Checked onboarding state",
"workflow.toolDisplayName.getPageContent": "Read Page content",
"workflow.toolDisplayName.getTopicContext": "Read topic context",
"workflow.toolDisplayName.globLocalFiles": "Searched files",
"workflow.toolDisplayName.grepContent": "Searched content",
"workflow.toolDisplayName.importFromMarket": "Imported from market",
"workflow.toolDisplayName.importSkill": "Imported a skill",
"workflow.toolDisplayName.initPage": "Initialized Page",
"workflow.toolDisplayName.killCommand": "Stopped a command",
"workflow.toolDisplayName.listDocuments": "Listed documents",
"workflow.toolDisplayName.listLocalFiles": "Listed files",
"workflow.toolDisplayName.listOnlineDevices": "Listed devices",
"workflow.toolDisplayName.modifyNodes": "Modified Page",
"workflow.toolDisplayName.moveLocalFiles": "Moved files",
"workflow.toolDisplayName.readDocument": "Read a document",
"workflow.toolDisplayName.readDocumentByFilename": "Read a document",
"workflow.toolDisplayName.readKnowledge": "Read knowledge",
"workflow.toolDisplayName.readLocalFile": "Read a file",
"workflow.toolDisplayName.removeDocument": "Removed a document",
"workflow.toolDisplayName.removeIdentityMemory": "Removed memory",
"workflow.toolDisplayName.renameDocument": "Renamed a document",
"workflow.toolDisplayName.renameLocalFile": "Renamed a file",
"workflow.toolDisplayName.replaceText": "Replaced text",
"workflow.toolDisplayName.runCommand": "Ran a command",
"workflow.toolDisplayName.search": "Searched the web",
"workflow.toolDisplayName.searchAgent": "Searched agents",
"workflow.toolDisplayName.searchKnowledgeBase": "Searched knowledge base",
"workflow.toolDisplayName.searchLocalFiles": "Searched files",
"workflow.toolDisplayName.searchSkill": "Searched skills",
"workflow.toolDisplayName.searchUserMemory": "Searched memory",
"workflow.toolDisplayName.solve": "Solved equation",
"workflow.toolDisplayName.updateAgent": "Updated an agent",
"workflow.toolDisplayName.updateDocument": "Updated a document",
"workflow.toolDisplayName.updateIdentityMemory": "Updated memory",
"workflow.toolDisplayName.updateLoadRule": "Updated load rule",
"workflow.toolDisplayName.updatePlan": "Updated plan",
"workflow.toolDisplayName.updateTodos": "Updated todos",
"workflow.toolDisplayName.upsertDocumentByFilename": "Updated a document",
"workflow.toolDisplayName.writeLocalFile": "Wrote a file",
"workflow.working": "Working...",
"you": "You",
"zenMode": "Zen Mode"
}

View file

@ -342,11 +342,20 @@
"mail.business": "Business Cooperation",
"mail.support": "Email Support",
"more": "More",
"navPanel.agent": "Agent",
"navPanel.agent": "Agents",
"navPanel.customizeSidebar": "Customize sidebar",
"navPanel.displayItems": "Display Items",
"navPanel.hidden": "Hidden",
"navPanel.hideSection": "Hide section",
"navPanel.library": "Library",
"navPanel.moveDown": "Move down",
"navPanel.moveUp": "Move up",
"navPanel.pinned": "Pinned",
"navPanel.searchAgent": "Search Agent...",
"navPanel.searchRecent": "Search Recent...",
"navPanel.searchResultEmpty": "No search results found",
"navPanel.show": "Show",
"navPanel.visible": "Visible",
"new": "New",
"noContent": "No content",
"oauth": "SSO Login",
@ -367,6 +376,7 @@
"promptTransform.actions.translate": "Translate",
"promptTransform.status.rewrite": "Expanding details...",
"promptTransform.status.translate": "Translating...",
"recents": "Recents",
"regenerate": "Regenerate",
"releaseNotes": "Version Details",
"rename": "Rename",
@ -405,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Community",
"tab.create": "Create",
"tab.discover": "Discover",
"tab.eval": "Eval Lab",
"tab.files": "Files",

View file

@ -12,7 +12,7 @@
"config.model.label": "Model",
"config.prompt.placeholder": "Describe what you want to generate",
"config.prompt.placeholderWithRef": "Describe how you want to adjust the image",
"config.promptExtend.label": "Extended Prompt",
"config.promptExtend.label": "Prompt Extend",
"config.quality.label": "Image Quality",
"config.quality.options.hd": "High Definition",
"config.quality.options.standard": "Standard",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "A top-performing model in China, surpassing major overseas models on Chinese tasks like knowledge, long-form text, and creative generation. It also features industry-leading multimodal capabilities with strong results on authoritative benchmarks.",
"Baichuan4.description": "Top domestic performance, surpassing leading overseas models on Chinese tasks like encyclopedic knowledge, long text, and creative generation. Also offers industry-leading multimodal capabilities and strong benchmark results.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS is a family of open-source LLMs from ByteDance Seed, designed for strong long-context handling, reasoning, agent, and general abilities. Seed-OSS-36B-Instruct is a 36B instruction-tuned model with native ultra-long context for processing large documents or codebases. It is optimized for reasoning, code generation, and agent tasks (tool use) while retaining strong general ability. A key feature is \"Thinking Budget,\" allowing flexible reasoning length to improve efficiency.",
"DeepSeek-OCR.description": "DeepSeek-OCR is a vision-language model from DeepSeek AI focused on OCR and \"context optical compression.\" It explores compressing context from images, efficiently processes documents, and converts them to structured text (e.g., Markdown). It accurately recognizes text in images, suited for document digitization, text extraction, and structured processing.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, the larger and smarter model in the DeepSeek suite, is distilled into the Llama 70B architecture. Benchmarks and human evals show it is smarter than the base Llama 70B, especially on math and fact-precision tasks.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "A DeepSeek-R1 distilled model based on Qwen2.5-Math-1.5B. Reinforcement learning and cold-start data optimize reasoning performance, setting new multi-task benchmarks for open models.",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill models are fine-tuned from open-source models using sample data generated by DeepSeek-R1.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Provider: sophnet. DeepSeek V3 Fast is the high-TPS version of DeepSeek V3 0324, full-precision (non-quantized) with stronger code and math and faster responses.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast is the high-TPS fast variant of DeepSeek V3.1. Hybrid thinking mode: via chat templates, one model supports both thinking and non-thinking. Smarter tool use: post-training boosts tool and agent task performance.",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 thinking mode: a new hybrid reasoning model with thinking and non-thinking modes, more efficient than DeepSeek-R1-0528. Post-training optimizations significantly improve agent tool use and agent task performance.",
"DeepSeek-V3.2.description": "deepseek-v3.2 introduces sparse attention mechanism, aiming to improve training and inference efficiency when processing long texts, priced lower than deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 is a MoE model developed by DeepSeek. It surpasses other open models like Qwen2.5-72B and Llama-3.1-405B on many benchmarks and is competitive with leading closed models such as GPT-4o and Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite offers ultra-fast responses and better value, with flexible options across scenarios. Supports 128K context for inference and fine-tuning.",
"Doubao-lite-32k.description": "Doubao-lite offers ultra-fast responses and better value, with flexible options across scenarios. Supports 32K context for inference and fine-tuning.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: High-performance model for reasoning, coding, and agent tasks.",
"GLM-4.6.description": "GLM-4.6: Previous generation model.",
"GLM-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, enhanced for Agentic Coding scenarios with improved coding capabilities, long-term task planning, and tool collaboration.",
"GLM-5-Turbo.description": "GLM-5-Turbo: Optimized version of GLM-5 with faster inference for coding tasks.",
"GLM-5-Turbo.description": "GLM-5-Turbo is a foundation model deeply optimized for agentic scenarios. It has been specifically optimized for core requirements of agent tasks from the training phase, enhancing key capabilities such as tool invocation, command following, and long-chain execution. It is ideal for building high-performance agent assistants.",
"GLM-5.1.description": "GLM-5.1 is Zhipu's latest flagship model, an enhanced iteration of GLM-5 with improved agentic engineering capabilities for complex systems engineering and long-horizon tasks.",
"GLM-5.description": "GLM-5 is Zhipu's next-generation flagship foundation model, purpose-built for Agentic Engineering. It delivers reliable productivity in complex systems engineering and long-horizon agentic tasks. In coding and agent capabilities, GLM-5 achieves state-of-the-art performance among open-source models.",
"GLM-5.description": "GLM-5 is Zhipus next-generation flagship foundation model, purpose-built for Agentic Engineering. It delivers reliable productivity in complex systems engineering and long-horizon agentic tasks. In coding and agent capabilities, GLM-5 achieves state-of-the-art performance among open-source models. In real-world programming scenarios, its user experience approaches that of Claude Opus 4.5. It excels at complex systems engineering and long-horizon agent tasks, making it an ideal foundation model for general-purpose agent assistants.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) is an innovative model for diverse domains and complex tasks.",
"HY-Image-V3.0.description": "Powerful original-image feature extraction and detail preservation capabilities, delivering richer visual texture and producing high-accuracy, well-composed, production-grade visuals.",
"HelloMeme.description": "HelloMeme is an AI tool that generates memes, GIFs, or short videos from the images or motions you provide. It requires no drawing or coding skills—just a reference image—to produce fun, attractive, and stylistically consistent content.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter is a tuning-free personalized character generation model released by Tencent AI in 2025, aiming for high-fidelity, cross-scenario consistent character generation. It can model a character from a single reference image and flexibly transfer it across styles, actions, and backgrounds.",
"InternVL2-8B.description": "InternVL2-8B is a powerful vision-language model supporting multimodal image-text processing, accurately recognizing image content and generating relevant descriptions or answers.",
"InternVL2.5-26B.description": "InternVL2.5-26B is a powerful vision-language model supporting multimodal image-text processing, accurately recognizing image content and generating relevant descriptions or answers.",
"KAT-Coder-Air-V1.description": "A lightweight version within the KAT-Coder series. Specifically designed for Agentic Coding, it comprehensively covers programming tasks and scenarios. Leveraging large-scale agent-based reinforcement learning, it enables emergent intelligent behaviors and significantly outperforms comparable models in coding performance.",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B is the RL innovation experimental version in the KAT-Coder series, achieving a remarkable performance of 74.6% on the SWE-Bench verified benchmark, setting a new record for open-source models. It focuses on Agentic Coding and currently only supports the SWE-Agent scaffold, but can also be used for simple conversations.",
"KAT-Coder-Pro-V1.description": "Designed for Agentic Coding, it comprehensively covers programming tasks and scenarios, achieving intelligent behavior emergence through large-scale reinforcement learning, significantly outperforming similar models in code writing performance.",
"KAT-Coder-Pro-V2.description": "The latest high-performance model from the Kuaishou Kwaipilot team, designed for complex enterprise projects and SaaS integration. It excels in code-related scenarios and is compatible with various types of agent frameworks (Claude Code, OpenCode, KiloCode), natively supports OpenClaw, and is optimized specifically for front-end page aesthetics.",
"Kimi-K2.5.description": "Kimi K2.5 is the most capable Kimi model, delivering open-source SOTA in agent tasks, coding, and vision understanding. It supports multimodal inputs and both thinking and non-thinking modes.",
"Kolors.description": "Kolors is a text-to-image model developed by the Kuaishou Kolors team. Trained with billions of parameters, it has notable advantages in visual quality, Chinese semantic understanding, and text rendering.",
"Kwai-Kolors/Kolors.description": "Kolors is a large-scale latent-diffusion text-to-image model by the Kuaishou Kolors team. Trained on billions of text-image pairs, it excels in visual quality, complex semantic accuracy, and Chinese/English text rendering, with strong Chinese content understanding and generation.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) is an open-source 32B model for software engineering tasks. It achieves a 62.4% solve rate on SWE-Bench Verified, ranking 5th among open models. It is optimized through mid-training, SFT, and RL for code completion, bug fixing, and code review.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Cutting-edge small language model with strong language understanding, excellent reasoning, and text generation.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 is the most advanced multilingual open-source Llama model, delivering near-405B performance at very low cost. It is Transformer-based and improved with SFT and RLHF for usefulness and safety. The instruction-tuned version is optimized for multilingual chat and beats many open and closed chat models on industry benchmarks. Knowledge cutoff: Dec 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is a large MoE model with efficient expert activation for strong reasoning performance.",
"MiMo-V2-Pro.description": "MiMo-V2-Pro is specifically designed for high-intensity agent workflows in real-world scenarios. It features over 1 trillion total parameters (42B activated parameters), adopts an innovative hybrid attention architecture, and supports an ultra-long context length of up to 1 million tokens. Built on a powerful foundational model, we continuously scale computational resources across a broader range of agent scenarios, further expanding the action space of intelligence and achieving significant generalization—from coding to real-world task execution (“claw”).",
"MiniMax-Hailuo-02.description": "The next-generation video generation model, MiniMax Hailuo 02, has been officially released, supporting 1080P resolution and 10-second video generation.",
"MiniMax-Hailuo-2.3-Fast.description": "Brand-new video generation model with comprehensive upgrades in body motion, physical realism, and instruction following.",
"MiniMax-Hailuo-2.3.description": "Brand-new video generation model with comprehensive upgrades in body motion, physical realism, and instruction following.",
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
"MiniMax-M2.1-Lightning.description": "Powerful multilingual programming capabilities with faster and more efficient inference.",
"MiniMax-M2.1-highspeed.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience. Faster and more efficient.",
"MiniMax-M2.1.description": "MiniMax-M2.1 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Same performance as M2.5 with faster inference.",
"MiniMax-M2.5.description": "MiniMax-M2.5 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Same performance as M2.7 with significantly faster inference.",
"MiniMax-M2.7.description": "MiniMax M2.7: Beginning the journey of recursive self-improvement, top real-world engineering capabilities.",
"MiniMax-M2.7.description": "First self-evolving model with top-tier coding and agentic performance (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Previous generation model.",
"MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is an open-weights large-scale hybrid-attention reasoning model with 456B total parameters and ~45.9B active per token. It natively supports 1M context and uses Flash Attention to cut FLOPs by 75% on 100K-token generation vs DeepSeek R1. With an MoE architecture plus CISPO and hybrid-attention RL training, it achieves leading performance on long-input reasoning and real software engineering tasks.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is the newest and most powerful Kimi K2. It is a top-tier MoE model with 1T total and 32B active parameters. Key features include stronger agentic coding intelligence with significant gains on benchmarks and real-world agent tasks, plus improved frontend coding aesthetics and usability.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is the Turbo variant optimized for reasoning speed and throughput while retaining K2 Thinkings multi-step reasoning and tool use. It is an MoE model with ~1T total parameters, native 256K context, and stable large-scale tool calling for production scenarios with stricter latency and concurrency needs.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 is an open-source native multimodal agent model, built on Kimi-K2-Base, trained on approximately 1.5 trillion mixed vision and text tokens. The model adopts an MoE architecture with 1T total parameters and 32B active parameters, supporting a 256K context window, seamlessly integrating vision and language understanding capabilities.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 is a next-generation flagship model designed for agent engineering, using a Mixture of Experts (MoE) architecture with 754B parameters. It significantly enhances programming capabilities, achieving leading results on SWE-Bench Pro, and substantially outperforms its predecessor on benchmarks like NL2Repo and Terminal-Bench 2.0. Designed for long-duration agent tasks, it handles ambiguous questions with better judgment, decomposes complex tasks, executes experiments, analyzes results, and continuously optimizes through hundreds of iterations and thousands of tool calls.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 is Zhipu's new generation flagship model with 355B total parameters and 32B active parameters, fully upgraded in general dialogue, reasoning, and agent capabilities. GLM-4.7 enhances Interleaved Thinking and introduces Preserved Thinking and Turn-level Thinking.",
"Pro/zai-org/glm-5.description": "GLM-5 is Zhipu's next-generation large language model, focusing on complex system engineering and long-duration Agent tasks. The model parameters have been expanded to 744B (40B active) and integrate DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improving reasoning.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 is optimized for advanced reasoning and instruction-following, using MoE to keep reasoning efficient at scale.",
"Qwen3-235B.description": "Qwen3-235B-A22B is a MoE model that introduces a hybrid reasoning mode, letting users switch seamlessly between thinking and non-thinking. It supports understanding and reasoning across 119 languages and dialects and has strong tool-calling capabilities, competing with mainstream models like DeepSeek R1, OpenAI o1, o3-mini, Grok 3, and Google Gemini 2.5 Pro across benchmarks in general ability, code and math, multilingual capability, and knowledge reasoning.",
"Qwen3-32B.description": "Qwen3-32B is a dense model that introduces a hybrid reasoning mode, letting users switch between thinking and non-thinking. With architecture improvements, more data, and better training, it performs on par with Qwen2.5-72B.",
"Qwen3.5-Plus.description": "Qwen3.5 Plus supports text, image, and video input. Its performance on pure text tasks is comparable to Qwen3 Max, with better performance and lower cost. Its multimodal capabilities are significantly improved compared to the Qwen3 VL series.",
"S2V-01.description": "The foundational reference-to-video model of the 01 series.",
"SenseChat-128K.description": "Base V4 with 128K context, strong in long-text understanding and generation.",
"SenseChat-32K.description": "Base V4 with 32K context, flexible for many scenarios.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropics fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropics fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 is Anthropics fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropics flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's most intelligent model for building agents and coding.",
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropics most intelligent model for building agents and coding.",
"claude-opus-4.5.description": "Claude Opus 4.5 is Anthropics flagship model, combining top-tier intelligence with scalable performance for complex, high-quality reasoning tasks.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 is Anthropics most intelligent model for building agents and coding.",
"claude-opus-4.6.description": "Claude Opus 4.6 is Anthropics most intelligent model for building agents and coding.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic's most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic's best combination of speed and intelligence.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropics best combination of speed and intelligence.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 is Anthropics best combination of speed and intelligence.",
"claude-sonnet-4.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step reasoning that users can see. API users can finely control how long the model thinks.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought capabilities.",
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat models general dialogue and the coder models strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks code-focused model with strong code generation.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
"ernie-x1.1.description": "ERNIE X1.1 is a thinking-model preview for evaluation and testing.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
"fal-ai/nano-banana.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
"flux-dev.description": "Open-source R&D image generation model, efficiently optimized for non-commercial innovation research.",
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
"flux-kontext-pro.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
"flux-merged.description": "FLUX.1 [merged] combines the deep features explored in \"DEV\" with the high-speed advantages of \"Schnell\", extending performance limits and broadening applications.",
"flux-pro-1.1-ultra.description": "Ultra-high-resolution image generation with 4MP output, producing crisp images in 10 seconds.",
"flux-pro-1.1.description": "Upgraded professional-grade image generation model with excellent image quality and precise prompt adherence.",
"flux-pro.description": "Top-tier commercial image generation model with unmatched image quality and diverse outputs.",
"flux-schnell.description": "FLUX.1 [schnell] is the most advanced open-source few-step model, surpassing similar competitors and even strong non-distilled models like Midjourney v6.0 and DALL-E 3 (HD). It is finely tuned to preserve pretraining diversity, significantly improving visual quality, instruction following, size/aspect variation, font handling, and output diversity.",
"flux.1-schnell.description": "FLUX.1-schnell is a high-performance image generation model for fast multi-style outputs.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) provides stable, tunable performance for complex tasks.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) provides strong multimodal support for complex tasks.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model that also supports multimodal dialogue.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Googles image generation model and also supports multimodal chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is Googles most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview is Google's most cost-efficient multimodal model, optimized for high-volume agentic tasks, translation, and data processing.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview improves on Gemini 3 Pro with enhanced reasoning capabilities and adds medium thinking level support.",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "Our most powerful, advanced model, designed for complex enterprise tasks with outstanding performance.",
"jamba-mini.description": "The most efficient model in its class, balancing speed and quality with a smaller footprint.",
"jina-deepsearch-v1.description": "DeepSearch combines web search, reading, and reasoning for thorough investigations. Think of it as an agent that takes your research task, performs broad searches with multiple iterations, and only then produces an answer. The process involves continuous research, reasoning, and multi-angle problem solving, fundamentally different from standard LLMs that answer from pretraining data or traditional RAG systems that rely on one-shot surface search.",
"k2p5.description": "Kimi K2.5 is Kimi's most versatile model to date, featuring a native multimodal architecture that supports both vision and text inputs, 'thinking' and 'non-thinking' modes, and both conversational and agent tasks.",
"kimi-k2-0711-preview.description": "kimi-k2 is an MoE foundation model with strong coding and agent capabilities (1T total params, 32B active), outperforming other mainstream open models across reasoning, programming, math, and agent benchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offers a 256k context window, stronger agentic coding, better front-end code quality, and improved context understanding.",
"kimi-k2-instruct.description": "Kimi K2 Instruct is Kimis official reasoning model with long context for code, QA, and more.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ is a reasoning model in the Qwen family. Compared with standard instruction-tuned models, it brings thinking and reasoning abilities that significantly improve downstream performance, especially on hard problems. QwQ-32B is a mid-sized reasoning model that competes well with top reasoning models like DeepSeek-R1 and o1-mini.",
"qwq_32b.description": "Mid-sized reasoning model in the Qwen family. Compared with standard instruction-tuned models, QwQs thinking and reasoning abilities significantly boost downstream performance, especially on hard problems.",
"r1-1776.description": "R1-1776 is a post-trained variant of DeepSeek R1 designed to provide uncensored, unbiased factual information.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance supports text-to-video, image-to-video (first frame, first+last frame), and audio generation synchronized with visuals.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus features web-retrieval-augmented generation for real-time information, enhanced complex prompt interpretation, and improved reference consistency for professional visual creation.",
"solar-mini-ja.description": "Solar Mini (Ja) extends Solar Mini with a focus on Japanese while maintaining efficient, strong performance in English and Korean.",
"solar-mini.description": "Solar Mini is a compact LLM that outperforms GPT-3.5, with strong multilingual capability supporting English and Korean, offering an efficient small-footprint solution.",
"solar-pro.description": "Solar Pro is a high-intelligence LLM from Upstage, focused on instruction following on a single GPU, with IFEval scores above 80. It currently supports English; the full release was planned for November 2024 with expanded language support and longer context.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 is our new powerful media generation model, generating videos with synced audio. It can create richly detailed, dynamic clips from natural language or images.",
"spark-x.description": "X2 Capabilities Overview: 1. Introduces dynamic adjustment of reasoning mode, controlled via the `thinking` field. 2. Expanded context length: 64K input tokens and 128K output tokens. 3. Supports Function Call functionality.",
"stable-diffusion-3-medium.description": "The latest text-to-image model from Stability AI. This version significantly improves image quality, text understanding, and style diversity, interpreting complex natural-language prompts more accurately and generating more precise, diverse images.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applies adversarial diffusion distillation (ADD) to stable-diffusion-3.5-large for faster speed.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is an 800M-parameter MMDiT text-to-image model with excellent quality and prompt alignment, supporting 1-megapixel images and efficient runs on consumer hardware.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 is initialized from the v1.2 checkpoint and fine-tuned for 595k steps on \"laion-aesthetics v2 5+\" at 512x512 resolution, reducing text conditioning by 10% to improve classifier-free guidance sampling.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo focuses on high-quality image generation with strong detail rendering and scene fidelity.",
"stable-diffusion-xl-base-1.0.description": "An open-source text-to-image model from Stability AI with industry-leading creative image generation. It has strong instruction understanding and supports reverse prompt definitions for precise generation.",
"stable-diffusion-xl.description": "stable-diffusion-xl brings major improvements over v1.5 and matches top open text-to-image results. Improvements include a 3x larger UNet backbone, a refinement module for better image quality, and more efficient training techniques.",
"step-1-128k.description": "Balances performance and cost for general scenarios.",
"step-1-256k.description": "Extra-long context handling, ideal for long-document analysis.",
"step-1-32k.description": "Supports mid-length conversations for a wide range of scenarios.",

View file

@ -33,7 +33,6 @@
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
"kimicodingplan.description": "Kimi Code from Moonshot AI provides access to Kimi models including K2.5 for coding tasks.",
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
"longcat.description": "LongCat is a series of generative AI large models independently developed by Meituan. It is designed to enhance internal enterprise productivity and enable innovative applications through an efficient computational architecture and strong multimodal capabilities.",
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan provides access to MiniMax models including M2.7 for coding tasks via a fixed-fee subscription.",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Upgrade to",
"credits.topUp.upgradeSuffix": "to save ${{savings}}",
"credits.topUp.validityInfo": "{{months}} months validity",
"crossPlatform.desc": "This subscription was purchased through the mobile app and cannot be modified here. Please manage your subscription on your mobile device.",
"crossPlatform.manageOnMobile": "Manage on mobile device",
"crossPlatform.title": "Cross-Platform Subscription",
"currentPlan.cancelAlert": "Subscription will be cancelled after {{canceledAt}}. You can still restore it in \"Manage Subscription\" before then",
"currentPlan.downgradeAlert": "Will be downgraded to {{plan}} after {{downgradedAt}}.",
"currentPlan.management": "Manage Subscription",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot conectado exitosamente",
"channel.connecting": "Conectando...",
"channel.connectionConfig": "Configuración de Conexión",
"channel.connectionMode": "Modo de conexión",
"channel.connectionModeHint": "Se recomienda WebSocket para los bots nuevos. Use Webhook si su bot ya tiene una URL de callback configurada en la Plataforma Abierta de QQ.",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "Copiado al portapapeles",
"channel.copy": "Copiar",
"channel.credentials": "Credenciales",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Por favor, copia esta URL y pégala en el campo <bold>{{fieldName}}</bold> en el Portal de Desarrolladores de {{name}}.",
"channel.exportConfig": "Exportar configuración",
"channel.feishu.description": "Conecta este asistente a Feishu para chats privados y grupales.",
"channel.feishu.webhookMigrationDesc": "El modo WebSocket ofrece entrega de eventos en tiempo real sin necesidad de una URL de callback pública. Para migrar, cambie el Modo de Conexión a WebSocket en Configuración Avanzada. No se necesita ninguna configuración adicional en la Plataforma Abierta de Feishu/Lark.",
"channel.feishu.webhookMigrationTitle": "Considere migrar al modo WebSocket",
"channel.historyLimit": "Límite de Mensajes en el Historial",
"channel.historyLimitHint": "Número predeterminado de mensajes para recuperar al leer el historial del canal",
"channel.importConfig": "Importar configuración",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Requerida para la verificación de interacciones",
"channel.qq.appIdHint": "Tu ID de aplicación de bot de QQ desde la Plataforma Abierta de QQ",
"channel.qq.description": "Conecta este asistente a QQ para chats grupales y mensajes directos.",
"channel.qq.webhookMigrationDesc": "El modo WebSocket ofrece entrega de eventos en tiempo real y reconexión automática sin necesidad de una URL de callback. Para migrar, cree un nuevo bot en la Plataforma Abierta de QQ sin configurar una URL de callback y luego cambie el Modo de Conexión a WebSocket en Configuración Avanzada.",
"channel.qq.webhookMigrationTitle": "Considere migrar al modo WebSocket",
"channel.removeChannel": "Eliminar Canal",
"channel.removeFailed": "Error al eliminar el canal",
"channel.removed": "Canal eliminado",
@ -93,7 +101,11 @@
"channel.signingSecret": "Secreto de firma",
"channel.signingSecretHint": "Usado para verificar solicitudes de webhook.",
"channel.slack.appIdHint": "Tu ID de aplicación de Slack desde el panel de API de Slack (comienza con A).",
"channel.slack.appToken": "Token a nivel de aplicación",
"channel.slack.appTokenHint": "Requerido para el Socket Mode (WebSocket). Genere un token a nivel de aplicación (xapp-...) en Información Básica dentro de la configuración de su aplicación de Slack.",
"channel.slack.description": "Conecta este asistente a Slack para conversaciones en canales y mensajes directos.",
"channel.slack.webhookMigrationDesc": "El Socket Mode ofrece entrega de eventos en tiempo real mediante WebSocket sin exponer un endpoint HTTP público. Para migrar, active el Socket Mode en la configuración de su aplicación de Slack, genere un Token a nivel de aplicación y luego cambie el Modo de Conexión a WebSocket en Configuración Avanzada.",
"channel.slack.webhookMigrationTitle": "Considere migrar al Socket Mode (WebSocket)",
"channel.telegram.description": "Conecta este asistente a Telegram para chats privados y grupales.",
"channel.testConnection": "Probar Conexión",
"channel.testFailed": "Prueba de conexión fallida",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Grupo eliminado con éxito",
"confirmRemoveSessionItemAlert": "Estás a punto de eliminar este agente. Una vez eliminado, no se podrá recuperar. Por favor, confirma tu acción.",
"confirmRemoveSessionSuccess": "Agente eliminado con éxito",
"createModal.createBlank": "Crear en blanco",
"createModal.groupPlaceholder": "Describe lo que debería hacer este grupo...",
"createModal.groupTitle": "¿Qué debería hacer tu grupo?",
"createModal.placeholder": "Describe lo que debería hacer tu agente...",
"createModal.title": "¿Qué debería hacer tu agente?",
"defaultAgent": "Agente predeterminado",
"defaultGroupChat": "Grupo",
"defaultList": "Lista predeterminada",
@ -229,6 +234,7 @@
"operation.contextCompression": "Contexto demasiado largo, comprimiendo historial...",
"operation.execAgentRuntime": "Preparando respuesta",
"operation.execClientTask": "Ejecutando tarea",
"operation.execServerAgentRuntime": "Ejecutando… Puedes cambiar de tarea o cerrar la página: la tarea seguirá en marcha.",
"operation.sendMessage": "Enviando mensaje",
"owner": "Propietario del grupo",
"pageCopilot.title": "Agente de página",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Obteniendo detalles...",
"task.status.initializing": "Inicializando tarea...",
"task.subtask": "Subtarea",
"task.title": "Tareas",
"thread.divider": "Subtema",
"thread.threadMessageCount": "{{messageCount}} mensajes",
"thread.title": "Subtema",
@ -429,9 +436,11 @@
"toolAuth.title": "Autorizar habilidades para este agente",
"topic.checkOpenNewTopic": "¿Iniciar un nuevo tema?",
"topic.checkSaveCurrentMessages": "¿Deseas guardar la conversación actual como un tema?",
"topic.defaultTitle": "Tema sin título",
"topic.openNewTopic": "Abrir nuevo tema",
"topic.recent": "Temas recientes",
"topic.saveCurrentMessages": "Guardar sesión actual como tema",
"topic.viewAll": "Ver todos los temas",
"translate.action": "Traducir",
"translate.clear": "Borrar traducción",
"tts.action": "Texto a voz",

View file

@ -343,10 +343,19 @@
"mail.support": "Soporte por correo",
"more": "Más",
"navPanel.agent": "Agente",
"navPanel.customizeSidebar": "Personalizar barra lateral",
"navPanel.displayItems": "Elementos visibles",
"navPanel.hidden": "Oculto",
"navPanel.hideSection": "Ocultar sección",
"navPanel.library": "Biblioteca",
"navPanel.moveDown": "Mover hacia abajo",
"navPanel.moveUp": "Mover hacia arriba",
"navPanel.pinned": "Fijado",
"navPanel.searchAgent": "Buscar agente...",
"navPanel.searchRecent": "Buscar recientes...",
"navPanel.searchResultEmpty": "No se encontraron resultados",
"navPanel.show": "Mostrar",
"navPanel.visible": "Visible",
"new": "Nuevo",
"noContent": "Sin contenido",
"oauth": "Inicio de sesión SSO",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "Apóyanos",
"productHunt.description": "Apóyanos en Product Hunt. ¡Tu apoyo significa mucho para nosotros!",
"productHunt.title": "¡Estamos en Product Hunt!",
"promptTransform.action": "Refinar idea",
"promptTransform.actions.rewrite": "Ampliar detalles",
"promptTransform.actions.translate": "Traducir",
"promptTransform.status.rewrite": "Ampliando detalles...",
"promptTransform.status.translate": "Traduciendo...",
"recents": "Recientes",
"regenerate": "Regenerar",
"releaseNotes": "Detalles de la versión",
"rename": "Renombrar",
@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Comunidad",
"tab.create": "Crear",
"tab.discover": "Descubrir",
"tab.eval": "Laboratorio de Evaluación",
"tab.files": "Archivos",

View file

@ -12,6 +12,7 @@
"config.model.label": "Modelo",
"config.prompt.placeholder": "Describe lo que deseas generar",
"config.prompt.placeholderWithRef": "Describe cómo quieres ajustar la imagen",
"config.promptExtend.label": "Extensión de indicaciones",
"config.quality.label": "Calidad de imagen",
"config.quality.options.hd": "Alta definición",
"config.quality.options.standard": "Estándar",
@ -24,6 +25,8 @@
"config.size.label": "Tamaño",
"config.steps.label": "Pasos",
"config.title": "Configuración",
"config.watermark.label": "Marca de agua",
"config.webSearch.label": "Búsqueda web",
"config.width.label": "Anchura",
"generation.actions.applySeed": "Aplicar semilla",
"generation.actions.copyError": "Copiar mensaje de error",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Agrupa los mensajes del agente y los resultados de sus herramientas para mostrarlos juntos",
"features.assistantMessageGroup.title": "Agrupación de Mensajes del Agente",
"features.gatewayMode.desc": "Ejecuta las tareas del agente en el servidor a través del WebSocket de Gateway en lugar de hacerlo localmente. Permite una ejecución más rápida y reduce el uso de recursos del cliente.",
"features.gatewayMode.title": "Ejecución del agente del lado del servidor (Gateway)",
"features.groupChat.desc": "Activa la coordinación de chat grupal con múltiples agentes.",
"features.groupChat.title": "Chat Grupal (Multiagente)",
"features.inputMarkdown.desc": "Renderiza Markdown en el área de entrada en tiempo real (texto en negrita, bloques de código, tablas, etc.).",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Modelo de alto rendimiento en China, que supera a modelos internacionales en tareas en chino como conocimiento, texto largo y generación creativa. También cuenta con capacidades multimodales líderes en la industria con resultados sólidos en pruebas de referencia autorizadas.",
"Baichuan4.description": "Rendimiento nacional líder, superando a modelos internacionales en tareas en chino como conocimiento enciclopédico, texto largo y generación creativa. También ofrece capacidades multimodales líderes en la industria y resultados sólidos en pruebas de referencia.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS es una familia de modelos LLM de código abierto de ByteDance Seed, diseñados para manejar contextos largos, razonamiento, agentes y habilidades generales. Seed-OSS-36B-Instruct es un modelo de 36B ajustado por instrucciones con contexto ultra largo nativo para procesar documentos o bases de código extensas. Está optimizado para razonamiento, generación de código y tareas de agente (uso de herramientas), manteniendo una gran capacidad general. Una característica clave es el \"Presupuesto de Pensamiento\", que permite una longitud de razonamiento flexible para mejorar la eficiencia.",
"DeepSeek-OCR.description": "DeepSeek-OCR es un modelo visiónlenguaje de DeepSeek AI centrado en OCR y en la “compresión óptica de contexto”. Explora la compresión de contexto a partir de imágenes, procesa documentos de forma eficiente y los convierte en texto estructurado (por ejemplo, Markdown). Reconoce texto en imágenes con alta precisión, ideal para la digitalización de documentos, extracción de texto y procesamiento estructurado.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, el modelo más grande e inteligente de la suite DeepSeek, ha sido destilado en la arquitectura Llama 70B. Las pruebas de referencia y evaluaciones humanas muestran que es más inteligente que el Llama 70B base, especialmente en tareas de matemáticas y precisión factual.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Modelo destilado de DeepSeek-R1 basado en Qwen2.5-Math-1.5B. El aprendizaje por refuerzo y los datos de arranque en frío optimizan el rendimiento en razonamiento, estableciendo nuevos estándares de referencia multitarea para modelos abiertos.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Los modelos DeepSeek-R1-Distill están ajustados a partir de modelos de código abierto utilizando datos de muestra generados por DeepSeek-R1.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Proveedor: sophnet. DeepSeek V3 Fast es la versión de alta velocidad de DeepSeek V3 0324, de precisión completa (sin cuantización), con mejor rendimiento en código y matemáticas y respuestas más rápidas.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast es la variante rápida de alta velocidad de DeepSeek V3.1. Modo de pensamiento híbrido: mediante plantillas de chat, un solo modelo admite modos de pensamiento y no pensamiento. Uso de herramientas más inteligente: el postentrenamiento mejora el rendimiento en tareas de herramientas y agentes.",
"DeepSeek-V3.1-Think.description": "Modo de pensamiento de DeepSeek-V3.1: un nuevo modelo de razonamiento híbrido con modos de pensamiento y no pensamiento, más eficiente que DeepSeek-R1-0528. Las optimizaciones posteriores al entrenamiento mejoran significativamente el uso de herramientas de agente y el rendimiento en tareas de agente.",
"DeepSeek-V3.2.description": "deepseek-v3.2 incorpora un mecanismo de atención dispersa para mejorar la eficiencia de entrenamiento e inferencia al procesar textos largos, con un precio inferior al de deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE desarrollado por DeepSeek. Supera a otros modelos abiertos como Qwen2.5-72B y Llama-3.1-405B en muchas pruebas de referencia y compite con modelos cerrados líderes como GPT-4o y Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite ofrece respuestas ultra rápidas y mejor relación calidad-precio, con opciones flexibles para distintos escenarios. Admite contexto de 128K para inferencia y ajuste fino.",
"Doubao-lite-32k.description": "Doubao-lite ofrece respuestas ultra rápidas y mejor relación calidad-precio, con opciones flexibles para distintos escenarios. Admite contexto de 32K para inferencia y ajuste fino.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Modelo de alto rendimiento para razonamiento, programación y tareas de agentes.",
"GLM-4.6.description": "GLM-4.6: Modelo de la generación anterior.",
"GLM-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, mejorado para escenarios de codificación agentiva con capacidades de programación avanzadas, planificación de tareas a largo plazo y colaboración con herramientas.",
"GLM-5-Turbo.description": "GLM-5-Turbo: Versión optimizada de GLM-5 con inferencia más rápida para tareas de programación.",
"GLM-5-Turbo.description": "GLM-5-Turbo es un modelo base profundamente optimizado para escenarios agentivos. Ha sido específicamente ajustado desde la fase de entrenamiento para cubrir los requisitos fundamentales de las tareas de agentes, mejorando capacidades clave como la invocación de herramientas, el seguimiento de instrucciones y la ejecución de cadenas largas. Es ideal para construir asistentes agentivos de alto rendimiento.",
"GLM-5.1.description": "GLM-5.1 es el último modelo insignia de Zhipu, una iteración mejorada del GLM-5 con capacidades avanzadas de ingeniería agéntica para sistemas complejos y tareas de largo alcance.",
"GLM-5.description": "GLM-5 es el modelo base insignia de próxima generación de Zhipu, diseñado específicamente para Ingeniería Agentiva. Ofrece productividad confiable en sistemas de ingeniería complejos y tareas agentivas de largo alcance. En capacidades de programación y agentes, GLM-5 logra un rendimiento de vanguardia entre los modelos de código abierto.",
"GLM-5.description": "GLM-5 es el modelo base insignia de nueva generación de Zhipu, diseñado específicamente para la Ingeniería Agentiva. Ofrece productividad fiable en ingeniería de sistemas complejos y tareas agentivas de largo horizonte. En capacidades de programación y agentes, GLM-5 alcanza un rendimiento líder entre los modelos de código abierto. En escenarios reales de programación, su experiencia de uso se acerca a la de Claude Opus 4.5. Destaca en ingeniería de sistemas avanzados y tareas agentivas prolongadas, siendo un modelo base ideal para asistentes agentivos de propósito general.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) es un modelo innovador para dominios diversos y tareas complejas.",
"HY-Image-V3.0.description": "Potentes capacidades de extracción de características de la imagen original y preservación de detalles, ofreciendo una textura visual más rica y produciendo imágenes de alta precisión, bien compuestas y de calidad profesional.",
"HelloMeme.description": "HelloMeme es una herramienta de IA que genera memes, GIFs o videos cortos a partir de imágenes o movimientos proporcionados. No requiere habilidades de dibujo ni programación: solo una imagen de referencia para crear contenido divertido, atractivo y estilísticamente coherente.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter es un modelo de generación de personajes personalizados sin necesidad de ajuste, lanzado por Tencent AI en 2025. Permite generar personajes con alta fidelidad y consistencia entre escenarios. Puede modelar un personaje a partir de una sola imagen de referencia y transferirlo con flexibilidad entre estilos, acciones y fondos.",
"InternVL2-8B.description": "InternVL2-8B es un potente modelo visión-lenguaje que admite procesamiento multimodal imagen-texto, reconociendo con precisión el contenido visual y generando descripciones o respuestas relevantes.",
"InternVL2.5-26B.description": "InternVL2.5-26B es un potente modelo visión-lenguaje que admite procesamiento multimodal imagen-texto, reconociendo con precisión el contenido visual y generando descripciones o respuestas relevantes.",
"KAT-Coder-Air-V1.description": "Una versión ligera dentro de la serie KAT-Coder. Diseñada específicamente para Agentic Coding, cubre de forma completa tareas y escenarios de programación. Aprovecha el aprendizaje por refuerzo a gran escala basado en agentes, permitiendo comportamientos inteligentes emergentes y superando ampliamente a modelos comparables en rendimiento de programación.",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B es la versión experimental con innovaciones de aprendizaje por refuerzo dentro de la serie KAT-Coder, logrando un rendimiento sobresaliente del 74.6% en el benchmark verificado SWE-Bench, estableciendo un nuevo récord para modelos de código abierto. Está centrado en Agentic Coding y actualmente solo es compatible con el andamiaje SWE-Agent, aunque también puede usarse para conversaciones simples.",
"KAT-Coder-Pro-V1.description": "Diseñado para Agentic Coding, cubre de forma completa tareas y escenarios de programación, logrando comportamientos inteligentes emergentes mediante aprendizaje por refuerzo a gran escala, superando notablemente a modelos similares en rendimiento de escritura de código.",
"KAT-Coder-Pro-V2.description": "El modelo de alto rendimiento más reciente del equipo Kuaishou Kwaipilot, diseñado para proyectos empresariales complejos e integración SaaS. Destaca en escenarios relacionados con programación y es compatible con varios tipos de marcos agentivos (Claude Code, OpenCode, KiloCode), con soporte nativo para OpenClaw y optimización específica para estética de interfaces frontend.",
"Kimi-K2.5.description": "Kimi K2.5 es el modelo más potente de Kimi, con rendimiento SOTA de código abierto en tareas agentivas, programación y comprensión visual. Soporta entradas multimodales y modos con y sin razonamiento.",
"Kolors.description": "Kolors es un modelo de texto a imagen desarrollado por el equipo Kolors de Kuaishou. Entrenado con miles de millones de parámetros, destaca por su calidad visual, comprensión semántica en chino y renderizado de texto.",
"Kwai-Kolors/Kolors.description": "Kolors es un modelo de difusión latente a gran escala de texto a imagen del equipo Kolors de Kuaishou. Entrenado con miles de millones de pares texto-imagen, sobresale en calidad visual, precisión semántica compleja y renderizado de texto en chino/inglés, con sólida comprensión y generación de contenido en chino.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) es un modelo de código abierto de 32B para tareas de ingeniería de software. Logra una tasa de resolución del 62.4% en SWE-Bench Verified, ocupando el 5.º lugar entre los modelos abiertos. Está optimizado mediante entrenamiento intermedio, SFT y RL para completar código, corregir errores y revisar código.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modelo de lenguaje pequeño de última generación con sólida comprensión del lenguaje, excelente razonamiento y generación de texto.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 es el modelo Llama multilingüe de código abierto más avanzado, con rendimiento cercano al de modelos de 405B a un costo muy bajo. Basado en Transformer y mejorado con SFT y RLHF para utilidad y seguridad. La versión ajustada por instrucciones está optimizada para chat multilingüe y supera a muchos modelos abiertos y cerrados en benchmarks de la industria. Fecha de corte de conocimiento: diciembre de 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick es un modelo MoE grande con activación eficiente de expertos para un rendimiento sólido en razonamiento.",
"MiMo-V2-Pro.description": "MiMo-V2-Pro está diseñado específicamente para flujos de trabajo agentivos de alta intensidad en escenarios reales. Cuenta con más de 1 billón de parámetros totales (42B activados), adopta una arquitectura híbrida de atención innovadora y soporta una longitud de contexto extremadamente larga de hasta 1 millón de tokens. Construido sobre un potente modelo base, ampliamos continuamente los recursos computacionales para un rango más amplio de escenarios agentivos, expandiendo el espacio de acción de la inteligencia y logrando una fuerte generalización—desde programación hasta ejecución de tareas reales (“claw”).",
"MiniMax-Hailuo-02.description": "El modelo de generación de video de próxima generación, MiniMax Hailuo 02, ha sido lanzado oficialmente, soportando resolución 1080P y generación de videos de 10 segundos.",
"MiniMax-Hailuo-2.3-Fast.description": "Nuevo modelo de generación de video con mejoras integrales en movimiento corporal, realismo físico y seguimiento de instrucciones.",
"MiniMax-Hailuo-2.3.description": "Nuevo modelo de generación de video con mejoras integrales en movimiento corporal, realismo físico y seguimiento de instrucciones.",
"MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
"MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
"MiniMax-M2.1-Lightning.description": "Potentes capacidades de programación multilingüe con inferencia más rápida y eficiente.",
"MiniMax-M2.1-highspeed.description": "Potentes capacidades de programación multilingüe, con una experiencia de programación completamente mejorada. Más rápido y eficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 es un modelo insignia de código abierto de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son sus capacidades de programación multilingüe y su habilidad para resolver tareas complejas como un Agente.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Mismo rendimiento que M2.5 con inferencia más rápida.",
"MiniMax-M2.5.description": "MiniMax-M2.5 es un modelo insignia de código abierto de gran tamaño de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son las capacidades de programación multilingüe y la habilidad para resolver tareas complejas como un Agente.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Mismo rendimiento que M2.7 con inferencia significativamente más rápida.",
"MiniMax-M2.7.description": "MiniMax M2.7: Comenzando el camino hacia la mejora recursiva, capacidades de ingeniería de primer nivel en el mundo real.",
"MiniMax-M2.7.description": "Primer modelo autoevolutivo con rendimiento de primer nivel en programación y tareas agentivas (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Modelo de la generación anterior.",
"MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 es un modelo de razonamiento híbrido de atención a gran escala con pesos abiertos, con un total de 456 mil millones de parámetros y ~45.9 mil millones activos por token. Admite de forma nativa un contexto de 1 millón y utiliza Flash Attention para reducir los FLOPs en un 75% en generación de 100K tokens frente a DeepSeek R1. Con una arquitectura MoE más CISPO y entrenamiento RL de atención híbrida, logra un rendimiento líder en razonamiento de entradas largas y tareas reales de ingeniería de software.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo MoE de primer nivel con 1 billón de parámetros totales y 32 mil millones activos. Sus características clave incluyen mayor inteligencia en programación con agentes, mejoras significativas en pruebas de referencia y tareas reales de agentes, además de una estética y usabilidad mejoradas en programación frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo es la variante Turbo optimizada para velocidad de razonamiento y rendimiento, manteniendo el razonamiento de múltiples pasos y uso de herramientas de K2 Thinking. Es un modelo MoE con aproximadamente 1 billón de parámetros totales, contexto nativo de 256K y llamadas a herramientas estables a gran escala para escenarios de producción con necesidades estrictas de latencia y concurrencia.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 es un modelo agente multimodal nativo de código abierto, basado en Kimi-K2-Base, entrenado con aproximadamente 1.5 billones de tokens mixtos de visión y texto. El modelo adopta una arquitectura MoE con 1T de parámetros totales y 32B de parámetros activos, soportando una ventana de contexto de 256K, integrando de forma fluida capacidades de comprensión visual y lingüística.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 es un modelo insignia de nueva generación diseñado para ingeniería agentiva, utilizando una arquitectura Mixture of Experts (MoE) con 754B parámetros. Mejora significativamente las capacidades de programación, logrando resultados líderes en SWE-Bench Pro y superando ampliamente a su predecesor en benchmarks como NL2Repo y Terminal-Bench 2.0. Diseñado para tareas agentivas de larga duración, maneja preguntas ambiguas con mejor criterio, descompone tareas complejas, ejecuta experimentos, analiza resultados y optimiza continuamente a través de cientos de iteraciones y miles de llamadas a herramientas.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu con un total de 355 mil millones de parámetros y 32 mil millones de parámetros activos, completamente mejorado en diálogo general, razonamiento y capacidades de agentes. GLM-4.7 mejora el Pensamiento Intercalado e introduce Pensamiento Preservado y Pensamiento a Nivel de Turno.",
"Pro/zai-org/glm-5.description": "GLM-5 es el modelo de lenguaje grande de próxima generación de Zhipu, enfocado en ingeniería de sistemas complejos y tareas de Agente de larga duración. Los parámetros del modelo se han ampliado a 744 mil millones (40 mil millones activos) e integran DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 está optimizado para razonamiento avanzado y seguimiento de instrucciones, utilizando MoE para mantener la eficiencia del razonamiento a gran escala.",
"Qwen3-235B.description": "Qwen3-235B-A22B es un modelo MoE que introduce un modo de razonamiento híbrido, permitiendo a los usuarios cambiar sin problemas entre pensamiento y no pensamiento. Admite comprensión y razonamiento en 119 idiomas y dialectos, y tiene sólidas capacidades de llamada a herramientas, compitiendo con modelos como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 y Google Gemini 2.5 Pro en benchmarks de capacidad general, código y matemáticas, capacidad multilingüe y razonamiento de conocimiento.",
"Qwen3-32B.description": "Qwen3-32B es un modelo denso que introduce un modo de razonamiento híbrido, permitiendo a los usuarios cambiar entre pensamiento y no pensamiento. Con mejoras en la arquitectura, más datos y mejor entrenamiento, su rendimiento es comparable al de Qwen2.5-72B.",
"Qwen3.5-Plus.description": "Qwen3.5 Plus soporta entrada de texto, imagen y video. Su rendimiento en tareas de solo texto es comparable al de Qwen3 Max, con mejor rendimiento y menor costo. Sus capacidades multimodales mejoran significativamente frente a la serie Qwen3 VL.",
"S2V-01.description": "El modelo base de referencia a video de la serie 01.",
"SenseChat-128K.description": "Base V4 con contexto de 128K, excelente en comprensión y generación de textos largos.",
"SenseChat-32K.description": "Base V4 con contexto de 32K, flexible para múltiples escenarios.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad extraordinaria y razonamiento ampliado.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y capaz de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más poderoso de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, con excelencia en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
"claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y codificación.",
"claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para crear agentes y programar.",
"claude-opus-4.5.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia de primer nivel con un rendimiento escalable para tareas complejas de razonamiento de alta calidad.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
"claude-opus-4.6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento extendido paso a paso con control detallado para usuarios de API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede producir respuestas casi instantáneas o razonamientos extendidos paso a paso con proceso visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 ofrece la mejor combinación de velocidad e inteligencia de Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 puede producir respuestas casi instantáneas o razonamientos detallados paso a paso que los usuarios pueden observar. Los usuarios de la API pueden controlar con precisión cuánto tiempo piensa el modelo.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo de razonamiento de próxima generación con capacidades mejoradas de razonamiento complejo y cadenas de pensamiento.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. Los puntos de referencia públicos alcanzan niveles de GPT-5, y es el primero en integrar el pensamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo de chat y la sólida capacidad de codificación del modelo coder, con mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las salidas para mayor precisión, con resultados de competencia superiores y razonamiento comparable a Gemini-3.0-Pro.",
"deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
"ernie-x1.1.description": "ERNIE X1.1 es un modelo de pensamiento en vista previa para evaluación y pruebas.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, soporta edición y composición de múltiples imágenes. Presenta consistencia mejorada de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado de texto-imagen de alta precisión.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, soporta entradas de texto e imagen para generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed, compatible con entrada de texto e imagen y con generación de imágenes de alta calidad y alto nivel de control. Genera imágenes a partir de indicaciones textuales.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen, que soporta ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
"fal-ai/qwen-image.description": "Un modelo poderoso de generación de imágenes del equipo Qwen con fuerte renderizado de texto en chino y estilos visuales diversos.",
"fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen que admite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
"fal-ai/qwen-image.description": "Modelo de generación de imágenes potente del equipo Qwen, con excelente renderizado de texto en chino y diversos estilos visuales.",
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
"flux-dev.description": "Modelo de generación de imágenes de I+D de código abierto, optimizado de forma eficiente para investigación innovadora no comercial.",
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
"flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
"flux-merged.description": "FLUX.1 [merged] combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
"flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
"flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
"flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
"flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
"flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) ofrece un rendimiento estable y ajustable para tareas complejas.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) proporciona un sólido soporte multimodal para tareas complejas.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
"gemini-3-flash-preview.description": "Gemini 3 Flash es el modelo más inteligente diseñado para la velocidad, combinando inteligencia de vanguardia con una excelente fundamentación en búsquedas.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google que también admite diálogo multimodal.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también soporta chat multimodal.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también admite chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo de generación de imágenes más rápido de Google con soporte de pensamiento, generación conversacional de imágenes y edición.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte de chat multimodal.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo más rápido de Google para generación de imágenes, con soporte de razonamiento, generación conversacional de imágenes y edición.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview es el modelo multimodal más rentable de Google, optimizado para tareas agentivas de alto volumen, traducción y procesamiento de datos.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview mejora las capacidades de razonamiento de Gemini 3 Pro y añade soporte para un nivel de pensamiento medio.",
"gemini-flash-latest.description": "Última versión de Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "Nuestro modelo más potente y avanzado, diseñado para tareas empresariales complejas con un rendimiento sobresaliente.",
"jamba-mini.description": "El modelo más eficiente de su clase, equilibrando velocidad y calidad con un tamaño reducido.",
"jina-deepsearch-v1.description": "DeepSearch combina búsqueda web, lectura y razonamiento para investigaciones exhaustivas. Funciona como un agente que toma tu tarea de investigación, realiza búsquedas amplias con múltiples iteraciones y luego produce una respuesta. El proceso implica investigación continua, razonamiento y resolución de problemas desde múltiples ángulos, diferenciándose fundamentalmente de los LLM estándar que responden desde datos preentrenados o sistemas RAG tradicionales que dependen de búsquedas superficiales de una sola vez.",
"k2p5.description": "Kimi K2.5 es el modelo más versátil de Kimi hasta la fecha, con una arquitectura multimodal nativa que admite tanto entradas de visión como de texto, modos de 'pensamiento' y 'no pensamiento', y tareas tanto conversacionales como de agente.",
"kimi-k2-0711-preview.description": "kimi-k2 es un modelo base MoE con sólidas capacidades de programación y agentes (1T de parámetros totales, 32B activos), superando a otros modelos abiertos en razonamiento, programación, matemáticas y benchmarks de agentes.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview ofrece una ventana de contexto de 256k, codificación agente más sólida, mejor calidad de código frontend y comprensión de contexto mejorada.",
"kimi-k2-instruct.description": "Kimi K2 Instruct es el modelo oficial de razonamiento de Kimi con contexto largo para código, preguntas y respuestas, y más.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas difíciles. QwQ-32B es un modelo de razonamiento de tamaño medio que compite con los mejores modelos como DeepSeek-R1 y o1-mini.",
"qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.",
"r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance soporta texto a video, imagen a video (primer fotograma, primer+último fotograma) y generación de audio sincronizado con visuales.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus presenta generación aumentada con recuperación web para información en tiempo real, interpretación mejorada de indicaciones complejas y consistencia de referencia mejorada para creación visual profesional.",
"solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.",
"solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.",
"solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 es nuestro nuevo modelo poderoso de generación de medios, generando videos con audio sincronizado. Puede crear clips dinámicos y detallados a partir de lenguaje natural o imágenes.",
"spark-x.description": "Resumen de capacidades de X2: 1. Introduce ajuste dinámico del modo de razonamiento, controlado a través del campo `thinking`. 2. Longitud de contexto expandida: 64K tokens de entrada y 128K tokens de salida. 3. Admite funcionalidad de llamada de funciones (Function Call).",
"stable-diffusion-3-medium.description": "El último modelo de texto a imagen de Stability AI. Esta versión mejora significativamente la calidad de imagen, la comprensión del texto y la diversidad de estilos, interpretando indicaciones en lenguaje natural complejas con mayor precisión y generando imágenes más precisas y variadas.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica destilación de difusión adversarial (ADD) a stable-diffusion-3.5-large para mayor velocidad.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large es un modelo de texto a imagen MMDiT con 800 millones de parámetros que ofrece una excelente calidad y alineación con los prompts, compatible con imágenes de 1 megapíxel y ejecución eficiente en hardware de consumo.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 se inicializa desde el checkpoint v1.2 y se afina durante 595k pasos en \"laion-aesthetics v2 5+\" a una resolución de 512x512, reduciendo el condicionamiento de texto en un 10% para mejorar el muestreo sin clasificador.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo se centra en la generación de imágenes de alta calidad con un fuerte nivel de detalle y fidelidad de escena.",
"stable-diffusion-xl-base-1.0.description": "Un modelo de texto a imagen de código abierto de Stability AI con generación creativa de imágenes líder en la industria. Posee una sólida comprensión de instrucciones y admite definiciones inversas de prompts para una generación precisa.",
"stable-diffusion-xl.description": "stable-diffusion-xl presenta mejoras significativas respecto a la versión v1.5 y alcanza resultados comparables con los mejores modelos de texto a imagen de código abierto. Las mejoras incluyen una red UNet 3 veces más grande, un módulo de refinamiento para mayor calidad de imagen y técnicas de entrenamiento más eficientes.",
"step-1-128k.description": "Equilibra rendimiento y costo para escenarios generales.",
"step-1-256k.description": "Manejo de contexto extra largo, ideal para análisis de documentos extensos.",
"step-1-32k.description": "Admite conversaciones de longitud media para una amplia gama de escenarios.",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} parámetros en total",
"arguments.title": "Argumentos",
"builtins.lobe-activator.apiName.activateTools": "Activar Herramientas",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} no encontrado",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtener modelos disponibles",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtener habilidades disponibles",
"builtins.lobe-agent-builder.apiName.getConfig": "Obtener configuración",

View file

@ -33,7 +33,6 @@
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
"kimicodingplan.description": "Kimi Code de Moonshot AI proporciona acceso a los modelos Kimi, incluidos K2.5, para tareas de codificación.",
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso con Créditos vinculados a los tokens del modelo.",
"longcat.description": "LongCat es una serie de modelos grandes de inteligencia artificial generativa desarrollados de manera independiente por Meituan. Está diseñado para mejorar la productividad interna de la empresa y permitir aplicaciones innovadoras mediante una arquitectura computacional eficiente y sólidas capacidades multimodales.",
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
"minimaxcodingplan.description": "El Plan de Tokens MiniMax proporciona acceso a los modelos MiniMax, incluidos M2.7, para tareas de codificación mediante una suscripción de tarifa fija.",
@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark ofrece IA multilingüe potente en múltiples dominios, habilitando innovaciones en hardware inteligente, salud, finanzas y otros sectores.",
"stepfun.description": "Los modelos Stepfun ofrecen capacidades líderes en razonamiento multimodal y complejo, con comprensión de contexto largo y potente orquestación de búsqueda autónoma.",
"straico.description": "Straico simplifica la integración de la IA al proporcionar un espacio de trabajo unificado que reúne los mejores modelos generativos de texto, imagen y audio, empoderando a los mercadólogos, emprendedores y entusiastas con acceso fluido a diversas herramientas de IA.",
"streamlake.description": "StreamLake es una plataforma empresarial de servicios de modelos y computación en la nube de IA que integra inferencia de modelos de alto rendimiento, personalización de modelos de bajo costo y servicios completamente gestionados, para ayudar a las empresas a centrarse en la innovación de aplicaciones de IA sin preocuparse por la complejidad y el costo de los recursos de computación subyacentes.",
"taichu.description": "Un modelo multimodal de nueva generación de CASIA y el Instituto de IA de Wuhan, que admite preguntas y respuestas multivuelta, redacción, generación de imágenes, comprensión 3D y análisis de señales con mayor cognición y creatividad.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power proporciona preguntas y respuestas de conocimiento de extremo a extremo para empresas y desarrolladores, con servicios modulares como análisis de documentos, segmentación, embeddings y reescritura multivuelta para crear soluciones de IA personalizadas.",
"togetherai.description": "Together AI ofrece rendimiento líder con modelos innovadores, amplia personalización, escalado rápido y despliegue sencillo para necesidades empresariales.",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "Herramientas del sistema",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - herramienta rápida para buscar código",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI de automatización de navegadores sin cabeza para agentes de IA",
"settingSystemTools.tools.bun.desc": "Bun: un entorno de ejecución de JavaScript y gestor de paquetes rápido",
"settingSystemTools.tools.bunx.desc": "bunx: ejecutor de paquetes de Bun para ejecutar paquetes de npm",
"settingSystemTools.tools.fd.desc": "fd - alternativa rápida y fácil de usar a find",
"settingSystemTools.tools.find.desc": "find de Unix - comando estándar para búsqueda de archivos",
"settingSystemTools.tools.grep.desc": "GNU grep - herramienta estándar para búsqueda de texto",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI: gestiona y conecta con los servicios de LobeHub",
"settingSystemTools.tools.mdfind.desc": "Búsqueda Spotlight de macOS (búsqueda indexada rápida)",
"settingSystemTools.tools.node.desc": "Node.js - entorno de ejecución JavaScript para JS/TS",
"settingSystemTools.tools.npm.desc": "npm - gestor de paquetes Node.js para instalar dependencias",
"settingSystemTools.tools.pnpm.desc": "pnpm: un gestor de paquetes rápido y eficiente en el uso de espacio en disco",
"settingSystemTools.tools.python.desc": "Python - entorno de ejecución del lenguaje de programación",
"settingSystemTools.tools.rg.desc": "ripgrep - herramienta de búsqueda de texto extremadamente rápida",
"settingSystemTools.tools.uv.desc": "uv: un gestor de paquetes de Python extremadamente rápido",
"settingTTS.openai.sttModel": "Modelo de Reconocimiento de Voz de OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Modelo de Texto a Voz de OpenAI",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modelo",
"systemAgent.inputCompletion.modelDesc": "Modelo utilizado para sugerencias de autocompletado de entrada (como el texto fantasma de GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agente de Autocompletado de Entrada",
"systemAgent.promptRewrite.label": "Modelo",
"systemAgent.promptRewrite.modelDesc": "Especifica el modelo utilizado para reescribir indicaciones",
"systemAgent.promptRewrite.title": "Agente de Reescritura de Indicaciones",
"systemAgent.queryRewrite.label": "Modelo",
"systemAgent.queryRewrite.modelDesc": "Especifica el modelo usado para optimizar las consultas del usuario",
"systemAgent.queryRewrite.title": "Agente de Reescritura de Consultas",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Sube un archivo local .zip o .skill",
"tab.usage": "Estadísticas de Uso",
"tools.add": "Agregar Habilidad",
"tools.builtins.find-skills.description": "Ayuda a los usuarios a descubrir e instalar habilidades de agentes cuando preguntan \"¿cómo hago X?\", \"encuentra una habilidad para X\" o quieren ampliar capacidades",
"tools.builtins.find-skills.title": "Buscar Habilidades",
"tools.builtins.groupName": "Integradas",
"tools.builtins.install": "Instalar",
"tools.builtins.installed": "Instalado",
"tools.builtins.lobe-activator.description": "Descubre y activa herramientas y habilidades",
"tools.builtins.lobe-activator.title": "Activador de Herramientas y Habilidades",
"tools.builtins.lobe-agent-browser.description": "CLI de automatización del navegador para agentes de IA. Úsalo cuando las tareas involucren interacción con sitios web o Electron, como navegación, relleno de formularios, clics, capturas de pantalla, extracción de datos, flujos de inicio de sesión y pruebas completas de aplicaciones.",
"tools.builtins.lobe-agent-browser.title": "Navegador de Agente",
"tools.builtins.lobe-agent-builder.description": "Configura los metadatos del agente, los ajustes del modelo, los plugins y la indicación del sistema",
"tools.builtins.lobe-agent-builder.title": "Constructor de Agentes",
"tools.builtins.lobe-agent-documents.description": "Gestiona documentos asociados al agente (listar, crear, leer, editar, eliminar, renombrar) y reglas de carga",
"tools.builtins.lobe-agent-documents.title": "Documentos",
"tools.builtins.lobe-agent-management.description": "Crea, gestiona y orquesta agentes de IA",
"tools.builtins.lobe-agent-management.title": "Gestión de Agentes",
"tools.builtins.lobe-artifacts.description": "Genera y previsualiza en vivo componentes de interfaz interactivos, visualizaciones de datos, gráficos, imágenes SVG y aplicaciones web. Crea contenido visual enriquecido con el que los usuarios pueden interactuar directamente.",
"tools.builtins.lobe-artifacts.readme": "Genera y previsualiza en vivo componentes de interfaz interactivos, visualizaciones de datos, gráficos, SVG y aplicaciones web. Crea contenido visual enriquecido con el que los usuarios pueden interactuar directamente.",
"tools.builtins.lobe-artifacts.title": "Artefactos",
"tools.builtins.lobe-brief.description": "Reporta progreso, entrega resultados y solicita decisiones del usuario",
"tools.builtins.lobe-brief.title": "Herramientas de Informe",
"tools.builtins.lobe-calculator.description": "Realiza cálculos matemáticos, resuelve ecuaciones y trabaja con expresiones simbólicas",
"tools.builtins.lobe-calculator.readme": "Calculadora matemática avanzada que admite aritmética básica, ecuaciones algebraicas, operaciones de cálculo y matemáticas simbólicas. Incluye conversión de bases, resolución de ecuaciones, diferenciación, integración y más.",
"tools.builtins.lobe-calculator.title": "Calculadora",
"tools.builtins.lobe-cloud-sandbox.description": "Ejecuta código en Python, JavaScript y TypeScript en un entorno aislado en la nube. Ejecuta comandos de terminal, gestiona archivos, busca contenido con expresiones regulares y exporta resultados de forma segura.",
"tools.builtins.lobe-cloud-sandbox.readme": "Ejecuta código en Python, JavaScript y TypeScript en un entorno aislado en la nube. Ejecuta comandos de terminal, gestiona archivos, busca contenido con expresiones regulares y exporta resultados de forma segura.",
"tools.builtins.lobe-cloud-sandbox.title": "Sandbox en la Nube",
"tools.builtins.lobe-creds.description": "Gestiona credenciales de usuario para autenticación, inyección de variables de entorno y verificación de API — administra claves API, tokens OAuth y secretos para integraciones de terceros.",
"tools.builtins.lobe-creds.title": "Credenciales",
"tools.builtins.lobe-cron.description": "Gestiona tareas programadas que se ejecutan automáticamente en horarios específicos. Crea, actualiza, habilita/deshabilita y supervisa tareas recurrentes para tus agentes.",
"tools.builtins.lobe-cron.title": "Tareas Programadas",
"tools.builtins.lobe-group-agent-builder.description": "Configura metadatos del grupo, miembros y contenido compartido para grupos multiagente",
"tools.builtins.lobe-group-agent-builder.title": "Constructor de Agentes de Grupo",
"tools.builtins.lobe-group-management.description": "Orquesta y gestiona conversaciones de grupos multiagente",
"tools.builtins.lobe-group-management.title": "Gestión de Grupos",
"tools.builtins.lobe-gtd.description": "Planifica objetivos y haz seguimiento del progreso utilizando la metodología GTD. Crea planes estratégicos, gestiona listas de tareas con seguimiento de estado y ejecuta tareas asincrónicas de larga duración.",
"tools.builtins.lobe-gtd.readme": "Planifica objetivos y haz seguimiento del progreso utilizando la metodología GTD. Crea planes estratégicos, gestiona listas de tareas con seguimiento de estado y ejecuta tareas asíncronas de larga duración.",
"tools.builtins.lobe-gtd.title": "Herramientas GTD",
"tools.builtins.lobe-knowledge-base.description": "Busca documentos cargados y conocimiento de dominio mediante búsqueda semántica vectorial — para referencia persistente y reutilizable",
"tools.builtins.lobe-knowledge-base.title": "Base de Conocimiento",
"tools.builtins.lobe-local-system.description": "Accede a tu sistema de archivos local en el escritorio. Lee, escribe, busca y organiza archivos. Ejecuta comandos de terminal con soporte para tareas en segundo plano y busca contenido con patrones regex.",
"tools.builtins.lobe-local-system.readme": "Accede a tu sistema de archivos local desde el escritorio. Lee, escribe, busca y organiza archivos. Ejecuta comandos de terminal con soporte para tareas en segundo plano y busca contenido con patrones regex.",
"tools.builtins.lobe-local-system.title": "Sistema Local",
"tools.builtins.lobe-message.description": "Envía, lee, edita y gestiona mensajes a través de múltiples plataformas de mensajería con una interfaz unificada",
"tools.builtins.lobe-message.readme": "Herramienta de mensajería multiplataforma compatible con Discord, Telegram, Slack, Google Chat e IRC. Proporciona APIs unificadas para operaciones de mensajes, reacciones, fijados, hilos, gestión de canales y funciones específicas de cada plataforma como encuestas.",
"tools.builtins.lobe-message.title": "Mensaje",
"tools.builtins.lobe-notebook.description": "Crea y gestiona documentos persistentes dentro de temas de conversación. Guarda notas, informes, artículos y contenido en markdown accesible entre sesiones.",
"tools.builtins.lobe-notebook.readme": "Crea y gestiona documentos persistentes dentro de temas de conversación. Guarda notas, informes, artículos y contenido en markdown accesible entre sesiones.",
"tools.builtins.lobe-notebook.title": "Cuaderno",
"tools.builtins.lobe-page-agent.description": "Crea, lee, actualiza y elimina nodos en documentos estructurados en XML",
"tools.builtins.lobe-page-agent.readme": "Crea y edita documentos estructurados con control preciso a nivel de nodo. Inicializa desde Markdown, realiza operaciones masivas de inserción/modificación/eliminación y busca y reemplaza texto en documentos.",
"tools.builtins.lobe-page-agent.title": "Documento",
"tools.builtins.lobe-remote-device.description": "Descubre y gestiona conexiones de dispositivos de escritorio remotos",
"tools.builtins.lobe-remote-device.readme": "Gestiona conexiones con tus dispositivos de escritorio. Lista dispositivos en línea, activa un dispositivo para operaciones remotas y verifica el estado de la conexión.",
"tools.builtins.lobe-remote-device.title": "Dispositivo Remoto",
"tools.builtins.lobe-skill-store.description": "Explora e instala habilidades de agentes desde el marketplace de LobeHub. Úsalo cuando necesites capacidades ampliadas o quieras instalar una habilidad específica.",
"tools.builtins.lobe-skill-store.title": "Tienda de Habilidades",
"tools.builtins.lobe-skills.description": "Activa y utiliza paquetes de habilidades reutilizables",
"tools.builtins.lobe-skills.title": "Habilidades",
"tools.builtins.lobe-task.description": "Crea, lista, edita y elimina tareas con dependencias y configuración de revisión",
"tools.builtins.lobe-task.title": "Herramientas de Tareas",
"tools.builtins.lobe-topic-reference.description": "Recupera contexto de conversaciones de temas referenciados",
"tools.builtins.lobe-topic-reference.title": "Referencia de Temas",
"tools.builtins.lobe-user-interaction.description": "Realiza preguntas a los usuarios mediante interacciones de la interfaz y observa los resultados de su ciclo de vida",
"tools.builtins.lobe-user-interaction.title": "Interacción con el Usuario",
"tools.builtins.lobe-user-memory.description": "Construye una base de conocimiento personalizada sobre ti. Recuerda preferencias, realiza seguimiento de actividades y experiencias, almacena información de identidad y recupera contexto relevante en futuras conversaciones.",
"tools.builtins.lobe-user-memory.readme": "Construye una base de conocimiento personalizada sobre ti. Recuerda preferencias, registra actividades y experiencias, almacena información de identidad y recupera contexto relevante en futuras conversaciones.",
"tools.builtins.lobe-user-memory.title": "Memoria",
"tools.builtins.lobe-web-browsing.description": "Busca en la web información actual y rastrea páginas web para extraer contenido. Compatible con múltiples motores de búsqueda, categorías y rangos de tiempo.",
"tools.builtins.lobe-web-browsing.readme": "Busca en la web información actual y rastrea páginas web para extraer contenido. Admite múltiples motores de búsqueda, categorías y rangos de tiempo para una investigación completa.",
"tools.builtins.lobe-web-browsing.title": "Navegación Web",
"tools.builtins.lobe-web-onboarding.description": "Gestiona el flujo de incorporación web con un entorno de agente controlado",
"tools.builtins.lobe-web-onboarding.title": "Incorporación Web",
"tools.builtins.lobehub.description": "Gestiona la plataforma LobeHub mediante CLI: bases de conocimiento, memoria, agentes, archivos, búsqueda, generación y más.",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "No instalado",
"tools.builtins.task.description": "Gestión y ejecución de tareas: crea, supervisa, revisa y completa tareas mediante CLI.",
"tools.builtins.task.title": "Tarea",
"tools.builtins.uninstall": "Desinstalar",
"tools.builtins.uninstallConfirm.desc": "¿Estás seguro de que deseas desinstalar {{name}}? Esta habilidad se eliminará del agente actual.",
"tools.builtins.uninstallConfirm.title": "Desinstalar {{name}}",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "¿Desconectar {{name}}?",
"tools.lobehubSkill.disconnected": "Desconectado",
"tools.lobehubSkill.error": "Error",
"tools.lobehubSkill.providers.github.description": "GitHub es una plataforma para control de versiones y colaboración que permite a los desarrolladores alojar, revisar y gestionar repositorios de código.",
"tools.lobehubSkill.providers.github.readme": "Conéctate a GitHub para acceder a tus repositorios, crear y gestionar issues, revisar pull requests y colaborar en código, todo mediante conversación natural con tu asistente de IA.",
"tools.lobehubSkill.providers.linear.description": "Linear es una herramienta moderna de seguimiento de incidencias y gestión de proyectos diseñada para equipos de alto rendimiento que desean desarrollar software mejor y más rápido",
"tools.lobehubSkill.providers.linear.readme": "Lleva el poder de Linear directamente a tu asistente de IA. Crea y actualiza incidencias, gestiona sprints, sigue el progreso de proyectos y optimiza tu flujo de desarrollo mediante conversación natural.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar es una herramienta de programación integrada en Microsoft Outlook que permite a los usuarios crear citas, organizar reuniones y gestionar su tiempo y eventos de forma eficaz.",
"tools.lobehubSkill.providers.microsoft.readme": "Integra con Outlook Calendar para ver, crear y gestionar tus eventos sin complicaciones. Programa reuniones, consulta disponibilidad, establece recordatorios y organiza tu tiempo mediante comandos en lenguaje natural.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) es una plataforma de redes sociales para compartir actualizaciones en tiempo real, noticias y conectar con tu audiencia mediante publicaciones, respuestas y mensajes directos.",
"tools.lobehubSkill.providers.twitter.readme": "Conéctate con X (Twitter) para publicar tuits, gestionar tu cronología e interactuar con tu audiencia. Crea contenido, programa publicaciones, monitorea menciones y fortalece tu presencia en redes sociales mediante IA conversacional.",
"tools.lobehubSkill.providers.vercel.description": "Vercel es una plataforma en la nube para desarrolladores frontend que ofrece alojamiento y funciones serverless para desplegar aplicaciones web fácilmente.",
"tools.lobehubSkill.providers.vercel.readme": "Conéctate a Vercel para gestionar tus implementaciones, supervisar el estado de tus proyectos y controlar tu infraestructura. Despliega aplicaciones, revisa registros de compilación, gestiona variables de entorno y escala tus proyectos mediante IA conversacional.",
"tools.notInstalled": "No Instalado",
"tools.notInstalledWarning": "Esta habilidad no está instalada actualmente, lo que puede afectar la funcionalidad del agente.",
"tools.plugins.enabled": "Habilitadas: {{num}}",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Mejorar a",
"credits.topUp.upgradeSuffix": "para ahorrar ${{savings}}",
"credits.topUp.validityInfo": "Validez de {{months}} meses",
"crossPlatform.desc": "Esta suscripción fue adquirida a través de la aplicación móvil y no se puede modificar aquí. Por favor, gestiona tu suscripción en tu dispositivo móvil.",
"crossPlatform.manageOnMobile": "Gestionar en el dispositivo móvil",
"crossPlatform.title": "Suscripción Multiplataforma",
"currentPlan.cancelAlert": "La suscripción se cancelará después del {{canceledAt}}. Aún puedes restaurarla en \"Gestionar Suscripción\" antes de esa fecha",
"currentPlan.downgradeAlert": "Se degradará a {{plan}} después del {{downgradedAt}}.",
"currentPlan.management": "Gestionar Suscripción",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "Fotograma inicial",
"config.prompt.placeholder": "Describe el vídeo que deseas generar",
"config.prompt.placeholderWithRef": "Describe la escena que deseas generar con la imagen",
"config.promptExtend.label": "Extensión de indicaciones",
"config.referenceImage.label": "Imagen de referencia",
"config.resolution.label": "Resolución",
"config.seed.label": "Semilla",
"config.seed.random": "Aleatorio",
"config.size.label": "Tamaño",
"config.watermark.label": "Marca de agua",
"config.webSearch.label": "Búsqueda web",
"generation.actions.copyError": "Copiar mensaje de error",
"generation.actions.errorCopied": "Mensaje de error copiado al portapapeles",
"generation.actions.errorCopyFailed": "No se pudo copiar el mensaje de error",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "ربات با موفقیت متصل شد",
"channel.connecting": "در حال اتصال...",
"channel.connectionConfig": "پیکربندی اتصال",
"channel.connectionMode": "حالت اتصال",
"channel.connectionModeHint": "وب‌سوکت برای ربات‌های جدید توصیه می‌شود. اگر ربات شما از قبل یک نشانی callback در پلتفرم QQ Open دارد، از وب‌هوک استفاده کنید.",
"channel.connectionModeWebSocket": "وب‌سوکت",
"channel.connectionModeWebhook": "وب‌هوک",
"channel.copied": "به کلیپ‌بورد کپی شد",
"channel.copy": "کپی",
"channel.credentials": "اعتبارنامه‌ها",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "لطفاً این آدرس را کپی کرده و در قسمت <bold>{{fieldName}}</bold> در پورتال توسعه‌دهنده {{name}} وارد کنید.",
"channel.exportConfig": "صادرات تنظیمات",
"channel.feishu.description": "این دستیار را به Feishu برای چت‌های خصوصی و گروهی متصل کنید.",
"channel.feishu.webhookMigrationDesc": "حالت وب‌سوکت بدون نیاز به یک نشانی callback عمومی، تحویل آنی رویدادها را فراهم می‌کند. برای مهاجرت، در تنظیمات پیشرفته حالت اتصال را به وب‌سوکت تغییر دهید. هیچ تنظیم اضافه‌ای در پلتفرم Feishu/Lark لازم نیست.",
"channel.feishu.webhookMigrationTitle": "مهاجرت به حالت وب‌سوکت را در نظر بگیرید",
"channel.historyLimit": "محدودیت پیام‌های تاریخچه",
"channel.historyLimitHint": "تعداد پیش‌فرض پیام‌هایی که هنگام خواندن تاریخچه کانال دریافت می‌شوند",
"channel.importConfig": "وارد کردن تنظیمات",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "برای تأیید تعامل مورد نیاز است",
"channel.qq.appIdHint": "شناسه برنامه ربات QQ شما از پلتفرم باز QQ",
"channel.qq.description": "این دستیار را به QQ متصل کنید برای چت‌های گروهی و پیام‌های مستقیم.",
"channel.qq.webhookMigrationDesc": "حالت وب‌سوکت بدون نیاز به نشانی callback، تحویل آنی رویدادها و اتصال مجدد خودکار را فراهم می‌کند. برای مهاجرت، یک ربات جدید در پلتفرم QQ Open بدون پیکربندی نشانی callback ایجاد کرده و سپس در تنظیمات پیشرفته حالت اتصال را به وب‌سوکت تغییر دهید.",
"channel.qq.webhookMigrationTitle": "مهاجرت به حالت وب‌سوکت را در نظر بگیرید",
"channel.removeChannel": "حذف کانال",
"channel.removeFailed": "حذف کانال ناموفق بود",
"channel.removed": "کانال حذف شد",
@ -93,7 +101,11 @@
"channel.signingSecret": "رمز امضا",
"channel.signingSecretHint": "برای تأیید درخواست‌های وب‌هوک استفاده می‌شود.",
"channel.slack.appIdHint": "شناسه برنامه Slack شما از داشبورد API Slack (با A شروع می‌شود).",
"channel.slack.appToken": "توکن سطح برنامه",
"channel.slack.appTokenHint": "برای حالت Socket (وب‌سوکت) الزامی است. یک توکن سطح برنامه (xapp-...) در بخش اطلاعات پایه در تنظیمات برنامه Slack خود ایجاد کنید.",
"channel.slack.description": "این دستیار را به Slack متصل کنید برای مکالمات کانالی و پیام‌های مستقیم.",
"channel.slack.webhookMigrationDesc": "حالت Socket بدون نیاز به یک نقطه پایانی HTTP عمومی، تحویل آنی رویدادها را از طریق وب‌سوکت فراهم می‌کند. برای مهاجرت، حالت Socket را در تنظیمات برنامه Slack فعال کنید، یک توکن سطح برنامه ایجاد کنید، سپس در تنظیمات پیشرفته حالت اتصال را به وب‌سوکت تغییر دهید.",
"channel.slack.webhookMigrationTitle": "مهاجرت به حالت Socket (وب‌سوکت) را در نظر بگیرید",
"channel.telegram.description": "این دستیار را به Telegram برای چت‌های خصوصی و گروهی متصل کنید.",
"channel.testConnection": "آزمایش اتصال",
"channel.testFailed": "آزمایش اتصال ناموفق بود",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "گروه با موفقیت حذف شد",
"confirmRemoveSessionItemAlert": "در حال حذف این عامل هستید. پس از حذف، قابل بازیابی نیست. لطفاً اقدام خود را تأیید کنید.",
"confirmRemoveSessionSuccess": "عامل با موفقیت حذف شد",
"createModal.createBlank": "ایجاد مورد خالی",
"createModal.groupPlaceholder": "توضیح دهید این گروه چه کاری باید انجام دهد...",
"createModal.groupTitle": "گروه شما باید چه کاری انجام دهد؟",
"createModal.placeholder": "توضیح دهید عامل شما چه کاری باید انجام دهد...",
"createModal.title": "عامل شما باید چه کاری انجام دهد؟",
"defaultAgent": "عامل پیش‌فرض",
"defaultGroupChat": "گروه",
"defaultList": "فهرست پیش‌فرض",
@ -229,6 +234,7 @@
"operation.contextCompression": "متن بیش از حد طولانی است، در حال فشرده‌سازی تاریخچه...",
"operation.execAgentRuntime": "در حال آماده‌سازی پاسخ",
"operation.execClientTask": "در حال اجرای وظیفه",
"operation.execServerAgentRuntime": "در حال اجرا… می‌توانید کار را عوض کنید یا صفحه را ببندید — وظیفه همچنان ادامه خواهد داشت.",
"operation.sendMessage": "در حال ارسال پیام",
"owner": "مالک گروه",
"pageCopilot.title": "نماینده صفحه",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "در حال دریافت جزئیات...",
"task.status.initializing": "در حال آغاز وظیفه...",
"task.subtask": "زیرکار",
"task.title": "وظایف",
"thread.divider": "زیرموضوع",
"thread.threadMessageCount": "{{messageCount}} پیام",
"thread.title": "زیرموضوع",
@ -429,9 +436,11 @@
"toolAuth.title": "مجازسازی مهارت‌ها برای این نماینده",
"topic.checkOpenNewTopic": "موضوع جدیدی آغاز شود؟",
"topic.checkSaveCurrentMessages": "آیا می‌خواهید گفتگوی فعلی را به‌عنوان یک موضوع ذخیره کنید؟",
"topic.defaultTitle": "موضوع بدون عنوان",
"topic.openNewTopic": "باز کردن موضوع جدید",
"topic.recent": "موضوعات اخیر",
"topic.saveCurrentMessages": "ذخیره گفتگوی فعلی به‌عنوان موضوع",
"topic.viewAll": "نمایش همه موضوعات",
"translate.action": "ترجمه",
"translate.clear": "پاک کردن ترجمه",
"tts.action": "تبدیل متن به گفتار",

View file

@ -343,10 +343,19 @@
"mail.support": "پشتیبانی ایمیلی",
"more": "بیشتر",
"navPanel.agent": "نماینده",
"navPanel.customizeSidebar": "سفارشی‌سازی نوار کناری",
"navPanel.displayItems": "موارد نمایشی",
"navPanel.hidden": "پنهان",
"navPanel.hideSection": "پنهان کردن بخش",
"navPanel.library": "کتابخانه",
"navPanel.moveDown": "انتقال به پایین",
"navPanel.moveUp": "انتقال به بالا",
"navPanel.pinned": "سن‌شده",
"navPanel.searchAgent": "جستجوی نماینده...",
"navPanel.searchRecent": "جست‌وجوی موارد اخیر...",
"navPanel.searchResultEmpty": "نتیجه‌ای یافت نشد",
"navPanel.show": "نمایش",
"navPanel.visible": "نمایان",
"new": "جدید",
"noContent": "محتوایی وجود ندارد",
"oauth": "ورود با SSO",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "از ما حمایت کنید",
"productHunt.description": "در Product Hunt از ما حمایت کنید. حمایت شما برای ما بسیار ارزشمند است!",
"productHunt.title": "ما در Product Hunt هستیم!",
"promptTransform.action": "بهبود ایده",
"promptTransform.actions.rewrite": "گسترش جزئیات",
"promptTransform.actions.translate": "ترجمه",
"promptTransform.status.rewrite": "در حال گسترش جزئیات...",
"promptTransform.status.translate": "در حال ترجمه...",
"recents": "موارد اخیر",
"regenerate": "تولید مجدد",
"releaseNotes": "جزئیات نسخه",
"rename": "تغییر نام",
@ -400,6 +415,7 @@
"tab.audio": "صوت",
"tab.chat": "گفت‌وگو",
"tab.community": "جامعه",
"tab.create": "ایجاد",
"tab.discover": "کشف",
"tab.eval": "آزمایشگاه ارزیابی",
"tab.files": "فایل‌ها",

View file

@ -12,6 +12,7 @@
"config.model.label": "مدل",
"config.prompt.placeholder": "توصیف کنید که چه چیزی می‌خواهید تولید شود",
"config.prompt.placeholderWithRef": "توضیح دهید که چگونه می‌خواهید تصویر را تنظیم کنید",
"config.promptExtend.label": "گسترش پرامپت",
"config.quality.label": "کیفیت تصویر",
"config.quality.options.hd": "وضوح بالا",
"config.quality.options.standard": "استاندارد",
@ -24,6 +25,8 @@
"config.size.label": "اندازه",
"config.steps.label": "مراحل",
"config.title": "پیکربندی",
"config.watermark.label": "واترمارک",
"config.webSearch.label": "جستجوی وب",
"config.width.label": "عرض",
"generation.actions.applySeed": "اعمال بذر",
"generation.actions.copyError": "کپی پیام خطا",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "نمایش گروهی پیام‌های عامل و نتایج ابزارهای فراخوانی‌شده به‌صورت یکجا",
"features.assistantMessageGroup.title": "گروه‌بندی پیام‌های عامل",
"features.gatewayMode.desc": "اجرای وظایف ایجنت روی سرور از طریق وب‌سوکت Gateway به‌جای اجرای محلی. این کار سرعت اجرا را افزایش داده و مصرف منابع در دستگاه کاربر را کاهش می‌دهد.",
"features.gatewayMode.title": "اجرای ایجنت در سمت سرور (Gateway)",
"features.groupChat.desc": "فعال‌سازی هماهنگی گفت‌وگوی گروهی چندعاملی.",
"features.groupChat.title": "گفت‌وگوی گروهی (چندعاملی)",
"features.inputMarkdown.desc": "نمایش زنده Markdown در ناحیه ورودی (متن پررنگ، بلوک‌های کد، جدول‌ها و غیره).",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "مدلی پیشرو در چین که در وظایف زبان چینی مانند دانش، متون بلند و تولید خلاقانه از مدل‌های مطرح خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندوجهی پیشرفته با نتایج قوی در آزمون‌های معتبر است.",
"Baichuan4.description": "عملکرد برتر داخلی که در وظایف زبان چینی مانند دانش دایره‌المعارفی، متون بلند و تولید خلاقانه از مدل‌های مطرح خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندوجهی پیشرفته و نتایج قوی در آزمون‌های معیار است.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS مجموعه‌ای از مدل‌های متن‌باز LLM از ByteDance Seed است که برای مدیریت زمینه‌های بلند، استدلال، عامل‌ها و توانایی‌های عمومی طراحی شده‌اند. Seed-OSS-36B-Instruct یک مدل ۳۶ میلیارد پارامتری با تنظیمات دستوری است که به‌طور بومی از زمینه‌های بسیار بلند برای پردازش اسناد یا پایگاه‌های کد پشتیبانی می‌کند. این مدل برای استدلال، تولید کد و وظایف عامل (استفاده از ابزار) بهینه‌سازی شده و در عین حال توانایی عمومی قوی خود را حفظ کرده است. ویژگی کلیدی آن «بودجه تفکر» است که امکان تنظیم طول استدلال برای افزایش کارایی را فراهم می‌سازد.",
"DeepSeek-OCR.description": "DeepSeek-OCR یک مدل زبان-بینایی از DeepSeek AI است که بر OCR و «فشرده‌سازی نوریِ بافت» تمرکز دارد. این مدل روش‌هایی را برای فشرده‌سازی محتوای تصویری بررسی کرده، اسناد را به‌صورت کارآمد پردازش می‌کند و آن‌ها را به متنی ساخت‌یافته (مانند Markdown) تبدیل می‌نماید. این مدل در شناسایی متن داخل تصاویر دقت بالایی دارد و برای دیجیتالی‌سازی اسناد، استخراج متن و پردازش ساخت‌یافته بسیار مناسب است.",
"DeepSeek-R1-Distill-Llama-70B.description": "مدل DeepSeek R1 که بزرگ‌تر و هوشمندتر است، در معماری Llama 70B تقطیر شده است. آزمون‌های معیار و ارزیابی‌های انسانی نشان می‌دهند که این مدل از نسخه پایه Llama 70B هوشمندتر است، به‌ویژه در وظایف ریاضی و دقت اطلاعات.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "مدلی تقطیرشده از DeepSeek-R1 بر پایه Qwen2.5-Math-1.5B. با استفاده از یادگیری تقویتی و داده‌های شروع سرد، عملکرد استدلال را بهینه کرده و معیارهای جدیدی برای مدل‌های متن‌باز در وظایف چندگانه تعیین کرده است.",
"DeepSeek-R1-Distill-Qwen-14B.description": "مدل‌های DeepSeek-R1-Distill از مدل‌های متن‌باز با استفاده از داده‌های نمونه تولیدشده توسط DeepSeek-R1 به‌صورت دقیق تنظیم شده‌اند.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "ارائه‌دهنده: sophnet. DeepSeek V3 Fast نسخه با نرخ پردازش بالا از DeepSeek V3 0324 است که با دقت کامل (بدون کوانتیزه‌سازی) عملکرد قوی‌تری در کدنویسی و ریاضی دارد و پاسخ‌های سریع‌تری ارائه می‌دهد.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast نسخه سریع با نرخ پردازش بالا از DeepSeek V3.1 است. حالت تفکر ترکیبی: از طریق قالب‌های چت، یک مدل از هر دو حالت تفکر و غیرتفکر پشتیبانی می‌کند. استفاده هوشمندانه‌تر از ابزار: پس‌آموزش عملکرد وظایف ابزار و عامل را بهبود می‌بخشد.",
"DeepSeek-V3.1-Think.description": "حالت تفکر DeepSeek-V3.1: یک مدل استدلال ترکیبی جدید با حالت‌های تفکر و غیرتفکر که کارآمدتر از DeepSeek-R1-0528 است. بهینه‌سازی‌های پس‌آموزش عملکرد استفاده از ابزار عامل و وظایف عامل را به‌طور قابل‌توجهی بهبود می‌بخشد.",
"DeepSeek-V3.2.description": "deepseek-v3.2 یک سازوکار توجه تنک معرفی می‌کند که با هدف بهبود کارایی آموزش و استنتاج در پردازش متون طولانی طراحی شده و نسبت به deepseek-v3.1 با قیمت پایین‌تری ارائه می‌شود.",
"DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE توسعه‌یافته توسط DeepSeek است. این مدل در بسیاری از آزمون‌های معیار از مدل‌های متن‌باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B پیشی می‌گیرد و با مدل‌های بسته پیشرو مانند GPT-4o و Claude 3.5 Sonnet رقابت می‌کند.",
"Doubao-lite-128k.description": "Doubao-lite پاسخ‌های فوق‌العاده سریع و ارزش بالاتری ارائه می‌دهد و گزینه‌های انعطاف‌پذیری را در سناریوهای مختلف فراهم می‌سازد. از زمینه ۱۲۸ هزار توکن برای استنتاج و تنظیم دقیق پشتیبانی می‌کند.",
"Doubao-lite-32k.description": "Doubao-lite پاسخ‌های فوق‌العاده سریع و ارزش بالاتری ارائه می‌دهد و گزینه‌های انعطاف‌پذیری را در سناریوهای مختلف فراهم می‌سازد. از زمینه ۳۲ هزار توکن برای استنتاج و تنظیم دقیق پشتیبانی می‌کند.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: مدل با عملکرد بالا برای استدلال، کدنویسی و وظایف عامل.",
"GLM-4.6.description": "GLM-4.6: مدل نسل قبلی.",
"GLM-4.7.description": "GLM-4.7 جدیدترین مدل پرچمدار Zhipu است که برای سناریوهای کدنویسی عامل بهبود یافته است و قابلیت‌های کدنویسی، برنامه‌ریزی وظایف بلندمدت و همکاری ابزار را ارتقا داده است.",
"GLM-5-Turbo.description": "GLM-5-Turbo: نسخه بهینه‌سازی شده GLM-5 با استنتاج سریع‌تر برای وظایف کدنویسی.",
"GLM-5-Turbo.description": "GLM-5-Turbo یک مدل پایه است که برای سناریوهای عاملیت‌محور بهینه‌سازی عمیق شده است. این مدل از مرحلهٔ آموزش برای نیازهای اصلی کارهای عامل‌ها بهینه شده و قابلیت‌هایی مانند فراخوانی ابزار، پیروی از دستورات و اجرای زنجیره‌ای طولانی را تقویت کرده است. این مدل برای ساخت دستیارهای عامل با کارایی بالا ایده‌آل است.",
"GLM-5.1.description": "GLM-5.1 جدیدترین مدل پرچمدار Zhipu است، نسخه‌ای پیشرفته‌تر از GLM-5 با قابلیت‌های مهندسی عامل بهبود یافته برای مهندسی سیستم‌های پیچیده و وظایف بلندمدت.",
"GLM-5.description": "GLM-5 مدل پرچمدار نسل بعدی Zhipu است که برای مهندسی عامل طراحی شده است. این مدل بهره‌وری قابل اعتمادی را در مهندسی سیستم‌های پیچیده و وظایف عامل بلندمدت ارائه می‌دهد. در قابلیت‌های کدنویسی و عامل، GLM-5 عملکرد پیشرفته‌ای در میان مدل‌های متن‌باز دارد.",
"GLM-5.description": "GLM-5 مدل پرچم‌دار نسل بعدی Zhipu و ویژهٔ مهندسی Agentic است. این مدل بهره‌وری قابل‌اعتمادی را در مهندسی سامانه‌های پیچیده و وظایف بلندمدت عاملانه ارائه می‌دهد. در حوزهٔ کدنویسی و قابلیت‌های عاملی، GLM-5 عملکردی در سطح پیشرفته‌ترین مدل‌های متن‌باز دارد. در سناریوهای واقعی برنامه‌نویسی، تجربهٔ کاربری آن به Claude Opus 4.5 نزدیک می‌شود. این مدل در مهندسی سامانه‌های پیچیده و وظایف عاملانهٔ بلندمدت برتری دارد و گزینه‌ای مناسب برای ساخت دستیارهای عامل عمومی است.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) مدلی نوآورانه برای حوزه‌های متنوع و وظایف پیچیده است.",
"HY-Image-V3.0.description": "قابلیت‌های قدرتمند استخراج ویژگی‌های تصویر اصلی و حفظ جزئیات، ارائه بافت بصری غنی‌تر و تولید تصاویر با دقت بالا، ترکیب‌بندی مناسب و کیفیت تولید حرفه‌ای.",
"HelloMeme.description": "HelloMeme یک ابزار هوش مصنوعی برای تولید میم، گیف یا ویدیوهای کوتاه از تصاویر یا حرکاتی است که ارائه می‌دهید. بدون نیاز به مهارت طراحی یا کدنویسی، تنها با یک تصویر مرجع، محتوایی سرگرم‌کننده، جذاب و از نظر سبک هماهنگ تولید می‌کند.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter مدلی برای تولید شخصیت شخصی‌سازی‌شده بدون نیاز به تنظیم است که توسط Tencent AI در سال ۲۰۲۵ عرضه شده است. این مدل با هدف تولید شخصیت‌هایی با دقت بالا و سازگاری در سناریوهای مختلف طراحی شده و می‌تواند تنها با یک تصویر مرجع، شخصیت را مدل‌سازی کرده و آن را در سبک‌ها، حرکات و پس‌زمینه‌های مختلف منتقل کند.",
"InternVL2-8B.description": "InternVL2-8B یک مدل قدرتمند بینایی-زبان است که از پردازش چندوجهی تصویر-متن پشتیبانی می‌کند و محتوای تصویر را با دقت شناسایی کرده و توضیحات یا پاسخ‌های مرتبط تولید می‌کند.",
"InternVL2.5-26B.description": "InternVL2.5-26B یک مدل قدرتمند بینایی-زبان است که از پردازش چندوجهی تصویر-متن پشتیبانی می‌کند و محتوای تصویر را با دقت شناسایی کرده و توضیحات یا پاسخ‌های مرتبط تولید می‌کند.",
"KAT-Coder-Air-V1.description": "نسخه‌ای سبک از سری KAT-Coder که به‌طور ویژه برای Agentic Coding طراحی شده است. این مدل طیف کامل وظایف و سناریوهای برنامه‌نویسی را پوشش می‌دهد و با بهره‌گیری از یادگیری تقویتی مبتنی بر عامل‌های گسترده، رفتارهای هوشمند نوظهور را ممکن می‌سازد و عملکردی فراتر از مدل‌های مشابه در کدنویسی ارائه می‌دهد.",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B نسخهٔ تجربی نوآوری مبتنی بر RL در سری KAT-Coder است که عملکرد چشمگیر 74.6٪ را در بنچمارک SWE-Bench verified به دست آورده و رکورد جدیدی برای مدل‌های متن‌باز ثبت کرده است. این مدل بر Agentic Coding متمرکز است و در حال حاضر تنها از چارچوب SWE-Agent پشتیبانی می‌کند، اما برای مکالمات ساده نیز قابل استفاده است.",
"KAT-Coder-Pro-V1.description": "طراحی‌شده برای Agentic Coding، این مدل طیف کامل کارها و سناریوهای برنامه‌نویسی را پوشش می‌دهد و از طریق یادگیری تقویتی گسترده به ظهور رفتارهای هوشمند دست می‌یابد و نسبت به مدل‌های مشابه در عملکرد کدنویسی به‌طور قابل‌توجهی بهتر عمل می‌کند.",
"KAT-Coder-Pro-V2.description": "جدیدترین مدل پرفورمنس‌بالای تیم Kuaishou Kwaipilot که برای پروژه‌های پیچیدهٔ سازمانی و یکپارچه‌سازی SaaS طراحی شده است. این مدل در سناریوهای مرتبط با کدنویسی برتری دارد، با انواع چارچوب‌های عامل (Claude Code، OpenCode، KiloCode) سازگار است، به‌طور بومی از OpenClaw پشتیبانی می‌کند و برای زیبایی‌شناسی صفحات فرانت‌اند بهینه‌سازی شده است.",
"Kimi-K2.5.description": "Kimi K2.5 قدرتمندترین مدل Kimi است که در کارهای عاملی، کدنویسی و درک بصری عملکردی در سطح SOTA ارائه می‌دهد. این مدل از ورودی چندوجهی و حالت‌های تفکری و غیرفتکری پشتیبانی می‌کند.",
"Kolors.description": "Kolors یک مدل تبدیل متن به تصویر است که توسط تیم Kolors در Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی چینی و رندر متن عملکرد برجسته‌ای دارد.",
"Kwai-Kolors/Kolors.description": "Kolors یک مدل بزرگ تبدیل متن به تصویر با انتشار نهفته است که توسط تیم Kolors در Kuaishou توسعه یافته است. این مدل با میلیاردها جفت متن-تصویر آموزش دیده و در کیفیت بصری، دقت معنایی پیچیده و رندر متن چینی/انگلیسی عملکرد عالی دارد و در درک و تولید محتوای چینی بسیار قوی است.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) یک مدل متن‌باز برای وظایف مهندسی نرم‌افزار است. این مدل با نرخ حل ۶۲.۴٪ در SWE-Bench Verified، در میان مدل‌های متن‌باز رتبه پنجم را دارد. با آموزش میانی، تنظیم با نظارت (SFT) و یادگیری تقویتی (RL) برای تکمیل کد، رفع اشکال و بازبینی کد بهینه‌سازی شده است.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "مدل زبان کوچک پیشرفته با درک زبانی قوی، استدلال عالی و تولید متن باکیفیت.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 پیشرفته‌ترین مدل چندزبانه متن‌باز Llama است که عملکردی نزدیک به مدل‌های ۴۰۵B با هزینه بسیار پایین ارائه می‌دهد. این مدل بر پایه ترنسفورمر ساخته شده و با SFT و RLHF برای کاربردپذیری و ایمنی بهبود یافته است. نسخه تنظیم‌شده برای گفتگوهای چندزبانه بهینه شده و در ارزیابی‌های صنعتی بسیاری از مدل‌های باز و بسته را پشت سر گذاشته است. تاریخ قطع دانش: دسامبر ۲۰۲۳.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick یک مدل MoE بزرگ با فعال‌سازی کارآمد متخصصان برای عملکرد استدلالی قوی است.",
"MiMo-V2-Pro.description": "MiMo-V2-Pro به‌طور ویژه برای جریان‌های کاری عاملی با شدت بالا در سناریوهای واقعی طراحی شده است. این مدل بیش از یک تریلیون پارامتر کل (۴۲ میلیارد پارامتر فعال) دارد، از معماری توجه ترکیبی نوآورانه بهره می‌برد و از طول بافت فوق‌العاده بلند تا یک میلیون توکن پشتیبانی می‌کند. با تکیه بر یک مدل پایهٔ قدرتمند، منابع محاسباتی در دامنهٔ وسیع‌تری از سناریوهای عاملی گسترش یافته و فضای عمل هوش افزایش یافته و توانایی تعمیم از کدنویسی تا اجرای وظایف واقعی («چنگال/claw») به‌شکل چشمگیری بهبود یافته است.",
"MiniMax-Hailuo-02.description": "مدل نسل بعدی تولید ویدئو، MiniMax Hailuo 02، به طور رسمی منتشر شده است، با پشتیبانی از وضوح 1080P و تولید ویدئو 10 ثانیه‌ای.",
"MiniMax-Hailuo-2.3-Fast.description": "مدل جدید تولید ویدئو با ارتقاهای جامع در حرکت بدن، واقع‌گرایی فیزیکی و پیروی از دستورالعمل‌ها.",
"MiniMax-Hailuo-2.3.description": "مدل جدید تولید ویدئو با ارتقاهای جامع در حرکت بدن، واقع‌گرایی فیزیکی و پیروی از دستورالعمل‌ها.",
"MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدل‌های برتر جهانی.",
"MiniMax-M2-Stable.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور، با هم‌زمانی بالاتر برای استفاده تجاری.",
"MiniMax-M2.1-Lightning.description": "قابلیت‌های برنامه‌نویسی چندزبانه قدرتمند با استنتاج سریع‌تر و کارآمدتر.",
"MiniMax-M2.1-highspeed.description": "قابلیت‌های برنامه‌نویسی چندزبانه قدرتمند، تجربه برنامه‌نویسی کاملاً ارتقاء یافته. سریع‌تر و کارآمدتر.",
"MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل بزرگ متن‌باز پیشرفته از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن شامل توانایی برنامه‌نویسی چندزبانه و قابلیت عمل به‌عنوان یک عامل هوشمند برای حل مسائل پیچیده است.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: همان عملکرد M2.5 با استنتاج سریع‌تر.",
"MiniMax-M2.5.description": "MiniMax-M2.5 یک مدل بزرگ متن‌باز پرچمدار از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن توانایی برنامه‌نویسی چندزبانه و قابلیت حل وظایف پیچیده به عنوان یک عامل (Agent) است.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: همان عملکرد M2.7 با استنتاج به‌طور قابل توجهی سریع‌تر.",
"MiniMax-M2.7.description": "MiniMax M2.7: آغاز سفر بهبود خودبازگشتی، قابلیت‌های مهندسی واقعی برتر.",
"MiniMax-M2.7.description": "نخستین مدل خودتکاملی با عملکرد سطح‌بالا در کدنویسی و کارهای عاملی (حدود ۶۰ tps).",
"MiniMax-M2.description": "MiniMax M2: مدل نسل قبلی.",
"MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی می‌کند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه می‌دهد و تا ۴ میلیون توکن زمینه را پشتیبانی می‌کند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 یک مدل استدلال توجه ترکیبی با وزن‌های باز و 456 میلیارد پارامتر کل و ~45.9 میلیارد پارامتر فعال در هر توکن است. این مدل به‌طور بومی از 1 میلیون زمینه پشتیبانی می‌کند و با استفاده از Flash Attention، FLOPs را در تولید 100 هزار توکن نسبت به DeepSeek R1 تا 75٪ کاهش می‌دهد. با معماری MoE به‌علاوه CISPO و آموزش RL توجه ترکیبی، عملکرد پیشرو در استدلال ورودی طولانی و وظایف مهندسی نرم‌افزار واقعی را ارائه می‌دهد.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل MoE سطح بالا با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال است. ویژگی‌های کلیدی شامل هوش کدنویسی عامل‌محور قوی‌تر با پیشرفت‌های قابل توجه در معیارها و وظایف واقعی عامل‌ها، به‌علاوه زیبایی‌شناسی و قابلیت استفاده بهتر در کدنویسی رابط کاربری است.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo نسخه توربو بهینه‌شده برای سرعت استدلال و توان عملیاتی است، در حالی که استدلال چندمرحله‌ای و استفاده از ابزار K2 Thinking را حفظ می‌کند. این مدل MoE با حدود ۱ تریلیون پارامتر کل، زمینه بومی ۲۵۶ هزار توکن و فراخوانی ابزار در مقیاس بزرگ پایدار برای سناریوهای تولیدی با نیازهای سخت‌گیرانه‌تر در تأخیر و هم‌زمانی است.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 یک مدل عامل چندوجهی بومی متن‌باز است که بر پایه Kimi-K2-Base ساخته شده و با حدود ۱.۵ تریلیون توکن ترکیبی بینایی و متنی آموزش دیده است. این مدل از معماری MoE با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال بهره می‌برد و از پنجره متنی ۲۵۶ هزار توکن پشتیبانی می‌کند و درک زبان و تصویر را به‌صورت یکپارچه ارائه می‌دهد.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 یک مدل پرچم‌دار نسل بعدی برای مهندسی عامل‌ها است که از معماری Mixture of Experts (MoE) با 754 میلیارد پارامتر بهره می‌برد. این مدل توانایی‌های برنامه‌نویسی را به‌طور چشمگیری ارتقا داده و نتایج پیشرو در SWE-Bench Pro به دست آورده و عملکردی بسیار بهتر از نسل قبلی در بنچمارک‌هایی مانند NL2Repo و Terminal-Bench 2.0 ارائه می‌دهد. این مدل برای وظایف عاملی بلندمدت طراحی شده و در برخورد با پرسش‌های مبهم قضاوت بهتری دارد، وظایف پیچیده را تجزیه می‌کند، آزمایش‌ها را اجرا می‌کند، نتایج را تحلیل می‌کند و از طریق صدها تکرار و هزاران فراخوان ابزار به‌طور مستمر بهینه‌سازی می‌شود.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 مدل پرچمدار نسل جدید Zhipu با 355 میلیارد پارامتر کل و 32 میلیارد پارامتر فعال است که به‌طور کامل در قابلیت‌های گفتگوی عمومی، استدلال و عامل ارتقا یافته است. GLM-4.7 تفکر متداخل را بهبود می‌بخشد و تفکر حفظ‌شده و تفکر سطح چرخش را معرفی می‌کند.",
"Pro/zai-org/glm-5.description": "GLM-5 مدل زبان بزرگ نسل بعدی Zhipu است که بر مهندسی سیستم‌های پیچیده و وظایف عامل با مدت زمان طولانی تمرکز دارد. پارامترهای مدل به 744 میلیارد (40 میلیارد فعال) گسترش یافته و DeepSeek Sparse Attention را ادغام می‌کند.",
"QwQ-32B-Preview.description": "Qwen QwQ یک مدل تحقیقاتی آزمایشی است که بر بهبود توانایی استدلال تمرکز دارد.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 برای استدلال پیشرفته و پیروی از دستورالعمل‌ها بهینه‌سازی شده است و با استفاده از معماری MoE، استدلال را در مقیاس بالا به‌صورت کارآمد انجام می‌دهد.",
"Qwen3-235B.description": "Qwen3-235B-A22B یک مدل MoE است که حالت استدلال ترکیبی را معرفی می‌کند و به کاربران اجازه می‌دهد به‌صورت یکپارچه بین حالت‌های تفکر و غیرتفکر جابجا شوند. این مدل از درک و استدلال در ۱۱۹ زبان و گویش پشتیبانی می‌کند و توانایی بالایی در فراخوانی ابزارها دارد. در آزمون‌های توانایی عمومی، کدنویسی و ریاضی، قابلیت چندزبانه و استدلال دانشی با مدل‌های پیشرو مانند DeepSeek R1، OpenAI o1، o3-mini، Grok 3 و Google Gemini 2.5 Pro رقابت می‌کند.",
"Qwen3-32B.description": "Qwen3-32B یک مدل متراکم است که حالت استدلال ترکیبی را معرفی می‌کند و به کاربران اجازه می‌دهد بین تفکر و غیرتفکر جابجا شوند. با بهبود معماری، داده‌های بیشتر و آموزش بهتر، عملکردی هم‌سطح با Qwen2.5-72B دارد.",
"Qwen3.5-Plus.description": "Qwen3.5 Plus از ورودی متن، تصویر و ویدئو پشتیبانی می‌کند. عملکرد آن در کارهای متنی خالص با Qwen3 Max قابل مقایسه است اما با هزینه کمتر و عملکرد بهتر. قابلیت‌های چندوجهی آن نسبت به سری Qwen3 VL پیشرفت چشمگیری دارد.",
"S2V-01.description": "مدل پایه مرجع به ویدئو سری 01.",
"SenseChat-128K.description": "نسخه پایه V4 با پنجره متنی ۱۲۸ هزار توکن، قوی در درک و تولید متون بلند.",
"SenseChat-32K.description": "نسخه پایه V4 با پنجره متنی ۳۲ هزار توکن، انعطاف‌پذیر برای سناریوهای مختلف.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است، با سرعت فوق‌العاده و تفکر گسترده.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که سرعتی فوق‌العاده و توانایی استدلال توسعه‌یافته ارائه می‌دهد.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت برق‌آسا و توانایی استدلال پیشرفته ارائه می‌شود.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است، با عملکرد، هوش، روانی و درک برجسته.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است، با عملکرد، هوش، روانی و درک برجسته.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوشمندی، روانی و درک برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوشمندی، روانی و درک متن برتری دارد.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
"claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عاملها و کدنویسی است.",
"claude-opus-4.5.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برتر را با عملکرد مقیاس‌پذیر برای وظایف پیچیده و استدلال با کیفیت بالا ترکیب می‌کند.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-opus-4.6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است، با پاسخ‌های تقریباً فوری یا تفکر مرحله به مرحله گسترده با کنترل دقیق برای کاربران API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً آنی یا تفکر گام‌به‌گام طولانی با روند قابل مشاهده تولید کند.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوش Anthropic است.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوشمندی از Anthropic را ارائه می‌دهد.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 بهترین ترکیب از سرعت و هوش را ارائه می‌دهد.",
"claude-sonnet-4.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام طولانی‌تری که کاربران می‌توانند مشاهده کنند، تولید کند. کاربران API می‌توانند به‌طور دقیق کنترل کنند که مدل چه مدت فکر کند.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 یک مدل استدلال نسل بعدی با قابلیت‌های استدلال پیچیده‌تر و زنجیره‌ای از تفکر است.",
"deepseek-chat.description": "DeepSeek V3.2 تعادل بین استدلال و طول خروجی را برای وظایف روزانه پرسش و پاسخ و عوامل برقرار می‌کند. معیارهای عمومی به سطح GPT-5 می‌رسند و اولین مدلی است که تفکر را در استفاده از ابزار ادغام می‌کند، که منجر به ارزیابی‌های عوامل متن‌باز می‌شود.",
"deepseek-chat.description": "یک مدل متن‌باز جدید که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل قابلیت‌های گفتگوی عمومی مدل‌های چت و توانایی کدنویسی قدرتمند مدل‌های برنامه‌نویس را حفظ می‌کند و هم‌ترازسازی ترجیحی بهتری دارد. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که زنجیره‌ای از تفکر را قبل از خروجی‌ها برای دقت بالاتر تولید می‌کند، با نتایج رقابتی برتر و استدلال قابل مقایسه با Gemini-3.0-Pro.",
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از ارائه پاسخ نهایی، زنجیره فکر تولید می‌کند تا دقت را افزایش دهد.",
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
"ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
"ernie-x1.1.description": "ERNIE X1.1 یک مدل تفکر پیش‌نمایش برای ارزیابی و آزمایش است.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، ساخته شده توسط تیم Seed ByteDance، از ویرایش و ترکیب چند تصویر پشتیبانی می‌کند. ویژگی‌های بهبود یافته شامل ثبات سوژه، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناسی، طرح‌بندی پوستر و طراحی لوگو با رندر دقیق متن-تصویر است.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط ByteDance Seed، از ورودی‌های متن و تصویر برای تولید تصویر با کیفیت بالا و قابل کنترل از دستورات پشتیبانی می‌کند.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی متن و تصویر پشتیبانی می‌کند و تولید تصویری بسیار باکیفیت و کنترل‌پذیر ارائه می‌دهد. این مدل تصاویر را از روی متن ایجاد می‌کند.",
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
"fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفه‌ای از تیم Qwen، که از ویرایش‌های معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.",
"fal-ai/qwen-image.description": "یک مدل تولید تصویر قدرتمند از تیم Qwen با رندر متن چینی قوی و سبک‌های بصری متنوع.",
"fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش معنایی و ظاهری پشتیبانی می‌کند، متن‌های چینی و انگلیسی را با دقت بالا ویرایش می‌کند و امکان ویرایش‌های باکیفیت مانند انتقال سبک و چرخش اشیاء را فراهم می‌سازد.",
"fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر عالی متن چینی و سبک‌های بصری متنوع.",
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
"flux-dev.description": "مدل تولید تصویر متن‌باز برای تحقیق و توسعه، به‌طور کارآمد برای پژوهش‌های نوآورانهٔ غیرتجاری بهینه‌سازی شده است.",
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
"flux-kontext-pro.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
"flux-merged.description": "FLUX.1 [merged] ویژگی‌های عمیق کاوش شده در \"DEV\" را با مزایای سرعت بالای \"Schnell\" ترکیب می‌کند، محدودیت‌های عملکرد را گسترش داده و کاربردها را افزایش می‌دهد.",
"flux-pro-1.1-ultra.description": "تولید تصویر با وضوح فوق‌العاده بالا با خروجی ۴ مگاپیکسلی، تولید تصاویر شفاف در ۱۰ ثانیه.",
"flux-pro-1.1.description": "مدل ارتقاءیافته تولید تصویر حرفه‌ای با کیفیت تصویر عالی و پیروی دقیق از دستورات.",
"flux-pro.description": "مدل تولید تصویر تجاری سطح بالا با کیفیت تصویر بی‌نظیر و خروجی‌های متنوع.",
"flux-schnell.description": "FLUX.1 [schnell] پیشرفته‌ترین مدل متن‌باز چندمرحله‌ای است که از رقبای مشابه و حتی مدل‌های تقطیرنشده قوی مانند Midjourney v6.0 و DALL-E 3 (HD) پیشی می‌گیرد. این مدل به‌خوبی برای حفظ تنوع پیش‌آموزش تنظیم شده و کیفیت بصری، پیروی از دستورالعمل، تنوع اندازه/نسبت، مدیریت فونت و تنوع خروجی را به‌طور قابل توجهی بهبود می‌بخشد.",
"flux.1-schnell.description": "FLUX.1-schnell یک مدل تولید تصویر با عملکرد بالا برای خروجی‌های سریع و چندسبکی است.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (تنظیم‌شده) عملکردی پایدار و قابل تنظیم برای وظایف پیچیده ارائه می‌دهد.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (تنظیم‌شده) پشتیبانی قوی چندوجهی برای وظایف پیچیده فراهم می‌کند.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچم‌دار مدل‌های استدلالی گوگل است که از زمینه‌های طولانی برای انجام وظایف پیچیده پشتیبانی می‌کند.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحی‌شده برای سرعت است که هوش پیشرفته را با قابلیت جست‌وجوی دقیق ترکیب می‌کند.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتگوی چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است و همچنین از چت چندوجهی پشتیبانی می‌کند.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریع‌ترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویر مکالمه‌ای است.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر در سطح حرفه‌ای را با سرعت Flash و پشتیبانی از چت چندوجهی ارائه می‌دهد.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریع‌ترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویری مکالمه‌ای است.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview اقتصادی‌ترین مدل چندوجهی گوگل است که برای وظایف عامل‌محور با حجم بالا، ترجمه و پردازش داده‌ها بهینه شده است.",
"gemini-3.1-pro-preview.description": "پیش‌نمایش Gemini 3.1 Pro قابلیت‌های استدلال بهبود یافته را به Gemini 3 Pro اضافه می‌کند و از سطح تفکر متوسط پشتیبانی می‌کند.",
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "پیشرفته‌ترین و قدرتمندترین مدل ما، طراحی‌شده برای وظایف پیچیده سازمانی با عملکرد برجسته.",
"jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچک‌تر.",
"jina-deepsearch-v1.description": "DeepSearch جستجوی وب، خواندن و استدلال را برای تحقیقات جامع ترکیب می‌کند. آن را مانند عاملی تصور کنید که وظیفه تحقیق شما را می‌گیرد، جستجوهای گسترده‌ای با تکرارهای متعدد انجام می‌دهد و سپس پاسخ تولید می‌کند. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است و اساساً با مدل‌های زبانی استاندارد یا سیستم‌های RAG سنتی متفاوت است.",
"k2p5.description": "Kimi K2.5 جامع‌ترین مدل Kimi تا به امروز است که دارای معماری چندوجهی بومی است و از ورودی‌های تصویری و متنی، حالت‌های 'تفکر' و 'غیرتفکر' و وظایف مکالمه‌ای و عامل پشتیبانی می‌کند.",
"kimi-k2-0711-preview.description": "kimi-k2 یک مدل پایه MoE با قابلیت‌های قوی در برنامه‌نویسی و عامل‌سازی است (۱ تریلیون پارامتر کل، ۳۲ میلیارد فعال) که در معیارهای استدلال، برنامه‌نویسی، ریاضی و عامل از سایر مدل‌های متن‌باز پیشی می‌گیرد.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview دارای پنجره متنی ۲۵۶هزار توکن، برنامه‌نویسی عامل‌محور قوی‌تر، کیفیت بهتر کد فرانت‌اند و درک بهتر از زمینه است.",
"kimi-k2-instruct.description": "Kimi K2 Instruct مدل رسمی استدلال Kimi با پشتیبانی از زمینه طولانی برای کدنویسی، پرسش‌وپاسخ و موارد دیگر است.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد. QwQ-32B یک مدل استدلال میان‌رده است که با مدل‌های برتر مانند DeepSeek-R1 و o1-mini رقابت می‌کند.",
"qwq_32b.description": "مدل استدلال میان‌رده در خانواده Qwen. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد.",
"r1-1776.description": "R1-1776 نسخه پس‌آموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بی‌طرف طراحی شده است.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro توسط ByteDance از تولید متن به ویدئو، تصویر به ویدئو (فریم اول، فریم اول+آخر)، و تولید صدا همگام‌شده با تصاویر پشتیبانی می‌کند.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite توسط BytePlus ویژگی‌های تولید با بازیابی وب برای اطلاعات بلادرنگ، تفسیر پیچیده دستورات بهبود یافته، و ثبات مرجع بهبود یافته برای ایجاد بصری حرفه‌ای را ارائه می‌دهد.",
"solar-mini-ja.description": "Solar Mini (ژاپنی) نسخه‌ای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبان‌های انگلیسی و کره‌ای حفظ می‌کند.",
"solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبان‌های انگلیسی و کره‌ای، راه‌حلی کارآمد با حجم کم ارائه می‌دهد.",
"solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعمل‌ها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گسترده‌تر و زمینه طولانی‌تر برنامه‌ریزی شده است.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 مدل قدرتمند جدید تولید رسانه‌ای ما است، که ویدئوهایی با صدای همگام‌شده تولید می‌کند. این مدل می‌تواند کلیپ‌های پویا و غنی از جزئیات را از زبان طبیعی یا تصاویر ایجاد کند.",
"spark-x.description": "بررسی قابلیت‌های X2: 1. معرفی تنظیم پویا حالت استدلال، کنترل شده از طریق فیلد `thinking`. 2. طول زمینه گسترش یافته: 64K توکن ورودی و 128K توکن خروجی. 3. از قابلیت Function Call پشتیبانی می‌کند.",
"stable-diffusion-3-medium.description": "جدیدترین مدل تبدیل متن به تصویر از Stability AI. این نسخه کیفیت تصویر، درک متن و تنوع سبک را به‌طور قابل‌توجهی بهبود می‌بخشد، دستورات زبان طبیعی پیچیده را دقیق‌تر تفسیر کرده و تصاویر متنوع‌تری تولید می‌کند.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo از تکنیک تقطیر انتشار خصمانه (ADD) برای افزایش سرعت در stable-diffusion-3.5-large استفاده می‌کند.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large یک مدل تبدیل متن به تصویر MMDiT با ۸۰۰ میلیون پارامتر است که کیفیت بالا و تطابق دقیق با دستورات را ارائه می‌دهد و از تصاویر ۱ مگاپیکسلی و اجرای کارآمد روی سخت‌افزار مصرفی پشتیبانی می‌کند.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 از نقطه بازیابی v1.2 آغاز شده و به مدت ۵۹۵ هزار مرحله روی مجموعه «laion-aesthetics v2 5+» با وضوح ۵۱۲x۵۱۲ آموزش دیده است. با کاهش ۱۰٪ در شرط‌بندی متنی، نمونه‌گیری بدون طبقه‌بندی را بهبود می‌بخشد.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo بر تولید تصاویر باکیفیت با رندر دقیق جزئیات و حفظ وفاداری صحنه تمرکز دارد.",
"stable-diffusion-xl-base-1.0.description": "یک مدل متن‌باز تبدیل متن به تصویر از Stability AI با قابلیت‌های خلاقانه پیشرو در صنعت. درک قوی از دستورالعمل‌ها دارد و از تعریف معکوس دستورات برای تولید دقیق پشتیبانی می‌کند.",
"stable-diffusion-xl.description": "stable-diffusion-xl بهبودهای عمده‌ای نسبت به نسخه v1.5 دارد و با بهترین نتایج متن‌باز تبدیل متن به تصویر برابری می‌کند. بهبودها شامل ستون فقرات UNet سه برابر بزرگ‌تر، ماژول پالایش برای کیفیت بهتر تصویر و تکنیک‌های آموزشی کارآمدتر است.",
"step-1-128k.description": "تعادل بین عملکرد و هزینه برای سناریوهای عمومی.",
"step-1-256k.description": "پشتیبانی از زمینه‌های بسیار طولانی، ایده‌آل برای تحلیل اسناد بلند.",
"step-1-32k.description": "پشتیبانی از مکالمات با طول متوسط برای طیف گسترده‌ای از کاربردها.",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} پارامتر در مجموع",
"arguments.title": "آرگومان‌ها",
"builtins.lobe-activator.apiName.activateTools": "فعال کردن ابزارها",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} یافت نشد",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "دریافت مدل‌های موجود",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "دریافت مهارت‌های موجود",
"builtins.lobe-agent-builder.apiName.getConfig": "دریافت پیکربندی",

View file

@ -33,7 +33,6 @@
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
"kimicodingplan.description": "Kimi Code از Moonshot AI دسترسی به مدل‌های Kimi شامل K2.5 را برای وظایف کدنویسی فراهم می‌کند.",
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
"lobehub.description": "ابر لاب‌هاب از APIهای رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل مرتبط هستند، اندازه‌گیری می‌کند.",
"longcat.description": "لانگ‌کت مجموعه‌ای از مدل‌های بزرگ هوش مصنوعی تولیدی است که به‌طور مستقل توسط میتوآن توسعه داده شده است. این مدل‌ها برای افزایش بهره‌وری داخلی شرکت و امکان‌پذیر کردن کاربردهای نوآورانه از طریق معماری محاسباتی کارآمد و قابلیت‌های چندوجهی قدرتمند طراحی شده‌اند.",
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
"minimaxcodingplan.description": "طرح توکن MiniMax دسترسی به مدل‌های MiniMax شامل M2.7 را برای وظایف کدنویسی از طریق اشتراک با هزینه ثابت فراهم می‌کند.",
@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark هوش مصنوعی چندزبانه قدرتمندی را در حوزه‌های مختلف ارائه می‌دهد و نوآوری‌هایی در سخت‌افزار هوشمند، سلامت، مالی و سایر صنایع ایجاد می‌کند.",
"stepfun.description": "مدل‌های Stepfun قابلیت‌های پیشرفته چندوجهی و استدلال پیچیده را با درک متون بلند و هماهنگی جستجوی خودکار قدرتمند ارائه می‌دهند.",
"straico.description": "استرایکو یکپارچه‌سازی هوش مصنوعی را با ارائه یک فضای کاری متحد که مدل‌های برتر تولید متن، تصویر و صوت هوش مصنوعی را گرد هم می‌آورد، ساده می‌کند و به بازاریابان، کارآفرینان و علاقه‌مندان دسترسی آسان به ابزارهای متنوع هوش مصنوعی را می‌دهد.",
"streamlake.description": "StreamLake یک پلتفرم خدمات مدل در سطح سازمانی و رایانش ابری هوش مصنوعی است که استنتاج مدل با کارایی بالا، شخصی‌سازی کم‌هزینه مدل و خدمات کاملاً مدیریت‌شده را یکپارچه می‌کند تا به کسب‌وکارها کمک کند بدون نگرانی از پیچیدگی‌ها و هزینه‌های منابع محاسباتی زیربنایی، بر نوآوری در کاربردهای هوش مصنوعی تمرکز کنند.",
"taichu.description": "مدل چندوجهی نسل جدید از CASIA و مؤسسه هوش مصنوعی ووهان که از پرسش و پاسخ چندمرحله‌ای، نگارش، تولید تصویر، درک سه‌بعدی و تحلیل سیگنال با شناخت و خلاقیت قوی پشتیبانی می‌کند.",
"tencentcloud.description": "موتور دانش LLM Atomic Power خدمات پرسش و پاسخ دانش‌محور را برای شرکت‌ها و توسعه‌دهندگان فراهم می‌کند، با خدمات ماژولار مانند تجزیه اسناد، تقسیم‌بندی، جاسازی و بازنویسی چندمرحله‌ای برای ساخت راهکارهای سفارشی هوش مصنوعی.",
"togetherai.description": "Together AI عملکرد پیشرو را با مدل‌های نوآورانه، سفارشی‌سازی گسترده، مقیاس‌پذیری سریع و استقرار ساده برای نیازهای سازمانی ارائه می‌دهد.",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "ابزارهای سیستم",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - ابزار سریع برای جستجوی کد",
"settingSystemTools.tools.agentBrowser.desc": "مرورگر عامل - ابزار خط فرمان برای اتوماسیون مرورگر بدون رابط کاربری برای عوامل هوش مصنوعی",
"settingSystemTools.tools.bun.desc": "Bun - زمان‌اجرای بسیار سریع جاوااسکریپت و مدیر بسته‌ها",
"settingSystemTools.tools.bunx.desc": "bunx - اجراکننده بسته‌های Bun برای اجرای بسته‌های npm",
"settingSystemTools.tools.fd.desc": "fd - جایگزینی سریع و کاربرپسند برای find",
"settingSystemTools.tools.find.desc": "دستور find در یونیکس - فرمان استاندارد جستجوی فایل",
"settingSystemTools.tools.grep.desc": "GNU grep - ابزار استاندارد جستجوی متن",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - مدیریت و اتصال به سرویس‌های LobeHub",
"settingSystemTools.tools.mdfind.desc": "جستجوی Spotlight در macOS (جستجوی سریع و ایندکس‌شده)",
"settingSystemTools.tools.node.desc": "Node.js - محیط اجرای JavaScript برای JS/TS",
"settingSystemTools.tools.npm.desc": "npm - مدیر بسته Node.js برای نصب وابستگی‌ها",
"settingSystemTools.tools.pnpm.desc": "pnpm - مدیر بسته‌ای سریع و بهینه از نظر فضای دیسک",
"settingSystemTools.tools.python.desc": "Python - محیط اجرای زبان برنامه‌نویسی",
"settingSystemTools.tools.rg.desc": "ripgrep - ابزار بسیار سریع برای جستجوی متن",
"settingSystemTools.tools.uv.desc": "uv - مدیر بسته‌ی پایتون با سرعتی بسیار بالا",
"settingTTS.openai.sttModel": "مدل تبدیل گفتار به متن OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "مدل تبدیل متن به گفتار OpenAI",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "مدل",
"systemAgent.inputCompletion.modelDesc": "مدلی که برای پیشنهادات تکمیل خودکار ورودی استفاده می‌شود (مانند متن شبح GitHub Copilot)",
"systemAgent.inputCompletion.title": "عامل تکمیل خودکار ورودی",
"systemAgent.promptRewrite.label": "مدل",
"systemAgent.promptRewrite.modelDesc": "مدلی را که برای بازنویسی پرامپت استفاده می‌شود مشخص کنید",
"systemAgent.promptRewrite.title": "عامل بازنویسی پرامپت",
"systemAgent.queryRewrite.label": "مدل",
"systemAgent.queryRewrite.modelDesc": "مدلی که برای بهینه‌سازی پرسش‌های کاربران استفاده می‌شود",
"systemAgent.queryRewrite.title": "عامل بازنویسی پرسش کتابخانه",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "یک فایل .zip یا .skill محلی را آپلود کنید",
"tab.usage": "آمار استفاده",
"tools.add": "افزودن مهارت",
"tools.builtins.find-skills.description": "به کاربران کمک می‌کند مهارت‌های عامل را هنگام پرسیدن «چگونه X را انجام دهم»، «یک مهارت برای X پیدا کن»، یا هنگام نیاز به گسترش قابلیت‌ها کشف و نصب کنند",
"tools.builtins.find-skills.title": "یافتن مهارت‌ها",
"tools.builtins.groupName": "داخلی‌ها",
"tools.builtins.install": "نصب",
"tools.builtins.installed": "نصب‌شده",
"tools.builtins.lobe-activator.description": "کشف و فعال‌سازی ابزارها و مهارت‌ها",
"tools.builtins.lobe-activator.title": "فعال‌ساز ابزارها و مهارت‌ها",
"tools.builtins.lobe-agent-browser.description": "رابط خط فرمان برای خودکارسازی مرورگر در عامل‌های هوش مصنوعی. مناسب برای وظایف مربوط به تعامل با وب‌سایت یا Electron مانند ناوبری، پر کردن فرم، کلیک، ثبت اسکرین‌شات، استخراج داده، جریان‌های ورود، و تست کامل برنامه.",
"tools.builtins.lobe-agent-browser.title": "مرورگر عامل",
"tools.builtins.lobe-agent-builder.description": "پیکربندی فراداده عامل، تنظیمات مدل، افزونه‌ها و پرامپت سیستمی",
"tools.builtins.lobe-agent-builder.title": "سازنده عامل",
"tools.builtins.lobe-agent-documents.description": "مدیریت اسناد وابسته به عامل (فهرست، ایجاد، خواندن، ویرایش، حذف، تغییر نام) و قوانین بارگذاری",
"tools.builtins.lobe-agent-documents.title": "اسناد",
"tools.builtins.lobe-agent-management.description": "ایجاد، مدیریت و هماهنگ‌سازی عامل‌های هوش مصنوعی",
"tools.builtins.lobe-agent-management.title": "مدیریت عامل",
"tools.builtins.lobe-artifacts.description": "تولید و پیش‌نمایش زنده اجزای تعاملی رابط کاربری، نمودارها، گرافیک‌های SVG و برنامه‌های وب. ایجاد محتوای بصری غنی که کاربران بتوانند مستقیماً با آن تعامل داشته باشند.",
"tools.builtins.lobe-artifacts.readme": "اجزای رابط کاربری تعاملی، نمودارها، گرافیک‌های SVG و برنامه‌های وب را تولید کرده و به‌صورت زنده پیش‌نمایش دهید. محتوای بصری غنی ایجاد کنید که کاربران بتوانند مستقیماً با آن تعامل داشته باشند.",
"tools.builtins.lobe-artifacts.title": "آرتیفکت‌ها",
"tools.builtins.lobe-brief.description": "گزارش پیشرفت، ارائه نتایج و درخواست تصمیم از کاربر",
"tools.builtins.lobe-brief.title": "ابزارهای مختصر",
"tools.builtins.lobe-calculator.description": "انجام محاسبات ریاضی، حل معادلات و کار با عبارات نمادین",
"tools.builtins.lobe-calculator.readme": "ماشین‌حساب پیشرفته ریاضی که از عملیات حسابی پایه، معادلات جبری، عملیات حساب دیفرانسیل و انتگرال و ریاضیات نمادین پشتیبانی می‌کند. شامل تبدیل مبنا، حل معادلات، مشتق‌گیری، انتگرال‌گیری و موارد دیگر.",
"tools.builtins.lobe-calculator.title": "ماشین‌حساب",
"tools.builtins.lobe-cloud-sandbox.description": "اجرای کدهای Python، JavaScript و TypeScript در محیط ابری ایزوله. اجرای دستورات شِل، مدیریت فایل‌ها، جستجوی محتوا با regex و خروجی‌گیری امن از نتایج.",
"tools.builtins.lobe-cloud-sandbox.readme": "کدهای Python، JavaScript و TypeScript را در محیطی ایزوله در فضای ابری اجرا کنید. دستورات شِل را اجرا کرده، فایل‌ها را مدیریت کنید، با استفاده از regex محتوا را جستجو کرده و نتایج را به‌صورت ایمن صادر نمایید.",
"tools.builtins.lobe-cloud-sandbox.title": "محیط آزمایشی ابری",
"tools.builtins.lobe-creds.description": "مدیریت اعتبارنامه‌های کاربر برای احراز هویت، تزریق متغیرهای محیطی و تأیید API — مدیریت کلیدهای API، توکن‌های OAuth و اسرار برای یکپارچه‌سازی سرویس‌های ثالث.",
"tools.builtins.lobe-creds.title": "اعتبارنامه‌ها",
"tools.builtins.lobe-cron.description": "مدیریت وظایف زمان‌بندی شده که به صورت خودکار در زمان‌های مشخص اجرا می‌شوند. ایجاد، به‌روزرسانی، فعال/غیرفعال‌سازی و پایش وظایف دوره‌ای برای عامل‌ها.",
"tools.builtins.lobe-cron.title": "وظایف زمان‌بندی‌شده",
"tools.builtins.lobe-group-agent-builder.description": "پیکربندی فراداده گروه، اعضا و محتوای مشترک برای گروه‌های چندعاملی",
"tools.builtins.lobe-group-agent-builder.title": "سازنده عامل گروهی",
"tools.builtins.lobe-group-management.description": "هماهنگ‌سازی و مدیریت گفتگوهای گروه‌های چندعاملی",
"tools.builtins.lobe-group-management.title": "مدیریت گروه",
"tools.builtins.lobe-gtd.description": "برنامه‌ریزی اهداف و پیگیری پیشرفت با استفاده از روش GTD. ایجاد برنامه‌های راهبردی، مدیریت فهرست کارها با پیگیری وضعیت و اجرای وظایف طولانی به‌صورت ناهمگام.",
"tools.builtins.lobe-gtd.readme": "اهداف خود را با استفاده از روش GTD برنامه‌ریزی کرده و پیشرفت را پیگیری کنید. برنامه‌های استراتژیک ایجاد کرده، فهرست کارها را با پیگیری وضعیت مدیریت کرده و وظایف طولانی و ناهمزمان را اجرا نمایید.",
"tools.builtins.lobe-gtd.title": "ابزارهای GTD",
"tools.builtins.lobe-knowledge-base.description": "جستجوی اسناد بارگذاری‌شده و دانش حوزه‌ای از طریق جستجوی برداری معنایی — برای مرجع دائمی و قابل استفاده مجدد",
"tools.builtins.lobe-knowledge-base.title": "پایگاه دانش",
"tools.builtins.lobe-local-system.description": "دسترسی به سیستم فایل محلی در دسکتاپ. خواندن، نوشتن، جستجو و سازماندهی فایل‌ها. اجرای دستورات شِل با پشتیبانی از وظایف پس‌زمینه و جستجوی محتوا با الگوهای regex.",
"tools.builtins.lobe-local-system.readme": "به سیستم فایل محلی خود در دسکتاپ دسترسی پیدا کنید. فایل‌ها را بخوانید، بنویسید، جستجو و سازماندهی کنید. دستورات شِل را با پشتیبانی از وظایف پس‌زمینه اجرا کرده و با الگوهای regex محتوا را جستجو نمایید.",
"tools.builtins.lobe-local-system.title": "سیستم محلی",
"tools.builtins.lobe-message.description": "ارسال، خواندن، ویرایش و مدیریت پیام‌ها در چندین پلتفرم پیام‌رسان با یک رابط یکپارچه",
"tools.builtins.lobe-message.readme": "ابزار پیام‌رسانی میان‌پلتفرمی با پشتیبانی از Discord، Telegram، Slack، Google Chat و IRC. ارائه APIهای یکپارچه برای عملیات پیام، واکنش‌ها، پین کردن، رشته‌ها، مدیریت کانال و قابلیت‌های اختصاصی پلتفرم‌ها مانند نظرسنجی.",
"tools.builtins.lobe-message.title": "پیام",
"tools.builtins.lobe-notebook.description": "ایجاد و مدیریت اسناد ماندگار در موضوعات گفتگو. ذخیره یادداشت‌ها، گزارش‌ها، مقالات و محتوای markdown که در جلسات مختلف قابل دسترسی باقی می‌مانند.",
"tools.builtins.lobe-notebook.readme": "اسناد ماندگار را در موضوعات گفتگو ایجاد و مدیریت کنید. یادداشت‌ها، گزارش‌ها، مقالات و محتوای markdown را ذخیره کرده و در جلسات مختلف به آن‌ها دسترسی داشته باشید.",
"tools.builtins.lobe-notebook.title": "دفترچه",
"tools.builtins.lobe-page-agent.description": "ایجاد، خواندن، به‌روزرسانی و حذف گره‌ها در اسناد با ساختار XML",
"tools.builtins.lobe-page-agent.readme": "ایجاد و ویرایش اسناد ساختاریافته با کنترل دقیق در سطح گره. ایجاد اولیه از Markdown، انجام عملیات دسته‌ای درج/ویرایش/حذف و جستجو و جایگزینی متن در سراسر اسناد.",
"tools.builtins.lobe-page-agent.title": "سند",
"tools.builtins.lobe-remote-device.description": "کشف و مدیریت اتصال به دستگاه‌های دسکتاپ راه‌دور",
"tools.builtins.lobe-remote-device.readme": "مدیریت اتصال به دستگاه‌های دسکتاپ شما. فهرست دستگاه‌های آنلاین، فعال‌سازی دستگاه برای عملیات راه‌دور و بررسی وضعیت اتصال.",
"tools.builtins.lobe-remote-device.title": "دستگاه راه‌دور",
"tools.builtins.lobe-skill-store.description": "مرور و نصب مهارت‌های عامل از بازارچه LobeHub. برای زمانی که نیاز به قابلیت‌های بیشتر دارید یا می‌خواهید مهارت خاصی را نصب کنید.",
"tools.builtins.lobe-skill-store.title": "فروشگاه مهارت",
"tools.builtins.lobe-skills.description": "فعال‌سازی و استفاده از بسته‌های مهارتی قابل استفاده مجدد",
"tools.builtins.lobe-skills.title": "مهارت‌ها",
"tools.builtins.lobe-task.description": "ایجاد، فهرست، ویرایش و حذف وظایف با وابستگی‌ها و پیکربندی بازبینی",
"tools.builtins.lobe-task.title": "ابزارهای وظیفه",
"tools.builtins.lobe-topic-reference.description": "بازیابی زمینه از گفتگوهای موضوعی مرجع‌شده",
"tools.builtins.lobe-topic-reference.title": "مرجع موضوع",
"tools.builtins.lobe-user-interaction.description": "پرسیدن سؤال از کاربران از طریق تعاملات UI و مشاهده نتایج چرخه عمر آنها",
"tools.builtins.lobe-user-interaction.title": "تعامل کاربر",
"tools.builtins.lobe-user-memory.description": "ساخت پایگاه دانش شخصی درباره شما. به خاطر سپردن ترجیحات، پیگیری فعالیت‌ها و تجربیات، ذخیره اطلاعات هویتی و یادآوری زمینه‌های مرتبط در گفتگوهای آینده.",
"tools.builtins.lobe-user-memory.readme": "پایگاه دانشی شخصی درباره خودتان بسازید. ترجیحات را به خاطر بسپارید، فعالیت‌ها و تجربیات را پیگیری کنید، اطلاعات هویتی را ذخیره کرده و در گفتگوهای آینده زمینه مرتبط را به یاد آورید.",
"tools.builtins.lobe-user-memory.title": "حافظه",
"tools.builtins.lobe-web-browsing.description": "جستجوی وب برای اطلاعات به‌روز و خزش صفحات وب برای استخراج محتوا. پشتیبانی از چندین موتور جستجو، دسته‌بندی‌ها و بازه‌های زمانی.",
"tools.builtins.lobe-web-browsing.readme": "جستجوی وب برای اطلاعات به‌روز و خزش صفحات وب برای استخراج محتوا. پشتیبانی از چندین موتور جستجو، دسته‌بندی‌ها و بازه‌های زمانی برای تحقیقات جامع.",
"tools.builtins.lobe-web-browsing.title": "مرور وب",
"tools.builtins.lobe-web-onboarding.description": "اجرای جریان راه‌اندازی وب با یک محیط کنترل‌شده عامل",
"tools.builtins.lobe-web-onboarding.title": "راه‌اندازی وب",
"tools.builtins.lobehub.description": "مدیریت پلتفرم LobeHub از طریق CLI — پایگاه‌های دانش، حافظه، عامل‌ها، فایل‌ها، جستجو، تولید محتوا و موارد دیگر.",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "نصب‌نشده",
"tools.builtins.task.description": "مدیریت و اجرای وظایف — ایجاد، پیگیری، بازبینی و تکمیل وظایف از طریق CLI.",
"tools.builtins.task.title": "وظیفه",
"tools.builtins.uninstall": "حذف نصب",
"tools.builtins.uninstallConfirm.desc": "آیا مطمئن هستید که می‌خواهید {{name}} را حذف نصب کنید؟ این مهارت از عامل فعلی حذف خواهد شد.",
"tools.builtins.uninstallConfirm.title": "حذف نصب {{name}}",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "قطع اتصال {{name}}؟",
"tools.lobehubSkill.disconnected": "قطع اتصال",
"tools.lobehubSkill.error": "خطا",
"tools.lobehubSkill.providers.github.description": "GitHub پلتفرمی برای کنترل نسخه و همکاری است که به توسعه‌دهندگان امکان می‌دهد مخازن کد را میزبانی، بازبینی و مدیریت کنند.",
"tools.lobehubSkill.providers.github.readme": "به GitHub متصل شوید تا به مخازن خود دسترسی داشته باشید، مسائل ایجاد و مدیریت کنید، Pull Requestها را بازبینی کنید و روی کد همکاری کنید — همه از طریق مکالمه طبیعی با دستیار هوش مصنوعی.",
"tools.lobehubSkill.providers.linear.description": "Linear یک ابزار مدرن پیگیری مسائل و مدیریت پروژه است که برای تیم‌های با عملکرد بالا طراحی شده تا نرم‌افزار بهتری را سریع‌تر بسازند.",
"tools.lobehubSkill.providers.linear.readme": "قدرت Linear را مستقیماً به دستیار هوش مصنوعی خود بیاورید. مسائل را ایجاد و به‌روزرسانی کرده، اسپرینت‌ها را مدیریت کنید، پیشرفت پروژه را پیگیری کرده و جریان کاری توسعه خود را از طریق مکالمه طبیعی بهینه نمایید.",
"tools.lobehubSkill.providers.microsoft.description": "تقویم Outlook یک ابزار زمان‌بندی یکپارچه در Microsoft Outlook است که به کاربران امکان می‌دهد قرار ملاقات ایجاد کرده، جلسات را با دیگران سازمان‌دهی کرده و زمان و رویدادهای خود را به‌طور مؤثر مدیریت کنند.",
"tools.lobehubSkill.providers.microsoft.readme": "با Outlook Calendar یکپارچه شوید تا رویدادهای خود را مشاهده، ایجاد و مدیریت کنید. جلسات را برنامه‌ریزی کرده، در دسترس بودن را بررسی کنید، یادآورها را تنظیم کرده و زمان خود را از طریق دستورات زبان طبیعی هماهنگ نمایید.",
"tools.lobehubSkill.providers.twitter.description": "X (توییتر) یک پلتفرم رسانه اجتماعی برای به‌اشتراک‌گذاری به‌روزرسانی‌های لحظه‌ای، اخبار و تعامل با مخاطبان از طریق پست‌ها، پاسخ‌ها و پیام‌های مستقیم است.",
"tools.lobehubSkill.providers.twitter.readme": "به X (توییتر) متصل شوید تا توییت ارسال کرده، تایم‌لاین خود را مدیریت کرده و با مخاطبان خود تعامل داشته باشید. محتوا ایجاد کرده، پست‌ها را زمان‌بندی کنید، اشاره‌ها را پایش کرده و حضور خود در شبکه‌های اجتماعی را از طریق هوش مصنوعی مکالمه‌ای گسترش دهید.",
"tools.lobehubSkill.providers.vercel.description": "Vercel یک پلتفرم ابری برای توسعه‌دهندگان فرانت‌اند است که میزبانی و توابع بدون سرور را برای استقرار آسان برنامه‌های وب ارائه می‌دهد.",
"tools.lobehubSkill.providers.vercel.readme": "به Vercel متصل شوید تا استقرارها را مدیریت کنید، وضعیت پروژه‌ها را پایش کنید و زیرساخت خود را کنترل کنید. برنامه‌ها را مستقر کنید، لاگ‌های ساخت را بررسی کنید، متغیرهای محیطی را مدیریت کنید و پروژه‌های خود را از طریق هوش مصنوعی مکالمه‌ای مقیاس دهید.",
"tools.notInstalled": "نصب نشده",
"tools.notInstalledWarning": "این مهارت در حال حاضر نصب نشده است و ممکن است عملکرد عامل را تحت تأثیر قرار دهد.",
"tools.plugins.enabled": "فعال‌شده: {{num}}",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "ارتقا به",
"credits.topUp.upgradeSuffix": "برای صرفه‌جویی ${{savings}}",
"credits.topUp.validityInfo": "اعتبار {{months}} ماهه",
"crossPlatform.desc": "این اشتراک از طریق اپلیکیشن موبایل خریداری شده است و نمی‌توان آن را در اینجا تغییر داد. لطفاً اشتراک خود را در دستگاه موبایل مدیریت کنید.",
"crossPlatform.manageOnMobile": "مدیریت در دستگاه موبایل",
"crossPlatform.title": "اشتراک چندپلتفرمی",
"currentPlan.cancelAlert": "اشتراک در تاریخ {{canceledAt}} لغو خواهد شد. تا آن زمان می‌توانید از طریق «مدیریت اشتراک» آن را بازیابی کنید",
"currentPlan.downgradeAlert": "در تاریخ {{downgradedAt}} به پلن {{plan}} تنزل خواهد یافت.",
"currentPlan.management": "مدیریت اشتراک",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "فریم آغازین",
"config.prompt.placeholder": "ویدیویی که می‌خواهید تولید شود را توصیف کنید",
"config.prompt.placeholderWithRef": "صحنه‌ای که می‌خواهید با تصویر ایجاد کنید را توصیف کنید",
"config.promptExtend.label": "گسترش پرامپت",
"config.referenceImage.label": "تصویر مرجع",
"config.resolution.label": "وضوح تصویر",
"config.seed.label": "بذر (Seed)",
"config.seed.random": "تصادفی",
"config.size.label": "اندازه",
"config.watermark.label": "واترمارک",
"config.webSearch.label": "جستجوی وب",
"generation.actions.copyError": "کپی پیام خطا",
"generation.actions.errorCopied": "پیام خطا در کلیپ‌بورد کپی شد",
"generation.actions.errorCopyFailed": "کپی پیام خطا ناموفق بود",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot connecté avec succès",
"channel.connecting": "Connexion en cours...",
"channel.connectionConfig": "Configuration de la connexion",
"channel.connectionMode": "Mode de connexion",
"channel.connectionModeHint": "Le mode WebSocket est recommandé pour les nouveaux bots. Utilisez Webhook si votre bot possède déjà une URL de rappel configurée sur la plateforme QQ Open Platform.",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "Copié dans le presse-papiers",
"channel.copy": "Copier",
"channel.credentials": "Identifiants",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Veuillez copier cette URL et la coller dans le champ <bold>{{fieldName}}</bold> du portail développeur {{name}}.",
"channel.exportConfig": "Exporter la configuration",
"channel.feishu.description": "Connectez cet assistant à Feishu pour les discussions privées et de groupe.",
"channel.feishu.webhookMigrationDesc": "Le mode WebSocket offre une livraison dévénements en temps réel sans nécessiter dURL de rappel publique. Pour migrer, changez le mode de connexion vers WebSocket dans les paramètres avancés. Aucune configuration supplémentaire nest requise sur la plateforme Feishu/Lark Open Platform.",
"channel.feishu.webhookMigrationTitle": "Envisagez de migrer vers le mode WebSocket",
"channel.historyLimit": "Limite des messages historiques",
"channel.historyLimitHint": "Nombre par défaut de messages à récupérer lors de la lecture de l'historique du canal",
"channel.importConfig": "Importer la configuration",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Requis pour la vérification des interactions",
"channel.qq.appIdHint": "Votre ID d'application Bot QQ de la plateforme QQ Open",
"channel.qq.description": "Connectez cet assistant à QQ pour des discussions de groupe et des messages directs.",
"channel.qq.webhookMigrationDesc": "Le mode WebSocket offre une livraison dévénements en temps réel et une reconnexion automatique sans nécessiter dURL de rappel. Pour migrer, créez un nouveau bot sur la plateforme QQ Open Platform sans configurer dURL de rappel, puis changez le mode de connexion vers WebSocket dans les paramètres avancés.",
"channel.qq.webhookMigrationTitle": "Envisagez de migrer vers le mode WebSocket",
"channel.removeChannel": "Supprimer le canal",
"channel.removeFailed": "Échec de la suppression du canal",
"channel.removed": "Canal supprimé",
@ -93,7 +101,11 @@
"channel.signingSecret": "Secret de signature",
"channel.signingSecretHint": "Utilisé pour vérifier les requêtes webhook.",
"channel.slack.appIdHint": "Votre ID d'application Slack depuis le tableau de bord API Slack (commence par A).",
"channel.slack.appToken": "Jeton au niveau de lapplication",
"channel.slack.appTokenHint": "Requis pour le Socket Mode (WebSocket). Générez un jeton au niveau de lapplication (xapp-...) dans les informations de base des paramètres de votre application Slack.",
"channel.slack.description": "Connectez cet assistant à Slack pour des conversations de canal et des messages directs.",
"channel.slack.webhookMigrationDesc": "Le Socket Mode offre une livraison dévénements en temps réel via WebSocket sans exposer de point de terminaison HTTP public. Pour migrer, activez le Socket Mode dans les paramètres de votre application Slack, générez un jeton au niveau de lapplication, puis changez le mode de connexion vers WebSocket dans les paramètres avancés.",
"channel.slack.webhookMigrationTitle": "Envisagez de migrer vers le Socket Mode (WebSocket)",
"channel.telegram.description": "Connectez cet assistant à Telegram pour les discussions privées et de groupe.",
"channel.testConnection": "Tester la connexion",
"channel.testFailed": "Échec du test de connexion",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Groupe supprimé avec succès",
"confirmRemoveSessionItemAlert": "Vous êtes sur le point de supprimer cet agent. Une fois supprimé, il ne pourra pas être récupéré. Veuillez confirmer votre action.",
"confirmRemoveSessionSuccess": "Agent supprimé avec succès",
"createModal.createBlank": "Créer un modèle vierge",
"createModal.groupPlaceholder": "Décrivez ce que ce groupe doit faire...",
"createModal.groupTitle": "Que doit faire votre groupe ?",
"createModal.placeholder": "Décrivez ce que votre agent doit faire...",
"createModal.title": "Que doit faire votre agent ?",
"defaultAgent": "Agent par défaut",
"defaultGroupChat": "Groupe",
"defaultList": "Liste par défaut",
@ -229,6 +234,7 @@
"operation.contextCompression": "Contexte trop long, compression de l'historique...",
"operation.execAgentRuntime": "Préparation de la réponse",
"operation.execClientTask": "Exécution de la tâche",
"operation.execServerAgentRuntime": "Exécution en cours… Vous pouvez changer de tâche ou fermer la page — la tâche continuera.",
"operation.sendMessage": "Envoi du message",
"owner": "Propriétaire du groupe",
"pageCopilot.title": "Agent de page",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Récupération des détails...",
"task.status.initializing": "Initialisation de la tâche...",
"task.subtask": "Sous-tâche",
"task.title": "Tâches",
"thread.divider": "Sous-sujet",
"thread.threadMessageCount": "{{messageCount}} messages",
"thread.title": "Sous-sujet",
@ -429,9 +436,11 @@
"toolAuth.title": "Autoriser les compétences pour cet agent",
"topic.checkOpenNewTopic": "Commencer un nouveau sujet ?",
"topic.checkSaveCurrentMessages": "Souhaitez-vous enregistrer la conversation actuelle comme sujet ?",
"topic.defaultTitle": "Sujet sans titre",
"topic.openNewTopic": "Ouvrir un nouveau sujet",
"topic.recent": "Sujets récents",
"topic.saveCurrentMessages": "Enregistrer la session actuelle comme sujet",
"topic.viewAll": "Voir tous les sujets",
"translate.action": "Traduire",
"translate.clear": "Effacer la traduction",
"tts.action": "Synthèse vocale",

View file

@ -343,10 +343,19 @@
"mail.support": "Assistance par e-mail",
"more": "Plus",
"navPanel.agent": "Agent",
"navPanel.customizeSidebar": "Personnaliser la barre latérale",
"navPanel.displayItems": "Éléments affichés",
"navPanel.hidden": "Masqué",
"navPanel.hideSection": "Masquer la section",
"navPanel.library": "Bibliothèque",
"navPanel.moveDown": "Déplacer vers le bas",
"navPanel.moveUp": "Déplacer vers le haut",
"navPanel.pinned": "Épinglé",
"navPanel.searchAgent": "Rechercher un agent...",
"navPanel.searchRecent": "Rechercher dans les récents...",
"navPanel.searchResultEmpty": "Aucun résultat trouvé",
"navPanel.show": "Afficher",
"navPanel.visible": "Visible",
"new": "Nouveau",
"noContent": "Aucun contenu",
"oauth": "Connexion SSO",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "Soutenez-nous",
"productHunt.description": "Soutenez-nous sur Product Hunt. Votre soutien compte beaucoup pour nous !",
"productHunt.title": "Nous sommes sur Product Hunt !",
"promptTransform.action": "Affiner lidée",
"promptTransform.actions.rewrite": "Développer les détails",
"promptTransform.actions.translate": "Traduire",
"promptTransform.status.rewrite": "Développement des détails...",
"promptTransform.status.translate": "Traduction...",
"recents": "Récents",
"regenerate": "Régénérer",
"releaseNotes": "Détails de la version",
"rename": "Renommer",
@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Discussion",
"tab.community": "Communauté",
"tab.create": "Créer",
"tab.discover": "Découvrir",
"tab.eval": "Laboratoire d'évaluation",
"tab.files": "Fichiers",

View file

@ -12,6 +12,7 @@
"config.model.label": "Modèle",
"config.prompt.placeholder": "Décrivez ce que vous souhaitez générer",
"config.prompt.placeholderWithRef": "Décrivez comment vous souhaitez ajuster l'image",
"config.promptExtend.label": "Extension de linvite",
"config.quality.label": "Qualité de l'image",
"config.quality.options.hd": "Haute définition",
"config.quality.options.standard": "Standard",
@ -24,6 +25,8 @@
"config.size.label": "Taille",
"config.steps.label": "Étapes",
"config.title": "Configuration",
"config.watermark.label": "Filigrane",
"config.webSearch.label": "Recherche web",
"config.width.label": "Largeur",
"generation.actions.applySeed": "Appliquer la graine",
"generation.actions.copyError": "Copier le message d'erreur",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Regroupez les messages de l'agent et les résultats de leurs appels d'outils pour les afficher ensemble",
"features.assistantMessageGroup.title": "Regroupement des messages de l'agent",
"features.gatewayMode.desc": "Exécute les tâches de lagent sur le serveur via un WebSocket Gateway au lieu de les exécuter localement. Permet une exécution plus rapide et réduit lutilisation des ressources du client.",
"features.gatewayMode.title": "Exécution de lagent côté serveur (Gateway)",
"features.groupChat.desc": "Activez la coordination de discussions de groupe multi-agents.",
"features.groupChat.title": "Discussion de groupe (multi-agents)",
"features.inputMarkdown.desc": "Affichez le Markdown dans la zone de saisie en temps réel (texte en gras, blocs de code, tableaux, etc.).",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Un modèle de pointe en Chine, surpassant les principaux modèles étrangers sur les tâches en chinois telles que les connaissances, les textes longs et la génération créative. Il offre également des capacités multimodales de premier plan avec dexcellents résultats sur des benchmarks reconnus.",
"Baichuan4.description": "Performances nationales de premier plan, surpassant les modèles étrangers de référence sur les tâches en chinois telles que les connaissances encyclopédiques, les textes longs et la génération créative. Il propose également des capacités multimodales de pointe et dexcellents résultats aux benchmarks.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS est une famille de modèles LLM open source de ByteDance Seed, conçue pour une gestion efficace des contextes longs, le raisonnement, les agents et les capacités générales. Seed-OSS-36B-Instruct est un modèle de 36 milliards de paramètres affiné pour les instructions, avec un contexte ultra-long natif pour traiter de grands documents ou bases de code. Il est optimisé pour le raisonnement, la génération de code et les tâches dagent (utilisation doutils), tout en conservant de solides capacités générales. Une fonctionnalité clé est le \"budget de réflexion\", permettant une longueur de raisonnement flexible pour améliorer lefficacité.",
"DeepSeek-OCR.description": "DeepSeek-OCR est un modèle visionlangage de DeepSeek AI conçu pour lOCR et la « compression optique du contexte ». Il explore la compression du contexte issu dimages, traite efficacement les documents et les convertit en texte structuré (par exemple, en Markdown). Il reconnaît avec précision le texte dans les images, idéal pour la numérisation de documents, lextraction de texte et le traitement structuré.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, le modèle le plus grand et le plus intelligent de la suite DeepSeek, est distillé dans larchitecture Llama 70B. Les benchmarks et les évaluations humaines montrent quil est plus performant que le Llama 70B de base, notamment sur les tâches de mathématiques et de précision factuelle.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Un modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-1.5B. Lapprentissage par renforcement et les données de démarrage à froid optimisent les performances de raisonnement, établissant de nouveaux benchmarks multitâches pour les modèles open source.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Les modèles DeepSeek-R1-Distill sont affinés à partir de modèles open source à laide déchantillons générés par DeepSeek-R1.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Fournisseur : sophnet. DeepSeek V3 Fast est la version à haut débit de DeepSeek V3 0324, en précision complète (non quantifiée), avec de meilleures performances en code et mathématiques et des réponses plus rapides.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast est la variante rapide à haut débit de DeepSeek V3.1. Mode de pensée hybride : via des modèles de conversation, un seul modèle prend en charge les modes avec ou sans raisonnement. Utilisation doutils plus intelligente : le post-entraînement améliore les performances des tâches dagent et doutil.",
"DeepSeek-V3.1-Think.description": "Mode de réflexion DeepSeek-V3.1 : un nouveau modèle de raisonnement hybride avec modes de pensée et non-pensée, plus efficace que DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement lutilisation des outils dagent et les performances des tâches dagent.",
"DeepSeek-V3.2.description": "deepseek-v3.2 introduit un mécanisme dattention clairsemée visant à améliorer lefficacité de lentraînement et de linférence lors du traitement de longs textes, tout en étant proposé à un coût inférieur à deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE développé par DeepSeek. Il surpasse dautres modèles open source comme Qwen2.5-72B et Llama-3.1-405B sur de nombreux benchmarks et rivalise avec les modèles fermés de pointe tels que GPT-4o et Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite offre des réponses ultra-rapides et un excellent rapport qualité-prix, avec des options flexibles selon les cas dusage. Prend en charge un contexte de 128K pour linférence et lajustement fin.",
"Doubao-lite-32k.description": "Doubao-lite offre des réponses ultra-rapides et un excellent rapport qualité-prix, avec des options flexibles selon les cas dusage. Prend en charge un contexte de 32K pour linférence et lajustement fin.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5 : Modèle haute performance pour le raisonnement, le codage et les tâches d'agent.",
"GLM-4.6.description": "GLM-4.6 : Modèle de génération précédente.",
"GLM-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, optimisé pour les scénarios de codage agentique avec des capacités de codage améliorées, une planification des tâches à long terme et une collaboration avec des outils.",
"GLM-5-Turbo.description": "GLM-5-Turbo : Version optimisée de GLM-5 avec une inférence plus rapide pour les tâches de codage.",
"GLM-5-Turbo.description": "GLM-5-Turbo est un modèle fondamental profondément optimisé pour les scénarios agentiques. Il a été spécifiquement optimisé dès la phase dentraînement pour les exigences essentielles des tâches dagent, améliorant des capacités clés telles que linvocation doutils, lexécution de commandes et les chaînes daction longues. Il est idéal pour créer des assistants agents hautes performances.",
"GLM-5.1.description": "GLM-5.1 est le dernier modèle phare de Zhipu, une itération améliorée de GLM-5 avec des capacités d'ingénierie agentique renforcées pour l'ingénierie de systèmes complexes et les tâches à long terme.",
"GLM-5.description": "GLM-5 est le modèle de base phare de nouvelle génération de Zhipu, conçu pour l'ingénierie agentique. Il offre une productivité fiable dans les systèmes complexes et les tâches agentiques à long terme. En matière de codage et de capacités d'agent, GLM-5 atteint des performances de pointe parmi les modèles open source.",
"GLM-5.description": "GLM-5 est le modèle fondamental phare de nouvelle génération de Zhipu, conçu pour lingénierie agentique. Il fournit une productivité fiable pour lingénierie de systèmes complexes et les tâches agentiques de longue durée. En programmation et en capacités dagent, GLM-5 atteint des performances de pointe parmi les modèles open source. Dans des contextes de programmation réels, son expérience utilisateur se rapproche de celle de Claude Opus 4.5. Il excelle dans lingénierie de systèmes complexes et les tâches agentiques à long horizon, ce qui en fait un modèle fondamental idéal pour des assistants agents polyvalents.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) est un modèle innovant pour des domaines variés et des tâches complexes.",
"HY-Image-V3.0.description": "Capacités puissantes d'extraction des caractéristiques de l'image originale et de préservation des détails, offrant une texture visuelle plus riche et produisant des visuels de haute précision, bien composés et de qualité professionnelle.",
"HelloMeme.description": "HelloMeme est un outil dIA qui génère des mèmes, GIFs ou courtes vidéos à partir des images ou mouvements que vous fournissez. Aucune compétence en dessin ou en codage nest requise : une simple image de référence suffit pour créer un contenu amusant, attrayant et stylistiquement cohérent.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter est un modèle de génération de personnages personnalisés sans ajustement, publié par Tencent AI en 2025, visant une génération fidèle et cohérente de personnages à travers différents scénarios. Il peut modéliser un personnage à partir dune seule image de référence et le transférer de manière flexible entre styles, actions et arrière-plans.",
"InternVL2-8B.description": "InternVL2-8B est un puissant modèle vision-langage prenant en charge le traitement multimodal image-texte, capable de reconnaître précisément le contenu des images et de générer des descriptions ou réponses pertinentes.",
"InternVL2.5-26B.description": "InternVL2.5-26B est un puissant modèle vision-langage prenant en charge le traitement multimodal image-texte, capable de reconnaître précisément le contenu des images et de générer des descriptions ou réponses pertinentes.",
"KAT-Coder-Air-V1.description": "Une version allégée de la série KAT-Coder. Spécifiquement conçue pour le codage agentique, elle couvre de manière exhaustive les tâches et scénarios de programmation. Grâce à un apprentissage par renforcement à grande échelle basé sur les agents, elle permet lémergence de comportements intelligents et surpasse nettement les modèles comparables en performance de codage.",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B est la version expérimentale dinnovation RL de la série KAT-Coder, atteignant une performance remarquable de 74,6 % sur le benchmark SWE-Bench verified, établissant un nouveau record pour les modèles open source. Il se concentre sur le codage agentique et ne prend actuellement en charge que le canevas SWE-Agent, tout en pouvant être utilisé pour des conversations simples.",
"KAT-Coder-Pro-V1.description": "Conçu pour le codage agentique, il couvre de manière exhaustive les tâches et scénarios de programmation, permettant lémergence de comportements intelligents grâce à un apprentissage par renforcement à grande échelle et surpassant nettement les modèles similaires en performance de génération de code.",
"KAT-Coder-Pro-V2.description": "Le dernier modèle haute performance de léquipe Kuaishou Kwaipilot, conçu pour les projets dentreprise complexes et lintégration SaaS. Il excelle dans les scénarios liés au code et est compatible avec divers types de cadres pour agents (Claude Code, OpenCode, KiloCode), prend en charge nativement OpenClaw et est spécialement optimisé pour lesthétique des pages front-end.",
"Kimi-K2.5.description": "Kimi K2.5 est le modèle Kimi le plus performant, offrant un niveau SOTA open source dans les tâches agentiques, le codage et la compréhension visuelle. Il prend en charge les entrées multimodales et propose des modes avec ou sans raisonnement.",
"Kolors.description": "Kolors est un modèle de génération dimages à partir de texte développé par léquipe Kolors de Kuaishou. Entraîné avec des milliards de paramètres, il se distingue par sa qualité visuelle, sa compréhension sémantique du chinois et son rendu textuel.",
"Kwai-Kolors/Kolors.description": "Kolors est un modèle de génération dimages à partir de texte à grande échelle basé sur la diffusion latente, développé par léquipe Kolors de Kuaishou. Entraîné sur des milliards de paires texte-image, il excelle en qualité visuelle, précision sémantique complexe et rendu de texte en chinois/anglais, avec une forte capacité de compréhension et de génération de contenu en chinois.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) est un modèle open source de 32 milliards de paramètres pour les tâches dingénierie logicielle. Il atteint un taux de résolution de 62,4 % sur SWE-Bench Verified, se classant 5e parmi les modèles open source. Il est optimisé par entraînement intermédiaire, SFT et RL pour la complétion de code, la correction de bugs et la relecture de code.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modèle linguistique de pointe de petite taille avec une solide compréhension du langage, un excellent raisonnement et une génération de texte efficace.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 est le modèle Llama multilingue open source le plus avancé, offrant des performances proches de celles du modèle 405B à un coût très faible. Basé sur une architecture Transformer, il est amélioré par SFT et RLHF pour lutilité et la sécurité. La version ajustée par instructions est optimisée pour la conversation multilingue et surpasse de nombreux modèles ouverts et fermés sur les benchmarks industriels. Date de coupure des connaissances : décembre 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick est un grand modèle MoE avec activation efficace des experts pour des performances de raisonnement élevées.",
"MiMo-V2-Pro.description": "MiMo-V2-Pro est spécialement conçu pour les flux de travail agentiques intensifs dans des scénarios réels. Il dispose de plus dun billion de paramètres au total (dont 42B activés), adopte une architecture dattention hybride innovante et prend en charge une longueur de contexte ultra-longue allant jusquà un million de tokens. Construit sur un puissant modèle fondamental, nous étendons continuellement les ressources informatiques sur un plus large éventail de scénarios agentiques, élargissant encore lespace daction de lintelligence et atteignant une généralisation significative — du codage à lexécution de tâches réelles (« claw »).",
"MiniMax-Hailuo-02.description": "Le modèle de génération vidéo de nouvelle génération, MiniMax Hailuo 02, a été officiellement lancé, prenant en charge une résolution 1080P et la génération de vidéos de 10 secondes.",
"MiniMax-Hailuo-2.3-Fast.description": "Nouveau modèle de génération vidéo avec des améliorations complètes dans les mouvements corporels, le réalisme physique et le suivi des instructions.",
"MiniMax-Hailuo-2.3.description": "Nouveau modèle de génération vidéo avec des améliorations complètes dans les mouvements corporels, le réalisme physique et le suivi des instructions.",
"MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million dentrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
"MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail dagents, avec une plus grande simultanéité pour un usage commercial.",
"MiniMax-M2.1-Lightning.description": "Capacités de programmation multilingues puissantes avec une inférence plus rapide et plus efficace.",
"MiniMax-M2.1-highspeed.description": "Des capacités de programmation multilingues puissantes, offrant une expérience de programmation entièrement améliorée. Plus rapide et plus efficace.",
"MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle phare open source de MiniMax, conçu pour résoudre des tâches complexes du monde réel. Ses principaux atouts résident dans ses capacités de programmation multilingue et sa faculté à résoudre des problèmes complexes en tant qu'agent.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed : Même performance que M2.5 avec une inférence plus rapide.",
"MiniMax-M2.5.description": "MiniMax-M2.5 est un modèle phare open-source de grande taille développé par MiniMax, axé sur la résolution de tâches complexes du monde réel. Ses principaux atouts sont ses capacités de programmation multilingue et sa capacité à résoudre des tâches complexes en tant qu'Agent.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed : Même performance que M2.7 avec une inférence significativement plus rapide.",
"MiniMax-M2.7.description": "MiniMax M2.7 : Début du voyage vers l'amélioration récursive de soi, capacités d'ingénierie de pointe dans le monde réel.",
"MiniMax-M2.7.description": "Premier modèle autoévolutif doté de performances de pointe en codage et en capacités agentiques (~60 tps).",
"MiniMax-M2.description": "MiniMax M2 : Modèle de génération précédente.",
"MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusquà 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 est un modèle de raisonnement hybride à grande échelle avec des poids ouverts, comprenant 456 milliards de paramètres totaux et environ 45,9 milliards actifs par token. Il prend en charge nativement un contexte de 1 million et utilise Flash Attention pour réduire les FLOPs de 75 % sur une génération de 100 000 tokens par rapport à DeepSeek R1. Avec une architecture MoE, CISPO et un entraînement RL hybride-attention, il atteint des performances de pointe sur le raisonnement à long terme et les tâches d'ingénierie logicielle réelle.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 est le tout dernier et le plus puissant modèle Kimi K2. Il s'agit d'un modèle MoE de premier plan avec 1T de paramètres totaux et 32B de paramètres actifs. Ses principales caractéristiques incluent une intelligence de codage agentique renforcée avec des gains significatifs sur les benchmarks et les tâches d'agents réels, ainsi qu'une esthétique et une convivialité améliorées pour le codage en interface utilisateur.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo est la variante Turbo optimisée pour la vitesse de raisonnement et le débit, tout en conservant le raisonnement multi-étapes et l'utilisation d'outils de K2 Thinking. Il s'agit d'un modèle MoE avec environ 1T de paramètres totaux, un contexte natif de 256K, et un appel d'outils à grande échelle stable pour des scénarios de production nécessitant une faible latence et une forte concurrence.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 est un agent multimodal natif open source, basé sur Kimi-K2-Base, entraîné sur environ 1,5 billion de jetons mêlant vision et texte. Le modèle adopte une architecture MoE avec 1T de paramètres totaux et 32B de paramètres actifs, prenant en charge une fenêtre de contexte de 256K, intégrant harmonieusement les capacités de compréhension visuelle et linguistique.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 est un modèle phare de nouvelle génération conçu pour lingénierie agentique, utilisant une architecture Mixture of Experts (MoE) avec 754B paramètres. Il améliore considérablement les capacités de programmation, atteignant des résultats de premier plan sur SWE-Bench Pro, et surpasse largement son prédécesseur sur des benchmarks comme NL2Repo et Terminal-Bench 2.0. Conçu pour les tâches agentiques longues, il gère mieux les questions ambiguës, décompose les tâches complexes, exécute des expériences, analyse les résultats et optimise continuellement au fil de centaines ditérations et de milliers dappels doutils.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 est le modèle phare de nouvelle génération de Zhipu avec 355 milliards de paramètres totaux et 32 milliards actifs, entièrement amélioré en dialogue général, raisonnement et capacités d'agent. GLM-4.7 améliore la pensée entrelacée et introduit la pensée préservée et la pensée au niveau des tours.",
"Pro/zai-org/glm-5.description": "GLM-5 est le modèle de langage de nouvelle génération de Zhipu, axé sur l'ingénierie de systèmes complexes et les tâches d'Agent de longue durée. Les paramètres du modèle ont été étendus à 744 milliards (40 milliards actifs) et intègrent DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 est optimisé pour le raisonnement avancé et le suivi des instructions, utilisant MoE pour maintenir une efficacité de raisonnement à grande échelle.",
"Qwen3-235B.description": "Qwen3-235B-A22B est un modèle MoE qui introduit un mode de raisonnement hybride, permettant aux utilisateurs de basculer facilement entre réflexion et non-réflexion. Il prend en charge la compréhension et le raisonnement dans 119 langues et dialectes, et dispose de solides capacités d'appel d'outils, rivalisant avec des modèles de référence comme DeepSeek R1, OpenAI o1, o3-mini, Grok 3 et Google Gemini 2.5 Pro sur les benchmarks de capacités générales, code et mathématiques, multilinguisme et raisonnement par connaissances.",
"Qwen3-32B.description": "Qwen3-32B est un modèle dense qui introduit un mode de raisonnement hybride, permettant aux utilisateurs de basculer entre réflexion et non-réflexion. Grâce à des améliorations architecturales, davantage de données et un meilleur entraînement, il offre des performances comparables à Qwen2.5-72B.",
"Qwen3.5-Plus.description": "Qwen3.5 Plus prend en charge les entrées texte, image et vidéo. Ses performances sur les tâches purement textuelles sont comparables à celles de Qwen3 Max, avec de meilleurs résultats et un coût réduit. Ses capacités multimodales sont nettement améliorées par rapport à la série Qwen3 VL.",
"S2V-01.description": "Le modèle de base référence-vers-vidéo de la série 01.",
"SenseChat-128K.description": "Base V4 avec un contexte de 128K, excellent pour la compréhension et la génération de textes longs.",
"SenseChat-32K.description": "Base V4 avec un contexte de 32K, flexible pour de nombreux scénarios.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact dAnthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, avec une vitesse fulgurante et une réflexion étendue.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, offrant une vitesse fulgurante et un raisonnement étendu.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, avec une vitesse fulgurante et un raisonnement étendu.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le dernier modèle d'Anthropic, le plus performant pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant dAnthropic pour les tâches hautement complexes, excellant en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches hautement complexes, excellant en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
"claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d'Anthropic pour la création d'agents et le codage.",
"claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent dAnthropic pour la création dagents et le codage.",
"claude-opus-4.5.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant une intelligence de premier ordre avec des performances évolutives pour des tâches complexes et un raisonnement de haute qualité.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 est le modèle le plus intelligent dAnthropic pour la création dagents et le codage.",
"claude-opus-4.6.description": "Claude Opus 4.6 est le modèle le plus intelligent dAnthropic pour la création dagents et le codage.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d'Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un contrôle précis pour les utilisateurs d'API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et d'intelligence d'Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec processus visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent dAnthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 offre la meilleure combinaison entre vitesse et intelligence.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 est le modèle le plus intelligent dAnthropic à ce jour.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et dintelligence dAnthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape que les utilisateurs peuvent suivre. Les utilisateurs de lAPI peuvent contrôler finement la durée de réflexion du modèle.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle de raisonnement de nouvelle génération avec des capacités renforcées de raisonnement complexe et de chaîne de pensée.",
"deepseek-chat.description": "DeepSeek V3.2 équilibre le raisonnement et la longueur des sorties pour les tâches quotidiennes de questions-réponses et d'agents. Les benchmarks publics atteignent des niveaux comparables à GPT-5, et il est le premier à intégrer la réflexion dans l'utilisation des outils, menant les évaluations d'agents open source.",
"deepseek-chat.description": "Un nouveau modèle open source combinant compétences générales et capacités en codage. Il conserve les qualités de dialogue dun modèle de chat ainsi que la solidité du modèle de codage, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également lécriture et le suivi des instructions.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à léchelle du projet et un remplissage de fragments.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à léchelle de 671B et des réponses plus rapides.",
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant lapprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant les sorties pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Le mode réflexion de DeepSeek V3.2 génère une chaîne de raisonnement avant la réponse finale afin daméliorer la précision.",
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour lévaluation et les tests.",
"ernie-x1.1.description": "ERNIE X1.1 est un modèle de réflexion en aperçu pour évaluation et test.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension logique spatiale, une expression esthétique, une mise en page d'affiche et une conception de logo avec un rendu texte-image de haute précision.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images hautement contrôlable et de haute qualité à partir d'invites.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération dimages de ByteDance Seed, prenant en charge les entrées texte et image avec une génération dimages de haute qualité et fortement contrôlable. Il génère des images à partir dinstructions textuelles.",
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur lédition dimages, prenant en charge les entrées texte et image.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération dimages avec une préférence esthétique pour des images plus réalistes et naturelles.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération dimages.",
"fal-ai/imagen4/preview.description": "Modèle de génération dimages de haute qualité développé par Google.",
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages via la conversation.",
"fal-ai/qwen-image-edit.description": "Un modèle d'édition d'image professionnel de l'équipe Qwen, prenant en charge les modifications sémantiques et d'apparence, l'édition précise de texte en chinois/anglais, le transfert de style, la rotation et plus encore.",
"fal-ai/qwen-image.description": "Un modèle de génération d'image puissant de l'équipe Qwen avec un rendu texte chinois solide et des styles visuels variés.",
"fal-ai/qwen-image-edit.description": "Un modèle professionnel dédition dimages de léquipe Qwen qui prend en charge les modifications sémantiques et visuelles, édite précisément le texte chinois et anglais et permet des retouches de haute qualité telles que le transfert de style et la rotation dobjets.",
"fal-ai/qwen-image.description": "Un puissant modèle de génération dimages de léquipe Qwen, avec un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité dimage proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
"flux-dev.description": "Modèle open source de génération dimages destiné à la R&D, optimisé efficacement pour la recherche dinnovation non commerciale.",
"flux-kontext-max.description": "Génération et édition dimages contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
"flux-kontext-pro.description": "Génération et édition dimages contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
"flux-merged.description": "FLUX.1 [fusionné] combine les fonctionnalités approfondies explorées dans \"DEV\" avec les avantages de haute vitesse de \"Schnell\", repoussant les limites de performance et élargissant les applications.",
"flux-pro-1.1-ultra.description": "Génération dimages ultra haute résolution avec une sortie de 4MP, produisant des images nettes en 10 secondes.",
"flux-pro-1.1.description": "Modèle de génération dimages de niveau professionnel amélioré avec une excellente qualité dimage et un respect précis des invites.",
"flux-pro.description": "Modèle de génération dimages commercial haut de gamme avec une qualité dimage inégalée et des sorties variées.",
"flux-schnell.description": "FLUX.1 [schnell] est le modèle open source le plus avancé en génération rapide, surpassant les concurrents similaires et même des modèles non distillés puissants comme Midjourney v6.0 et DALL-E 3 (HD). Il est finement ajusté pour préserver la diversité de lentraînement initial, améliorant considérablement la qualité visuelle, le suivi des instructions, la variation de taille/aspect, la gestion des polices et la diversité des sorties.",
"flux.1-schnell.description": "FLUX.1-schnell est un modèle de génération dimages haute performance pour des sorties rapides et multi-styles.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre des performances stables et ajustables pour les tâches complexes.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) offre un support multimodal puissant pour les tâches complexes.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
"gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google qui prend également en charge le dialogue multimodal.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'image de Google et prend également en charge le chat multimodal.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération dimages de Google et prend également en charge la conversation multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d'images natif le plus rapide de Google avec prise en charge de la réflexion, génération et édition d'images conversationnelles.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image de niveau Pro à une vitesse Flash avec prise en charge du chat multimodal.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération dimages natif le plus rapide de Google, avec prise en charge du raisonnement, de la génération dimages conversationnelle et de lédition.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview est le modèle multimodal le plus économique de Google, optimisé pour les tâches agentiques à haut volume, la traduction et le traitement des données.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview améliore Gemini 3 Pro avec des capacités de raisonnement renforcées et ajoute un support de niveau de réflexion moyen.",
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "Notre modèle le plus puissant et avancé, conçu pour les tâches complexes en entreprise avec des performances exceptionnelles.",
"jamba-mini.description": "Le modèle le plus efficace de sa catégorie, alliant rapidité et qualité avec une empreinte réduite.",
"jina-deepsearch-v1.description": "DeepSearch combine la recherche web, la lecture et le raisonnement pour des investigations approfondies. Il agit comme un agent qui prend votre tâche de recherche, effectue des recherches étendues en plusieurs itérations, puis produit une réponse. Le processus implique une recherche continue, un raisonnement et une résolution de problèmes sous plusieurs angles, fondamentalement différent des LLM classiques qui répondent à partir de données préentraînées ou des systèmes RAG traditionnels basés sur une recherche superficielle en une seule étape.",
"k2p5.description": "Kimi K2.5 est le modèle le plus polyvalent de Kimi à ce jour, doté d'une architecture multimodale native qui prend en charge à la fois les entrées visuelles et textuelles, les modes 'réflexion' et 'non-réflexion', ainsi que les tâches conversationnelles et d'agent.",
"kimi-k2-0711-preview.description": "kimi-k2 est un modèle de base MoE avec de solides capacités en codage et en agents (1T de paramètres totaux, 32B actifs), surpassant les autres modèles open source courants en raisonnement, programmation, mathématiques et benchmarks dagents.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre une fenêtre de contexte de 256k, un codage agentique renforcé, une meilleure qualité de code front-end et une compréhension contextuelle améliorée.",
"kimi-k2-instruct.description": "Kimi K2 Instruct est le modèle officiel de raisonnement de Kimi, avec un long contexte pour le code, les questions-réponses et plus encore.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ est un modèle de raisonnement de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, il apporte des capacités de réflexion et de raisonnement qui améliorent considérablement les performances en aval, notamment sur les problèmes complexes. QwQ-32B est un modèle de raisonnement de taille moyenne qui rivalise avec les meilleurs modèles comme DeepSeek-R1 et o1-mini.",
"qwq_32b.description": "Modèle de raisonnement de taille moyenne de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, les capacités de réflexion et de raisonnement de QwQ améliorent considérablement les performances en aval, notamment sur les problèmes complexes.",
"r1-1776.description": "R1-1776 est une variante post-entraînée de DeepSeek R1 conçue pour fournir des informations factuelles non censurées et impartiales.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance prend en charge le texte-vers-vidéo, l'image-vers-vidéo (première image, première+dernière image) et la génération audio synchronisée avec les visuels.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite par BytePlus propose une génération augmentée par récupération web pour des informations en temps réel, une interprétation améliorée des invites complexes et une meilleure cohérence des références pour la création visuelle professionnelle.",
"solar-mini-ja.description": "Solar Mini (Ja) étend Solar Mini avec un accent sur le japonais tout en maintenant des performances efficaces et solides en anglais et en coréen.",
"solar-mini.description": "Solar Mini est un modèle LLM compact surpassant GPT-3.5, avec de solides capacités multilingues en anglais et en coréen, offrant une solution efficace à faible empreinte.",
"solar-pro.description": "Solar Pro est un LLM intelligent développé par Upstage, axé sur le suivi d'instructions sur un seul GPU, avec des scores IFEval supérieurs à 80. Il prend actuellement en charge l'anglais ; la version complète est prévue pour novembre 2024 avec un support linguistique élargi et un contexte plus long.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 est notre nouveau modèle puissant de génération multimédia, générant des vidéos avec audio synchronisé. Il peut créer des clips dynamiques et richement détaillés à partir de langage naturel ou d'images.",
"spark-x.description": "Aperçu des capacités X2 : 1. Introduit un ajustement dynamique du mode de raisonnement, contrôlé via le champ `thinking`. 2. Longueur de contexte étendue : 64K jetons d'entrée et 128K jetons de sortie. 3. Prend en charge la fonctionnalité Function Call.",
"stable-diffusion-3-medium.description": "Le dernier modèle texte-vers-image de Stability AI. Cette version améliore considérablement la qualité des images, la compréhension du texte et la diversité des styles, interprétant plus précisément les requêtes en langage naturel complexes.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applique la distillation par diffusion adversariale (ADD) à stable-diffusion-3.5-large pour une vitesse accrue.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large est un modèle texte-vers-image MMDiT de 800M paramètres avec une excellente qualité et un bon alignement des requêtes, prenant en charge des images de 1 mégapixel et fonctionnant efficacement sur du matériel grand public.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 est initialisé à partir du point de contrôle v1.2 et affiné pendant 595k étapes sur \"laion-aesthetics v2 5+\" à une résolution de 512x512, réduisant le conditionnement textuel de 10 % pour améliorer l'échantillonnage sans classificateur.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo se concentre sur la génération dimages haute qualité avec un rendu précis des détails et une grande fidélité des scènes.",
"stable-diffusion-xl-base-1.0.description": "Un modèle texte-vers-image open source de Stability AI avec une génération d'images créative de pointe. Il comprend bien les instructions et prend en charge les définitions de requêtes inversées pour une génération précise.",
"stable-diffusion-xl.description": "stable-diffusion-xl apporte des améliorations majeures par rapport à la v1.5 et rivalise avec les meilleurs modèles texte-vers-image open source. Les améliorations incluent un UNet 3x plus grand, un module de raffinement pour une meilleure qualité d'image et des techniques d'entraînement plus efficaces.",
"step-1-128k.description": "Équilibre entre performance et coût pour des scénarios généraux.",
"step-1-256k.description": "Gestion de contexte extra-long, idéale pour lanalyse de documents longs.",
"step-1-32k.description": "Prend en charge des conversations de longueur moyenne pour divers scénarios.",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} paramètres au total",
"arguments.title": "Arguments",
"builtins.lobe-activator.apiName.activateTools": "Activer les Outils",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} introuvable(s)",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtenir les modèles disponibles",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtenir les Compétences disponibles",
"builtins.lobe-agent-builder.apiName.getConfig": "Obtenir la configuration",

View file

@ -33,7 +33,6 @@
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
"kimicodingplan.description": "Kimi Code de Moonshot AI offre un accès aux modèles Kimi, y compris K2.5, pour des tâches de codage.",
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
"lobehub.description": "LobeHub Cloud utilise des API officielles pour accéder aux modèles d'IA et mesure l'utilisation avec des Crédits liés aux jetons des modèles.",
"longcat.description": "LongCat est une série de grands modèles d'IA générative développés indépendamment par Meituan. Elle est conçue pour améliorer la productivité interne de l'entreprise et permettre des applications innovantes grâce à une architecture informatique efficace et de puissantes capacités multimodales.",
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
"minimaxcodingplan.description": "Le plan de jetons MiniMax offre un accès aux modèles MiniMax, y compris M2.7, pour des tâches de codage via un abonnement à tarif fixe.",
@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark propose une IA multilingue puissante dans divers domaines, favorisant linnovation dans le matériel intelligent, la santé, la finance et dautres secteurs.",
"stepfun.description": "Les modèles Stepfun offrent des capacités de raisonnement complexe et multimodal de pointe, avec une compréhension approfondie du contexte long et une orchestration autonome puissante de la recherche.",
"straico.description": "Straico simplifie l'intégration de l'IA en offrant un espace de travail unifié qui regroupe les meilleurs modèles génératifs d'IA pour le texte, l'image et l'audio, permettant aux marketeurs, entrepreneurs et passionnés d'accéder facilement à une variété d'outils d'IA.",
"streamlake.description": "StreamLake est une plateforme de services de modèles et de cloud de calcul IA de niveau entreprise, intégrant une inférence de modèles haute performance, une personnalisation de modèles à faible coût et des services entièrement gérés pour aider les entreprises à se concentrer sur linnovation des applications dIA sans se soucier de la complexité ni du coût des ressources de calcul sous-jacentes.",
"taichu.description": "Un modèle multimodal de nouvelle génération développé par le CASIA et lInstitut dIA de Wuhan, prenant en charge les questions-réponses multi-tours, la rédaction, la génération dimages, la compréhension 3D et lanalyse de signaux avec une cognition et une créativité renforcées.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fournit des réponses aux questions dentreprise de bout en bout, avec des services modulaires comme lanalyse de documents, le découpage, les embeddings et la réécriture multi-tours pour créer des solutions IA personnalisées.",
"togetherai.description": "Together AI offre des performances de pointe avec des modèles innovants, une personnalisation étendue, une montée en charge rapide et un déploiement simplifié pour les besoins des entreprises.",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "Outils système",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - outil de recherche de code rapide",
"settingSystemTools.tools.agentBrowser.desc": "Agent-navigateur - CLI d'automatisation de navigateur sans interface pour les agents IA",
"settingSystemTools.tools.bun.desc": "Bun - environnement dexécution JavaScript rapide et gestionnaire de packages",
"settingSystemTools.tools.bunx.desc": "bunx - exécuteur de packages Bun pour lancer des packages npm",
"settingSystemTools.tools.fd.desc": "fd - alternative rapide et conviviale à find",
"settingSystemTools.tools.find.desc": "find d'Unix - commande standard de recherche de fichiers",
"settingSystemTools.tools.grep.desc": "GNU grep - outil standard de recherche de texte",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - gérer et connecter les services LobeHub",
"settingSystemTools.tools.mdfind.desc": "Recherche Spotlight de macOS (recherche indexée rapide)",
"settingSystemTools.tools.node.desc": "Node.js - environnement d'exécution JavaScript pour JS/TS",
"settingSystemTools.tools.npm.desc": "npm - gestionnaire de paquets Node.js pour installer les dépendances",
"settingSystemTools.tools.pnpm.desc": "pnpm - gestionnaire de packages rapide et économique en espace disque",
"settingSystemTools.tools.python.desc": "Python - environnement d'exécution du langage de programmation",
"settingSystemTools.tools.rg.desc": "ripgrep - outil de recherche de texte extrêmement rapide",
"settingSystemTools.tools.uv.desc": "uv - gestionnaire de packages Python extrêmement rapide",
"settingTTS.openai.sttModel": "Modèle de reconnaissance vocale OpenAI",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Modèle de synthèse vocale OpenAI",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modèle",
"systemAgent.inputCompletion.modelDesc": "Modèle utilisé pour les suggestions d'auto-complétion de saisie (comme le texte fantôme de GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agent d'Auto-Complétion de Saisie",
"systemAgent.promptRewrite.label": "Modèle",
"systemAgent.promptRewrite.modelDesc": "Spécifiez le modèle utilisé pour réécrire les invites",
"systemAgent.promptRewrite.title": "Agent de Réécriture dInvites",
"systemAgent.queryRewrite.label": "Modèle",
"systemAgent.queryRewrite.modelDesc": "Modèle utilisé pour optimiser les requêtes des utilisateurs",
"systemAgent.queryRewrite.title": "Agent de réécriture de requêtes",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Téléchargez un fichier local .zip ou .skill",
"tab.usage": "Statistiques dutilisation",
"tools.add": "Ajouter une compétence",
"tools.builtins.find-skills.description": "Aide les utilisateurs à découvrir et installer des compétences dagent lorsquils demandent « comment faire X », « trouver une compétence pour X », ou souhaitent étendre les capacités",
"tools.builtins.find-skills.title": "Trouver des Compétences",
"tools.builtins.groupName": "Fonctionnalités intégrées",
"tools.builtins.install": "Installer",
"tools.builtins.installed": "Installé",
"tools.builtins.lobe-activator.description": "Découvrir et activer des outils et compétences",
"tools.builtins.lobe-activator.title": "Activateur dOutils et Compétences",
"tools.builtins.lobe-agent-browser.description": "CLI dautomatisation de navigateur pour agents IA. À utiliser pour les tâches impliquant linteraction avec des sites web ou Electron : navigation, formulaires, clics, captures décran, extraction de données, connexions et tests de bout en bout.",
"tools.builtins.lobe-agent-browser.title": "Navigateur dAgent",
"tools.builtins.lobe-agent-builder.description": "Configurer les métadonnées de lagent, les paramètres du modèle, les plugins et linvite système",
"tools.builtins.lobe-agent-builder.title": "Générateur dAgent",
"tools.builtins.lobe-agent-documents.description": "Gérer les documents propres à lagent (lister, créer, lire, modifier, supprimer, renommer) et leurs règles de chargement",
"tools.builtins.lobe-agent-documents.title": "Documents",
"tools.builtins.lobe-agent-management.description": "Créer, gérer et orchestrer des agents IA",
"tools.builtins.lobe-agent-management.title": "Gestion dAgents",
"tools.builtins.lobe-artifacts.description": "Générez et prévisualisez en direct des composants d'interface interactifs, des visualisations de données, des graphiques, des illustrations SVG et des applications web. Créez du contenu visuel riche avec lequel les utilisateurs peuvent interagir directement.",
"tools.builtins.lobe-artifacts.readme": "Générez et prévisualisez en direct des composants d'interface utilisateur interactifs, des visualisations de données, des graphiques, des illustrations SVG et des applications web. Créez du contenu visuel riche avec lequel les utilisateurs peuvent interagir directement.",
"tools.builtins.lobe-artifacts.title": "Artefacts",
"tools.builtins.lobe-brief.description": "Rapporter la progression, fournir les résultats et demander des décisions à lutilisateur",
"tools.builtins.lobe-brief.title": "Outils de Brief",
"tools.builtins.lobe-calculator.description": "Effectuez des calculs mathématiques, résolvez des équations et travaillez avec des expressions symboliques",
"tools.builtins.lobe-calculator.readme": "Calculatrice mathématique avancée prenant en charge l'arithmétique de base, les équations algébriques, les opérations de calcul et les mathématiques symboliques. Inclut la conversion de base, la résolution d'équations, la différentiation, l'intégration et plus encore.",
"tools.builtins.lobe-calculator.title": "Calculatrice",
"tools.builtins.lobe-cloud-sandbox.description": "Exécutez du code Python, JavaScript et TypeScript dans un environnement cloud isolé. Lancez des commandes shell, gérez des fichiers, recherchez du contenu avec des expressions régulières et exportez les résultats en toute sécurité.",
"tools.builtins.lobe-cloud-sandbox.readme": "Exécutez du code Python, JavaScript et TypeScript dans un environnement cloud isolé. Lancez des commandes shell, gérez des fichiers, effectuez des recherches avec des expressions régulières et exportez les résultats en toute sécurité.",
"tools.builtins.lobe-cloud-sandbox.title": "Bac à sable cloud",
"tools.builtins.lobe-creds.description": "Gérer les identifiants utilisateur pour lauthentification, linjection de variables denvironnement et la vérification dAPI — gérer clés API, jetons OAuth et secrets pour intégrations tierces.",
"tools.builtins.lobe-creds.title": "Identifiants",
"tools.builtins.lobe-cron.description": "Gérer les tâches programmées exécutées automatiquement à des moments définis. Créer, modifier, activer/désactiver et surveiller les tâches récurrentes des agents.",
"tools.builtins.lobe-cron.title": "Tâches Programmées",
"tools.builtins.lobe-group-agent-builder.description": "Configurer les métadonnées du groupe, les membres et le contenu partagé pour les groupes multi-agents",
"tools.builtins.lobe-group-agent-builder.title": "Générateur de Groupe dAgents",
"tools.builtins.lobe-group-management.description": "Orchestrer et gérer les conversations de groupes multi-agents",
"tools.builtins.lobe-group-management.title": "Gestion de Groupe",
"tools.builtins.lobe-gtd.description": "Planifiez des objectifs et suivez les progrès en utilisant la méthode GTD. Créez des plans stratégiques, gérez des listes de tâches avec suivi de statut et exécutez des tâches asynchrones de longue durée.",
"tools.builtins.lobe-gtd.readme": "Planifiez vos objectifs et suivez vos progrès grâce à la méthode GTD. Créez des plans stratégiques, gérez des listes de tâches avec suivi de statut et exécutez des tâches asynchrones de longue durée.",
"tools.builtins.lobe-gtd.title": "Outils GTD",
"tools.builtins.lobe-knowledge-base.description": "Rechercher dans les documents importés et la base de connaissances via la recherche vectorielle sémantique — pour une référence persistante et réutilisable",
"tools.builtins.lobe-knowledge-base.title": "Base de Connaissances",
"tools.builtins.lobe-local-system.description": "Accédez à votre système de fichiers local sur ordinateur. Lisez, écrivez, recherchez et organisez des fichiers. Exécutez des commandes shell avec prise en charge des tâches en arrière-plan et recherchez du contenu avec des motifs regex.",
"tools.builtins.lobe-local-system.readme": "Accédez à votre système de fichiers local sur ordinateur. Lisez, écrivez, recherchez et organisez vos fichiers. Exécutez des commandes shell avec prise en charge des tâches en arrière-plan et recherchez du contenu avec des motifs regex.",
"tools.builtins.lobe-local-system.title": "Système local",
"tools.builtins.lobe-message.description": "Envoyer, lire, modifier et gérer des messages sur plusieurs plateformes de messagerie via une interface unifiée",
"tools.builtins.lobe-message.readme": "Outil de messagerie multiplateforme prenant en charge Discord, Telegram, Slack, Google Chat et IRC. Fournit des API unifiées pour les opérations de message, réactions, épingles, fils, gestion de canaux et fonctionnalités spécifiques comme les sondages.",
"tools.builtins.lobe-message.title": "Message",
"tools.builtins.lobe-notebook.description": "Créez et gérez des documents persistants dans le cadre de conversations. Enregistrez des notes, rapports, articles et contenus markdown accessibles à tout moment.",
"tools.builtins.lobe-notebook.readme": "Créez et gérez des documents persistants dans le cadre de vos conversations. Enregistrez des notes, rapports, articles et contenus en markdown accessibles à tout moment.",
"tools.builtins.lobe-notebook.title": "Carnet",
"tools.builtins.lobe-page-agent.description": "Créer, lire, mettre à jour et supprimer des nœuds dans des documents structurés en XML",
"tools.builtins.lobe-page-agent.readme": "Créer et éditer des documents structurés avec un contrôle précis au niveau des nœuds. Initialiser depuis du Markdown, effectuer des opérations dinsertion/modification/suppression en masse et rechercher/remplacer du texte.",
"tools.builtins.lobe-page-agent.title": "Document",
"tools.builtins.lobe-remote-device.description": "Découvrir et gérer les connexions aux appareils de bureau distants",
"tools.builtins.lobe-remote-device.readme": "Gérer les connexions à vos appareils de bureau. Lister les appareils en ligne, en activer un pour les opérations à distance et vérifier létat de connexion.",
"tools.builtins.lobe-remote-device.title": "Appareil Distant",
"tools.builtins.lobe-skill-store.description": "Parcourir et installer des compétences dagent depuis la marketplace LobeHub. À utiliser pour étendre les capacités ou installer une compétence spécifique.",
"tools.builtins.lobe-skill-store.title": "Boutique de Compétences",
"tools.builtins.lobe-skills.description": "Activer et utiliser des packages de compétences réutilisables",
"tools.builtins.lobe-skills.title": "Compétences",
"tools.builtins.lobe-task.description": "Créer, lister, modifier et supprimer des tâches avec dépendances et configuration de révision",
"tools.builtins.lobe-task.title": "Outils de Tâches",
"tools.builtins.lobe-topic-reference.description": "Récupérer le contexte depuis des conversations de sujets référencés",
"tools.builtins.lobe-topic-reference.title": "Référence de Sujet",
"tools.builtins.lobe-user-interaction.description": "Poser des questions aux utilisateurs via des interactions dinterface et observer leurs résultats",
"tools.builtins.lobe-user-interaction.title": "Interaction Utilisateur",
"tools.builtins.lobe-user-memory.description": "Créez une base de connaissances personnalisée à votre sujet. Mémorisez vos préférences, suivez vos activités et expériences, stockez des informations d'identité et retrouvez le contexte pertinent dans de futures conversations.",
"tools.builtins.lobe-user-memory.readme": "Créez une base de connaissances personnalisée à votre sujet. Mémorisez vos préférences, suivez vos activités et expériences, stockez des informations d'identité et retrouvez le contexte pertinent lors de futures conversations.",
"tools.builtins.lobe-user-memory.title": "Mémoire",
"tools.builtins.lobe-web-browsing.description": "Rechercher des informations à jour sur le web et explorer des pages pour en extraire du contenu. Prend en charge plusieurs moteurs de recherche, catégories et plages temporelles.",
"tools.builtins.lobe-web-browsing.readme": "Rechercher des informations à jour sur le web et explorer des pages pour en extraire du contenu. Prise en charge de plusieurs moteurs de recherche, catégories et plages temporelles pour une recherche complète.",
"tools.builtins.lobe-web-browsing.title": "Navigation Web",
"tools.builtins.lobe-web-onboarding.description": "Gérer le flux donboarding web avec un environnement contrôlé pour lagent",
"tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
"tools.builtins.lobehub.description": "Gérer la plateforme LobeHub via CLI — bases de connaissances, mémoire, agents, fichiers, recherche, génération et plus encore.",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Non installé",
"tools.builtins.task.description": "Gestion et exécution de tâches — créer, suivre, réviser et accomplir des tâches via CLI.",
"tools.builtins.task.title": "Tâche",
"tools.builtins.uninstall": "Désinstaller",
"tools.builtins.uninstallConfirm.desc": "Êtes-vous sûr de vouloir désinstaller {{name}} ? Cette compétence sera supprimée de l'agent actuel.",
"tools.builtins.uninstallConfirm.title": "Désinstaller {{name}}",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Déconnecter {{name}} ?",
"tools.lobehubSkill.disconnected": "Déconnecté",
"tools.lobehubSkill.error": "Erreur",
"tools.lobehubSkill.providers.github.description": "GitHub est une plateforme de gestion de versions et de collaboration permettant dhéberger, réviser et gérer des dépôts de code.",
"tools.lobehubSkill.providers.github.readme": "Connectez GitHub pour accéder à vos dépôts, créer et gérer des tickets, réviser des pull requests et collaborer sur le code — le tout par conversation naturelle avec votre assistant IA.",
"tools.lobehubSkill.providers.linear.description": "Linear est un outil moderne de suivi des problèmes et de gestion de projet conçu pour les équipes performantes afin de créer de meilleurs logiciels plus rapidement",
"tools.lobehubSkill.providers.linear.readme": "Profitez de la puissance de Linear directement dans votre assistant IA. Créez et mettez à jour des tickets, gérez les sprints, suivez l'avancement des projets et optimisez votre flux de développement — le tout via une conversation naturelle.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar est un outil de planification intégré à Microsoft Outlook qui permet aux utilisateurs de créer des rendez-vous, organiser des réunions et gérer efficacement leur temps et leurs événements.",
"tools.lobehubSkill.providers.microsoft.readme": "Intégrez Outlook Calendar pour consulter, créer et gérer vos événements en toute fluidité. Planifiez des réunions, vérifiez les disponibilités, définissez des rappels et organisez votre emploi du temps via des commandes en langage naturel.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) est une plateforme de médias sociaux permettant de partager des mises à jour en temps réel, des actualités et dinteragir avec votre audience via des publications, des réponses et des messages directs.",
"tools.lobehubSkill.providers.twitter.readme": "Connectez-vous à X (Twitter) pour publier des tweets, gérer votre fil dactualité et interagir avec votre audience. Créez du contenu, planifiez des publications, surveillez les mentions et développez votre présence sur les réseaux sociaux via lIA conversationnelle.",
"tools.lobehubSkill.providers.vercel.description": "Vercel est une plateforme cloud pour les développeurs front-end, offrant hébergement et fonctions serverless pour déployer facilement des applications web.",
"tools.lobehubSkill.providers.vercel.readme": "Connectez Vercel pour gérer vos déploiements, surveiller létat des projets et contrôler votre infrastructure. Déployez des applications, consultez les journaux de build, gérez les variables denvironnement et faites évoluer vos projets via une IA conversationnelle.",
"tools.notInstalled": "Non installé",
"tools.notInstalledWarning": "Cette compétence nest pas installée actuellement, ce qui peut affecter le fonctionnement de lagent.",
"tools.plugins.enabled": "Activées : {{num}}",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Passer à",
"credits.topUp.upgradeSuffix": "pour économiser ${{savings}}",
"credits.topUp.validityInfo": "Validité de {{months}} mois",
"crossPlatform.desc": "Cet abonnement a été acheté via l'application mobile et ne peut pas être modifié ici. Veuillez gérer votre abonnement sur votre appareil mobile.",
"crossPlatform.manageOnMobile": "Gérer sur l'appareil mobile",
"crossPlatform.title": "Abonnement Multi-Plateforme",
"currentPlan.cancelAlert": "L'abonnement sera annulé après le {{canceledAt}}. Vous pouvez encore le réactiver dans « Gérer l'abonnement » d'ici là",
"currentPlan.downgradeAlert": "Sera rétrogradé au forfait {{plan}} après le {{downgradedAt}}.",
"currentPlan.management": "Gérer l'abonnement",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "Image de début",
"config.prompt.placeholder": "Décrivez la vidéo que vous souhaitez générer",
"config.prompt.placeholderWithRef": "Décrivez la scène que vous souhaitez générer avec l'image",
"config.promptExtend.label": "Extension de linvite",
"config.referenceImage.label": "Image de référence",
"config.resolution.label": "Résolution",
"config.seed.label": "Graine",
"config.seed.random": "Aléatoire",
"config.size.label": "Taille",
"config.watermark.label": "Filigrane",
"config.webSearch.label": "Recherche web",
"generation.actions.copyError": "Copier le message d'erreur",
"generation.actions.errorCopied": "Message d'erreur copié dans le presse-papiers",
"generation.actions.errorCopyFailed": "Échec de la copie du message d'erreur",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "Bot connesso con successo",
"channel.connecting": "Connessione in corso...",
"channel.connectionConfig": "Configurazione Connessione",
"channel.connectionMode": "Modalità di connessione",
"channel.connectionModeHint": "Si consiglia WebSocket per i nuovi bot. Usa Webhook se il tuo bot ha già un URL di callback configurato sulla Piattaforma Open di QQ.",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "Copiato negli appunti",
"channel.copy": "Copia",
"channel.credentials": "Credenziali",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "Copia questo URL e incollalo nel campo <bold>{{fieldName}}</bold> nel Portale Sviluppatori di {{name}}.",
"channel.exportConfig": "Esporta configurazione",
"channel.feishu.description": "Connetti questo assistente a Feishu per chat private e di gruppo.",
"channel.feishu.webhookMigrationDesc": "La modalità WebSocket offre la consegna in tempo reale degli eventi senza la necessità di un URL pubblico di callback. Per eseguire la migrazione, passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate. Non è necessaria alcuna configurazione aggiuntiva sulla Piattaforma Open di Feishu/Lark.",
"channel.feishu.webhookMigrationTitle": "Valuta la migrazione alla modalità WebSocket",
"channel.historyLimit": "Limite dei messaggi nella cronologia",
"channel.historyLimitHint": "Numero predefinito di messaggi da recuperare quando si legge la cronologia del canale",
"channel.importConfig": "Importa configurazione",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "Richiesta per la verifica delle interazioni",
"channel.qq.appIdHint": "Il tuo ID App Bot QQ dalla Piattaforma Aperta QQ",
"channel.qq.description": "Collega questo assistente a QQ per chat di gruppo e messaggi diretti.",
"channel.qq.webhookMigrationDesc": "La modalità WebSocket offre la consegna in tempo reale degli eventi e la riconnessione automatica senza la necessità di un URL di callback. Per eseguire la migrazione, crea un nuovo bot sulla Piattaforma Open di QQ senza configurare un URL di callback, quindi passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate.",
"channel.qq.webhookMigrationTitle": "Valuta la migrazione alla modalità WebSocket",
"channel.removeChannel": "Rimuovi Canale",
"channel.removeFailed": "Impossibile rimuovere il canale",
"channel.removed": "Canale rimosso",
@ -93,7 +101,11 @@
"channel.signingSecret": "Segreto di firma",
"channel.signingSecretHint": "Utilizzato per verificare le richieste webhook.",
"channel.slack.appIdHint": "Il tuo ID app Slack dal dashboard API di Slack (inizia con A).",
"channel.slack.appToken": "Token a livello di app",
"channel.slack.appTokenHint": "Richiesto per la Socket Mode (WebSocket). Genera un token a livello di app (xapp-...) nella sezione Informazioni di base delle impostazioni della tua app Slack.",
"channel.slack.description": "Connetti questo assistente a Slack per conversazioni nei canali e messaggi diretti.",
"channel.slack.webhookMigrationDesc": "La Socket Mode fornisce la consegna in tempo reale degli eventi tramite WebSocket senza esporre un endpoint HTTP pubblico. Per eseguire la migrazione, abilita la Socket Mode nelle impostazioni della tua app Slack, genera un token a livello di app, quindi passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate.",
"channel.slack.webhookMigrationTitle": "Valuta la migrazione alla Socket Mode (WebSocket)",
"channel.telegram.description": "Connetti questo assistente a Telegram per chat private e di gruppo.",
"channel.testConnection": "Test Connessione",
"channel.testFailed": "Test di connessione fallito",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "Gruppo eliminato con successo",
"confirmRemoveSessionItemAlert": "Stai per eliminare questo agente. Una volta eliminato, non potrà essere recuperato. Confermi l'operazione?",
"confirmRemoveSessionSuccess": "Agente eliminato con successo",
"createModal.createBlank": "Crea vuoto",
"createModal.groupPlaceholder": "Descrivi cosa dovrebbe fare questo gruppo...",
"createModal.groupTitle": "Cosa dovrebbe fare il tuo gruppo?",
"createModal.placeholder": "Descrivi cosa dovrebbe fare il tuo agente...",
"createModal.title": "Cosa dovrebbe fare il tuo agente?",
"defaultAgent": "Agente predefinito",
"defaultGroupChat": "Gruppo",
"defaultList": "Elenco predefinito",
@ -229,6 +234,7 @@
"operation.contextCompression": "Contesto troppo lungo, compressione della cronologia in corso...",
"operation.execAgentRuntime": "Preparazione della risposta",
"operation.execClientTask": "Esecuzione attività",
"operation.execServerAgentRuntime": "In esecuzione… Puoi cambiare attività o chiudere la pagina: lattività continuerà.",
"operation.sendMessage": "Invio del messaggio",
"owner": "Proprietario del gruppo",
"pageCopilot.title": "Agente di pagina",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "Recupero dei dettagli in corso...",
"task.status.initializing": "Inizializzazione attività...",
"task.subtask": "Sottocompito",
"task.title": "Attività",
"thread.divider": "Sottotema",
"thread.threadMessageCount": "{{messageCount}} messaggi",
"thread.title": "Sottotema",
@ -429,9 +436,11 @@
"toolAuth.title": "Autorizza le Skill per questo agente",
"topic.checkOpenNewTopic": "Iniziare un nuovo argomento?",
"topic.checkSaveCurrentMessages": "Vuoi salvare la conversazione corrente come argomento?",
"topic.defaultTitle": "Argomento senza titolo",
"topic.openNewTopic": "Apri nuovo argomento",
"topic.recent": "Argomenti recenti",
"topic.saveCurrentMessages": "Salva sessione corrente come argomento",
"topic.viewAll": "Vedi tutti gli argomenti",
"translate.action": "Traduci",
"translate.clear": "Cancella traduzione",
"tts.action": "Sintesi vocale",

View file

@ -343,10 +343,19 @@
"mail.support": "Supporto via email",
"more": "Altro",
"navPanel.agent": "Agente",
"navPanel.customizeSidebar": "Personalizza barra laterale",
"navPanel.displayItems": "Elementi visualizzati",
"navPanel.hidden": "Nascosto",
"navPanel.hideSection": "Nascondi sezione",
"navPanel.library": "Libreria",
"navPanel.moveDown": "Sposta giù",
"navPanel.moveUp": "Sposta su",
"navPanel.pinned": "In evidenza",
"navPanel.searchAgent": "Cerca agente...",
"navPanel.searchRecent": "Cerca recenti...",
"navPanel.searchResultEmpty": "Nessun risultato trovato",
"navPanel.show": "Mostra",
"navPanel.visible": "Visibile",
"new": "Nuovo",
"noContent": "Nessun contenuto",
"oauth": "Accesso SSO",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "Sostienici",
"productHunt.description": "Sostienici su Product Hunt. Il tuo supporto è molto importante per noi!",
"productHunt.title": "Siamo su Product Hunt!",
"promptTransform.action": "Affina idea",
"promptTransform.actions.rewrite": "Amplia dettagli",
"promptTransform.actions.translate": "Traduci",
"promptTransform.status.rewrite": "Ampliamento dei dettagli...",
"promptTransform.status.translate": "Traduzione in corso...",
"recents": "Recenti",
"regenerate": "Rigenera",
"releaseNotes": "Dettagli versione",
"rename": "Rinomina",
@ -400,6 +415,7 @@
"tab.audio": "Audio",
"tab.chat": "Chat",
"tab.community": "Comunità",
"tab.create": "Crea",
"tab.discover": "Scopri",
"tab.eval": "Laboratorio di Valutazione",
"tab.files": "File",

View file

@ -12,6 +12,7 @@
"config.model.label": "Modello",
"config.prompt.placeholder": "Descrivi cosa vuoi generare",
"config.prompt.placeholderWithRef": "Descrivi come desideri modificare l'immagine",
"config.promptExtend.label": "Estensione Prompt",
"config.quality.label": "Qualità immagine",
"config.quality.options.hd": "Alta definizione",
"config.quality.options.standard": "Standard",
@ -24,6 +25,8 @@
"config.size.label": "Dimensione",
"config.steps.label": "Passaggi",
"config.title": "Configurazione",
"config.watermark.label": "Filigrana",
"config.webSearch.label": "Ricerca Web",
"config.width.label": "Larghezza",
"generation.actions.applySeed": "Applica seed",
"generation.actions.copyError": "Copia messaggio di errore",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "Raggruppa i messaggi dell'agente e i risultati delle chiamate agli strumenti per una visualizzazione unificata",
"features.assistantMessageGroup.title": "Raggruppamento Messaggi Agente",
"features.gatewayMode.desc": "Esegui le attività dellagente sul server tramite Gateway WebSocket invece di eseguirle in locale. Consente unesecuzione più rapida e riduce lutilizzo delle risorse del client.",
"features.gatewayMode.title": "Esecuzione dellAgente Lato Server (Gateway)",
"features.groupChat.desc": "Abilita il coordinamento della chat di gruppo con più agenti.",
"features.groupChat.title": "Chat di Gruppo (Multi-Agente)",
"features.inputMarkdown.desc": "Visualizza in tempo reale il Markdown nell'area di input (testo in grassetto, blocchi di codice, tabelle, ecc.).",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "Modello di punta in Cina, supera i principali modelli esteri nei compiti in lingua cinese come conoscenza, testi lunghi e generazione creativa. Presenta anche capacità multimodali all'avanguardia con risultati eccellenti nei benchmark autorevoli.",
"Baichuan4.description": "Prestazioni nazionali al top, superiori ai principali modelli esteri nei compiti in lingua cinese come conoscenza enciclopedica, testi lunghi e generazione creativa. Offre anche capacità multimodali all'avanguardia e risultati eccellenti nei benchmark.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS è una famiglia di LLM open-source di ByteDance Seed, progettata per una gestione efficace di contesti lunghi, ragionamento, agenti e capacità generali. Seed-OSS-36B-Instruct è un modello da 36B ottimizzato per istruzioni, con contesto ultra-lungo nativo per elaborare documenti o basi di codice estesi. Ottimizzato per ragionamento, generazione di codice e compiti agentici (uso di strumenti), mantiene forti capacità generali. Una caratteristica chiave è il \"Thinking Budget\", che consente una lunghezza di ragionamento flessibile per migliorare l'efficienza.",
"DeepSeek-OCR.description": "DeepSeek-OCR è un modello visione-linguaggio sviluppato da DeepSeek AI, focalizzato sullOCR e sulla “compressione ottica del contesto”. Esplora tecniche per comprimere il contesto proveniente dalle immagini, elabora documenti in modo efficiente e li converte in testo strutturato (ad esempio in Markdown). Riconosce accuratamente il testo nelle immagini ed è ideale per la digitalizzazione dei documenti, lestrazione del testo e lelaborazione strutturata.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, il modello più grande e intelligente della suite DeepSeek, è stato distillato nell'architettura Llama 70B. I benchmark e le valutazioni umane dimostrano che è più intelligente del Llama 70B base, in particolare nei compiti di matematica e precisione dei fatti.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Un modello distillato DeepSeek-R1 basato su Qwen2.5-Math-1.5B. L'apprendimento per rinforzo e i dati di avvio a freddo ottimizzano le prestazioni di ragionamento, stabilendo nuovi benchmark multi-task per i modelli open-source.",
"DeepSeek-R1-Distill-Qwen-14B.description": "I modelli DeepSeek-R1-Distill sono ottimizzati a partire da modelli open-source utilizzando dati campione generati da DeepSeek-R1.",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "Fornitore: sophnet. DeepSeek V3 Fast è la versione ad alta velocità di DeepSeek V3 0324, a precisione completa (non quantizzata), con prestazioni superiori in programmazione e matematica e risposte più rapide.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast è la variante veloce ad alta velocità di DeepSeek V3.1. Modalità di pensiero ibrida: tramite template di chat, un solo modello supporta modalità con e senza pensiero. Uso più intelligente degli strumenti: il post-addestramento migliora le prestazioni nei compiti agentici e nell'uso degli strumenti.",
"DeepSeek-V3.1-Think.description": "Modalità di pensiero DeepSeek-V3.1: un nuovo modello di ragionamento ibrido con modalità di pensiero e non-pensiero, più efficiente di DeepSeek-R1-0528. Le ottimizzazioni post-addestramento migliorano significativamente l'uso degli strumenti agentici e le prestazioni nei compiti agentici.",
"DeepSeek-V3.2.description": "deepseek-v3.2 introduce un meccanismo di attenzione sparsa, progettato per migliorare lefficienza delladdestramento e dellinferenza nel trattamento di testi lunghi, offrendo un costo inferiore rispetto a deepseek-v3.1.",
"DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE sviluppato da DeepSeek. Supera altri modelli open-source come Qwen2.5-72B e Llama-3.1-405B in molti benchmark ed è competitivo con i principali modelli chiusi come GPT-4o e Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite offre risposte ultra-rapide e un ottimo rapporto qualità/prezzo, con opzioni flessibili per diversi scenari. Supporta un contesto di 128K per inferenza e fine-tuning.",
"Doubao-lite-32k.description": "Doubao-lite offre risposte ultra-rapide e un ottimo rapporto qualità/prezzo, con opzioni flessibili per diversi scenari. Supporta un contesto di 32K per inferenza e fine-tuning.",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: Modello ad alte prestazioni per ragionamento, programmazione e attività agentiche.",
"GLM-4.6.description": "GLM-4.6: Modello della generazione precedente.",
"GLM-4.7.description": "GLM-4.7 è il modello di punta più recente di Zhipu, ottimizzato per scenari di programmazione agentica con capacità di codifica migliorate, pianificazione di compiti a lungo termine e collaborazione con strumenti.",
"GLM-5-Turbo.description": "GLM-5-Turbo: Versione ottimizzata di GLM-5 con inferenza più veloce per attività di programmazione.",
"GLM-5-Turbo.description": "GLM-5-Turbo è un modello di base ottimizzato in profondità per scenari agentici. È stato affinato fin dalla fase di addestramento per soddisfare i requisiti fondamentali dei task degli agenti, migliorando capacità chiave come linvocazione di strumenti, lesecuzione di comandi e i processi complessi a catena. È ideale per creare assistenti agentici ad alte prestazioni.",
"GLM-5.1.description": "GLM-5.1 è il modello di punta più recente di Zhipu, un'iterazione migliorata di GLM-5 con capacità ingegneristiche agentiche avanzate per l'ingegneria di sistemi complessi e compiti a lungo termine.",
"GLM-5.description": "GLM-5 è il modello di base di nuova generazione di Zhipu, progettato per l'Ingegneria Agentica. Offre produttività affidabile in sistemi complessi e compiti agentici a lungo termine. Nelle capacità di programmazione e agentiche, GLM-5 raggiunge prestazioni all'avanguardia tra i modelli open-source.",
"GLM-5.description": "GLM-5 è il modello di punta di nuova generazione di Zhipu, progettato specificamente per lAgentic Engineering. Offre produttività affidabile nellingegneria di sistemi complessi e nei task agentici a lungo orizzonte. Nelle capacità di coding e nelle funzioni agentiche, GLM-5 raggiunge prestazioni allavanguardia tra i modelli open-source. Nei contesti di programmazione reali, lesperienza duso si avvicina a quella di Claude Opus 4.5. Eccelle nellingegneria di sistemi complessi e nei task agentici estesi, rendendolo un modello base ideale per assistenti agentici generici.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) è un modello innovativo per domini diversificati e compiti complessi.",
"HY-Image-V3.0.description": "Potenti capacità di estrazione delle caratteristiche dell'immagine originale e di conservazione dei dettagli, offrendo una texture visiva più ricca e producendo immagini di alta precisione, ben composte e di qualità professionale.",
"HelloMeme.description": "HelloMeme è uno strumento AI che genera meme, GIF o brevi video a partire da immagini o movimenti forniti. Non richiede abilità di disegno o programmazione: basta un'immagine di riferimento per creare contenuti divertenti, accattivanti e stilisticamente coerenti.",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter è un modello di generazione di personaggi personalizzati senza tuning, rilasciato da Tencent AI nel 2025, progettato per una generazione fedele e coerente di personaggi in diversi scenari. Può modellare un personaggio da una singola immagine di riferimento e trasferirlo con flessibilità tra stili, azioni e sfondi.",
"InternVL2-8B.description": "InternVL2-8B è un potente modello visione-linguaggio che supporta l'elaborazione multimodale immagine-testo, riconoscendo accuratamente i contenuti visivi e generando descrizioni o risposte pertinenti.",
"InternVL2.5-26B.description": "InternVL2.5-26B è un potente modello visione-linguaggio che supporta l'elaborazione multimodale immagine-testo, riconoscendo accuratamente i contenuti visivi e generando descrizioni o risposte pertinenti.",
"KAT-Coder-Air-V1.description": "Una versione leggera della serie KAT-Coder. Progettata specificamente per lAgentic Coding, copre in modo completo task e scenari di programmazione. Grazie al reinforcement learning su larga scala basato su agenti, consente lemergere di comportamenti intelligenti e supera nettamente modelli simili nelle prestazioni di coding.",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B è la versione sperimentale orientata alle innovazioni RL della serie KAT-Coder, raggiungendo una notevole prestazione del 74,6% nel benchmark SWE-Bench verified, stabilendo un nuovo record tra i modelli open-source. Si concentra sullAgentic Coding e attualmente supporta solo lo scaffold SWE-Agent, pur potendo essere utilizzato anche per semplici conversazioni.",
"KAT-Coder-Pro-V1.description": "Progettato per lAgentic Coding, copre in modo completo task e scenari di programmazione, ottenendo comportamenti intelligenti emergenti grazie al reinforcement learning su larga scala e superando significativamente modelli simili nelle prestazioni di scrittura del codice.",
"KAT-Coder-Pro-V2.description": "Lultimo modello ad alte prestazioni del team Kuaishou Kwaipilot, progettato per progetti aziendali complessi e integrazioni SaaS. Eccelle negli scenari legati al codice ed è compatibile con vari framework agent (Claude Code, OpenCode, KiloCode), supporta nativamente OpenClaw ed è ottimizzato specificamente per lestetica delle pagine front-end.",
"Kimi-K2.5.description": "Kimi K2.5 è il modello Kimi più avanzato, con prestazioni SOTA open-source nei task agentici, nel coding e nella comprensione visiva. Supporta input multimodali e sia la modalità con pensiero sia quella senza pensiero.",
"Kolors.description": "Kolors è un modello text-to-image sviluppato dal team Kuaishou Kolors. Addestrato con miliardi di parametri, offre vantaggi notevoli in qualità visiva, comprensione semantica del cinese e resa del testo.",
"Kwai-Kolors/Kolors.description": "Kolors è un modello text-to-image a diffusione latente su larga scala sviluppato dal team Kuaishou Kolors. Addestrato su miliardi di coppie testo-immagine, eccelle in qualità visiva, accuratezza semantica complessa e resa del testo in cinese/inglese, con forte comprensione e generazione di contenuti in cinese.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) è un modello open-source da 32 miliardi di parametri per compiti di ingegneria del software. Raggiunge un tasso di risoluzione del 62,4% su SWE-Bench Verified, classificandosi al 5° posto tra i modelli open. È ottimizzato tramite mid-training, SFT e RL per completamento del codice, correzione di bug e revisione del codice.",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "Modello linguistico compatto all'avanguardia con forte comprensione del linguaggio, eccellente ragionamento e generazione testuale.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 è il modello Llama open-source multilingue più avanzato, con prestazioni vicine a quelle del 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione instruction-tuned è ottimizzata per chat multilingue e supera molti modelli open e closed nei benchmark industriali. Data di cutoff: dicembre 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick è un grande modello MoE con attivazione efficiente degli esperti per prestazioni di ragionamento elevate.",
"MiMo-V2-Pro.description": "MiMo-V2-Pro è progettato specificamente per flussi di lavoro agentici ad alta intensità in scenari reali. Presenta oltre un trilione di parametri totali (42B attivati), adotta una nuova architettura ibrida di attenzione e supporta una lunghezza di contesto ultra-estesa fino a un milione di token. Basato su un modello fondamentale molto potente, espandiamo costantemente le risorse computazionali su unampia gamma di scenari agentici, ampliando ulteriormente lo spazio dazione dellintelligenza e ottenendo una forte generalizzazione—dal coding allesecuzione di task reali (“claw”).",
"MiniMax-Hailuo-02.description": "È stato ufficialmente rilasciato il modello di generazione video di nuova generazione MiniMax Hailuo 02, che supporta la risoluzione 1080P e la generazione di video di 10 secondi.",
"MiniMax-Hailuo-2.3-Fast.description": "Nuovo modello di generazione video con aggiornamenti completi nei movimenti del corpo, realismo fisico e aderenza alle istruzioni.",
"MiniMax-Hailuo-2.3.description": "Nuovo modello di generazione video con aggiornamenti completi nei movimenti del corpo, realismo fisico e aderenza alle istruzioni.",
"MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.",
"MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.",
"MiniMax-M2.1-Lightning.description": "Potenti capacità di programmazione multilingue con inferenza più rapida ed efficiente.",
"MiniMax-M2.1-highspeed.description": "Potenti capacità di programmazione multilingue, esperienza di programmazione completamente aggiornata. Più veloce ed efficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 è un modello open-source di punta di MiniMax, progettato per affrontare compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la risoluzione di compiti complessi come agente.",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Stesse prestazioni di M2.5 con inferenza più veloce.",
"MiniMax-M2.5.description": "MiniMax-M2.5 è un modello open-source di punta di MiniMax, focalizzato sulla risoluzione di compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la capacità di risolvere compiti complessi come un Agente.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Stesse prestazioni di M2.7 con inferenza significativamente più veloce.",
"MiniMax-M2.7.description": "MiniMax M2.7: Inizio del percorso di auto-miglioramento ricorsivo, capacità ingegneristiche di alto livello nel mondo reale.",
"MiniMax-M2.7.description": "Primo modello auto-evolutivo con prestazioni di codifica e capacità agentiche di livello superiore (~60 tps).",
"MiniMax-M2.description": "MiniMax M2: Modello della generazione precedente.",
"MiniMax-Text-01.description": "MiniMax-01 introduce l'attenzione lineare su larga scala oltre i Transformer classici, con 456B parametri e 45,9B attivati per passaggio. Raggiunge prestazioni di alto livello e supporta fino a 4M token di contesto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 è un modello di ragionamento a grande scala con pesi aperti e attenzione ibrida, con 456 miliardi di parametri totali e ~45,9 miliardi attivi per token. Supporta nativamente un contesto di 1 milione e utilizza Flash Attention per ridurre i FLOP del 75% nella generazione di 100K token rispetto a DeepSeek R1. Con un'architettura MoE più CISPO e addestramento RL con attenzione ibrida, raggiunge prestazioni leader nel ragionamento su input lunghi e compiti di ingegneria software reale.",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 è la versione più recente e potente di Kimi K2. È un modello MoE di fascia alta con 1T di parametri totali e 32B attivi. Le caratteristiche principali includono un'intelligenza di codifica agentica più forte con miglioramenti significativi nei benchmark e nei compiti reali da agente, oltre a una migliore estetica e usabilità del codice frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo è la variante Turbo ottimizzata per velocità di ragionamento e throughput, mantenendo il ragionamento multi-step e l'uso di strumenti di K2 Thinking. È un modello MoE con ~1T parametri totali, contesto nativo da 256K e chiamata stabile di strumenti su larga scala per scenari di produzione con requisiti più severi di latenza e concorrenza.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 è un modello agente multimodale nativo open-source, basato su Kimi-K2-Base, addestrato su circa 1,5 trilioni di token misti visivi e testuali. Il modello adotta un'architettura MoE con 1T di parametri totali e 32B attivi, supporta una finestra di contesto di 256K e integra perfettamente le capacità di comprensione visiva e linguistica.",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 è un modello di punta di nuova generazione progettato per lingegneria agentica, basato su unarchitettura Mixture of Experts (MoE) con 754B parametri. Migliora notevolmente le capacità di programmazione, ottenendo risultati leader su SWE-Bench Pro e superando di molto il suo predecessore in benchmark come NL2Repo e Terminal-Bench 2.0. Progettato per task agentici di lunga durata, gestisce meglio domande ambigue, scompone compiti complessi, esegue esperimenti, analizza risultati e ottimizza continuamente attraverso centinaia di iterazioni e migliaia di chiamate strumentali.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 è il modello di punta di nuova generazione di Zhipu con 355 miliardi di parametri totali e 32 miliardi di parametri attivi, completamente aggiornato per dialoghi generali, ragionamento e capacità agentiche. GLM-4.7 migliora il Pensiero Intercalato e introduce il Pensiero Preservato e il Pensiero a Livello di Turno.",
"Pro/zai-org/glm-5.description": "GLM-5 è il modello linguistico di prossima generazione di Zhipu, focalizzato sull'ingegneria di sistemi complessi e sui compiti di lunga durata per Agenti. I parametri del modello sono stati ampliati a 744 miliardi (40 miliardi attivi) e integrano DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento.",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 è ottimizzato per ragionamento avanzato e seguire istruzioni, utilizzando MoE per mantenere l'efficienza del ragionamento su larga scala.",
"Qwen3-235B.description": "Qwen3-235B-A22B è un modello MoE che introduce una modalità di ragionamento ibrida, consentendo agli utenti di passare senza interruzioni tra pensiero e non-pensiero. Supporta comprensione e ragionamento in 119 lingue e dialetti e ha forti capacità di utilizzo di strumenti, competendo con modelli di punta come DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro nei benchmark su abilità generali, codice e matematica, capacità multilingue e ragionamento basato sulla conoscenza.",
"Qwen3-32B.description": "Qwen3-32B è un modello denso che introduce una modalità di ragionamento ibrida, consentendo agli utenti di passare tra pensiero e non-pensiero. Grazie a miglioramenti architetturali, più dati e un addestramento migliore, offre prestazioni comparabili a Qwen2.5-72B.",
"Qwen3.5-Plus.description": "Qwen3.5 Plus supporta input testuali, immagini e video. Le sue prestazioni nei task puramente testuali sono paragonabili a Qwen3 Max, con prestazioni migliori e costi inferiori. Le sue capacità multimodali sono notevolmente migliorate rispetto alla serie Qwen3 VL.",
"S2V-01.description": "Il modello di base per la generazione di video da riferimenti della serie 01.",
"SenseChat-128K.description": "Base V4 con contesto da 128K, eccellente nella comprensione e generazione di testi lunghi.",
"SenseChat-32K.description": "Base V4 con contesto da 32K, flessibile per molti scenari.",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e pensiero esteso.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, caratterizzato da rapidità estrema e ragionamento avanzato.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento estese.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e capace di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e avanzato di Anthropic per task altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per task altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
"claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e il coding.",
"claude-opus-4.5.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza di alto livello con prestazioni scalabili per compiti complessi e di alta qualità di ragionamento.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-opus-4.6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offrendo risposte quasi istantanee o pensiero esteso passo dopo passo con controllo dettagliato per gli utenti API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 è la migliore combinazione di velocità e intelligenza di Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 può produrre risposte quasi istantanee o un ragionamento esteso passo dopo passo con processo visibile.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente sviluppato da Anthropic finora.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 offre la migliore combinazione tra velocità e intelligenza.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 è il modello più intelligente mai creato da Anthropic.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 rappresenta la migliore combinazione di velocità e intelligenza di Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 può generare risposte quasi istantanee o ragionamenti estesi passo dopo passo che gli utenti possono seguire. Gli utenti API possono controllare finemente quanto tempo il modello dedica al ragionamento.",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catena di pensiero.",
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell'output per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli GPT-5, ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni degli agenti open-source.",
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di coding. Mantiene il dialogo naturale del modello chat e la forte competenza del modello coder, con un migliore allineamento delle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore precisione, con risultati di competizione di alto livello e ragionamento comparabile a Gemini-3.0-Pro.",
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di ragionamento prima della risposta finale per migliorarne laccuratezza.",
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è unanteprima del modello di pensiero per valutazioni e test.",
"ernie-x1.1.description": "ERNIE X1.1 è un'anteprima del modello di pensiero per valutazione e test.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Caratteristiche includono coerenza del soggetto migliorata, aderenza precisa alle istruzioni, comprensione della logica spaziale, espressione estetica, layout di poster e design di loghi con rendering testo-immagine ad alta precisione.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini altamente controllabile e di alta qualità a partire da prompt.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi e offre una generazione di immagini altamente controllabile e di alta qualità. Genera immagini a partire da prompt testuali.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sullediting di immagini, che supporta input di testo e immagini.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e lediting di immagini tramite conversazione.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e di aspetto, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro.",
"fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen con una forte capacità di rendering di testo in cinese e stili visivi diversificati.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing delle immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testo cinese e inglese ed esegue interventi di alta qualità come trasferimento di stile e rotazione di oggetti.",
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen, con eccellente resa del testo cinese e stili visivi diversificati.",
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità dimmagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
"flux-dev.description": "Modello open-source per la ricerca e sviluppo nella generazione di immagini, ottimizzato in modo efficiente per la ricerca innovativa non commerciale.",
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali allavanguardia, combinando testo e immagini per risultati precisi e coerenti.",
"flux-kontext-pro.description": "Generazione ed editing di immagini contestuali allavanguardia, combinando testo e immagini per risultati precisi e coerenti.",
"flux-merged.description": "FLUX.1 [merged] combina le caratteristiche profonde esplorate in \"DEV\" con i vantaggi ad alta velocità di \"Schnell\", estendendo i limiti delle prestazioni e ampliando le applicazioni.",
"flux-pro-1.1-ultra.description": "Generazione di immagini ad altissima risoluzione con output da 4MP, producendo immagini nitide in 10 secondi.",
"flux-pro-1.1.description": "Modello aggiornato di generazione di immagini di livello professionale con eccellente qualità visiva e aderenza precisa ai prompt.",
"flux-pro.description": "Modello commerciale di generazione di immagini di fascia alta con qualità visiva impareggiabile e output diversificati.",
"flux-schnell.description": "FLUX.1 [schnell] è il modello open-source più avanzato a pochi passaggi, superiore a concorrenti simili e persino a modelli non distillati come Midjourney v6.0 e DALL-E 3 (HD). Ottimizzato per preservare la diversità del pretraining, migliora notevolmente la qualità visiva, il rispetto delle istruzioni, la variazione di dimensioni/aspetto, la gestione dei font e la diversità degli output.",
"flux.1-schnell.description": "FLUX.1-schnell è un modello ad alte prestazioni per la generazione di immagini rapide in più stili.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e regolabili per compiti complessi.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) fornisce un forte supporto multimodale per compiti complessi.",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
"gemini-3-flash-preview.description": "Gemini 3 Flash è il modello più intelligente progettato per la velocità, che combina intelligenza all'avanguardia con un eccellente ancoraggio alla ricerca.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google che supporta anche il dialogo multimodale.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche la chat multimodale.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google con supporto al pensiero, generazione e modifica di immagini conversazionali.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre qualità di immagine di livello Pro a velocità Flash con supporto per la chat multimodale.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google, con supporto al reasoning, generazione conversazionale di immagini ed editing.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview è il modello multimodale più economico di Google, ottimizzato per compiti agentici ad alto volume, traduzione e elaborazione dati.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview migliora Gemini 3 Pro con capacità di ragionamento avanzate e aggiunge supporto per un livello di pensiero medio.",
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
@ -806,7 +812,6 @@
"jamba-large.description": "Il nostro modello più potente e avanzato, progettato per compiti aziendali complessi con prestazioni eccezionali.",
"jamba-mini.description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità con un ingombro ridotto.",
"jina-deepsearch-v1.description": "DeepSearch combina ricerca web, lettura e ragionamento per indagini approfondite. Pensalo come un agente che prende il tuo compito di ricerca, esegue ricerche ampie con più iterazioni e solo dopo produce una risposta. Il processo prevede ricerca continua, ragionamento e risoluzione di problemi da più angolazioni, fondamentalmente diverso dai LLM standard che rispondono dai dati di preaddestramento o dai sistemi RAG tradizionali che si basano su una ricerca superficiale one-shot.",
"k2p5.description": "Kimi K2.5 è il modello più versatile di Kimi fino ad oggi, caratterizzato da un'architettura multimodale nativa che supporta sia input visivi che testuali, modalità 'pensante' e 'non pensante', e sia compiti conversazionali che agenti.",
"kimi-k2-0711-preview.description": "kimi-k2 è un modello base MoE con forti capacità di programmazione e agenti (1T di parametri totali, 32B attivi), che supera altri modelli open-source mainstream nei benchmark di ragionamento, programmazione, matematica e agenti.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre una finestra di contesto da 256k, una programmazione agentica più forte, una qualità del codice front-end migliorata e una comprensione del contesto più profonda.",
"kimi-k2-instruct.description": "Kimi K2 Instruct è il modello ufficiale di ragionamento di Kimi con contesto esteso per codice, domande e risposte e altro.",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQ è un modello di ragionamento della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, offre capacità di pensiero e ragionamento che migliorano significativamente le prestazioni nei compiti difficili. QwQ-32B è un modello di medie dimensioni che compete con i migliori modelli di ragionamento come DeepSeek-R1 e o1-mini.",
"qwq_32b.description": "Modello di ragionamento di medie dimensioni della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, le capacità di pensiero e ragionamento di QwQ migliorano significativamente le prestazioni nei compiti difficili.",
"r1-1776.description": "R1-1776 è una variante post-addestrata di DeepSeek R1 progettata per fornire informazioni fattuali non censurate e imparziali.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro di ByteDance supporta la generazione da testo a video, immagine a video (primo fotogramma, primo+ultimo fotogramma) e audio sincronizzato con immagini.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite di BytePlus presenta generazione aumentata da recupero web per informazioni in tempo reale, interpretazione di prompt complessi migliorata e coerenza di riferimento migliorata per la creazione visiva professionale.",
"solar-mini-ja.description": "Solar Mini (Ja) estende Solar Mini con un focus sul giapponese, mantenendo prestazioni efficienti e solide in inglese e coreano.",
"solar-mini.description": "Solar Mini è un LLM compatto che supera GPT-3.5, con forte capacità multilingue in inglese e coreano, offrendo una soluzione efficiente e leggera.",
"solar-pro.description": "Solar Pro è un LLM ad alta intelligenza di Upstage, focalizzato sullesecuzione di istruzioni su una singola GPU, con punteggi IFEval superiori a 80. Attualmente supporta linglese; il rilascio completo è previsto per novembre 2024 con supporto linguistico ampliato e contesto più lungo.",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2 è il nostro nuovo potente modello di generazione multimediale, che genera video con audio sincronizzato. Può creare clip dinamici e riccamente dettagliati da linguaggio naturale o immagini.",
"spark-x.description": "Panoramica delle capacità di X2: 1. Introduce l'adattamento dinamico della modalità di ragionamento, controllato tramite il campo `thinking`. 2. Lunghezza del contesto espansa: 64K token di input e 128K token di output. 3. Supporta la funzionalità Function Call.",
"stable-diffusion-3-medium.description": "L'ultimo modello text-to-image di Stability AI. Questa versione migliora significativamente la qualità delle immagini, la comprensione del testo e la diversità stilistica, interpretando con maggiore precisione prompt complessi in linguaggio naturale e generando immagini più accurate e varie.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applica la distillazione per diffusione avversaria (ADD) a stable-diffusion-3.5-large per una maggiore velocità.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large è un modello text-to-image MMDiT da 800M parametri con qualità eccellente e allineamento ai prompt, supporta immagini da 1 megapixel ed è efficiente su hardware consumer.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 è inizializzato dal checkpoint v1.2 e ottimizzato per 595k step su \"laion-aesthetics v2 5+\" a risoluzione 512x512, riducendo il conditioning testuale del 10% per migliorare il campionamento classifier-free.",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo è focalizzato sulla generazione di immagini di alta qualità, con una forte resa dei dettagli e fedeltà della scena.",
"stable-diffusion-xl-base-1.0.description": "Modello open-source text-to-image di Stability AI con generazione creativa di immagini leader nel settore. Ha una forte comprensione delle istruzioni e supporta definizioni inverse dei prompt per generazioni precise.",
"stable-diffusion-xl.description": "stable-diffusion-xl introduce miglioramenti significativi rispetto alla v1.5 e raggiunge i migliori risultati open-source text-to-image. Include un backbone UNet 3 volte più grande, un modulo di raffinamento per immagini migliori e tecniche di addestramento più efficienti.",
"step-1-128k.description": "Equilibrio tra prestazioni e costi per scenari generali.",
"step-1-256k.description": "Gestione di contesti extra-lunghi, ideale per lanalisi di documenti estesi.",
"step-1-32k.description": "Supporta conversazioni di media lunghezza per unampia gamma di scenari.",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "{{count}} parametri in totale",
"arguments.title": "Argomenti",
"builtins.lobe-activator.apiName.activateTools": "Attiva Strumenti",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} non trovati",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Ottieni modelli disponibili",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Ottieni Competenze disponibili",
"builtins.lobe-agent-builder.apiName.getConfig": "Ottieni configurazione",

View file

@ -33,7 +33,6 @@
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
"kimicodingplan.description": "Kimi Code di Moonshot AI offre accesso ai modelli Kimi, inclusi K2.5, per attività di codifica.",
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
"lobehub.description": "LobeHub Cloud utilizza API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo con Crediti legati ai token dei modelli.",
"longcat.description": "LongCat è una serie di modelli AI generativi di grandi dimensioni sviluppati indipendentemente da Meituan. È progettato per migliorare la produttività interna dell'azienda e consentire applicazioni innovative attraverso un'architettura computazionale efficiente e potenti capacità multimodali.",
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
"minimaxcodingplan.description": "Il piano di token MiniMax offre accesso ai modelli MiniMax, inclusi M2.7, per attività di codifica tramite un abbonamento a tariffa fissa.",
@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Spark fornisce AI multilingue potente in vari settori, abilitando innovazioni in hardware intelligente, sanità, finanza e altri verticali.",
"stepfun.description": "I modelli Stepfun offrono capacità multimodali e di ragionamento complesse all'avanguardia, con comprensione di contesti lunghi e potente orchestrazione di ricerca autonoma.",
"straico.description": "Straico semplifica l'integrazione dell'IA offrendo uno spazio di lavoro unificato che riunisce i migliori modelli generativi di IA per testo, immagini e audio, offrendo a marketer, imprenditori e appassionati un accesso senza soluzione di continuità a diversi strumenti di IA.",
"streamlake.description": "StreamLake è una piattaforma enterprise di servizi di modelli e cloud di calcolo AI, che integra inferenza di modelli ad alte prestazioni, personalizzazione dei modelli a basso costo e servizi completamente gestiti per aiutare le aziende a concentrarsi sullinnovazione delle applicazioni AI senza doversi preoccupare della complessità e dei costi delle risorse di calcolo sottostanti.",
"taichu.description": "Un modello multimodale di nuova generazione sviluppato da CASIA e Wuhan Institute of AI, che supporta QA multi-turno, scrittura, generazione di immagini, comprensione 3D e analisi di segnali con maggiore cognizione e creatività.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fornisce QA end-to-end per imprese e sviluppatori, con servizi modulari come parsing documenti, suddivisione, embedding e riscrittura multi-turno per creare soluzioni AI personalizzate.",
"togetherai.description": "Together AI offre prestazioni leader con modelli innovativi, ampia personalizzazione, scalabilità rapida e distribuzione semplice per esigenze aziendali.",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "Strumenti di Sistema",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - strumento veloce per la ricerca nel codice",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI per l'automazione del browser senza interfaccia grafica per agenti AI",
"settingSystemTools.tools.bun.desc": "Bun - runtime JavaScript e gestore di pacchetti veloce",
"settingSystemTools.tools.bunx.desc": "bunx - esecutore di pacchetti Bun per lesecuzione di pacchetti npm",
"settingSystemTools.tools.fd.desc": "fd - alternativa veloce e intuitiva a find",
"settingSystemTools.tools.find.desc": "find di Unix - comando standard per la ricerca di file",
"settingSystemTools.tools.grep.desc": "GNU grep - strumento standard per la ricerca di testo",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - gestisci e connetti i servizi LobeHub",
"settingSystemTools.tools.mdfind.desc": "Ricerca Spotlight di macOS (ricerca indicizzata veloce)",
"settingSystemTools.tools.node.desc": "Node.js - runtime JavaScript per l'esecuzione di JS/TS",
"settingSystemTools.tools.npm.desc": "npm - gestore di pacchetti Node.js per installare le dipendenze",
"settingSystemTools.tools.pnpm.desc": "pnpm - gestore di pacchetti veloce ed efficiente in termini di spazio su disco",
"settingSystemTools.tools.python.desc": "Python - runtime del linguaggio di programmazione",
"settingSystemTools.tools.rg.desc": "ripgrep - strumento estremamente veloce per la ricerca di testo",
"settingSystemTools.tools.uv.desc": "uv - gestore di pacchetti Python estremamente veloce",
"settingTTS.openai.sttModel": "Modello OpenAI per Riconoscimento Vocale",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "Modello OpenAI per Sintesi Vocale",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "Modello",
"systemAgent.inputCompletion.modelDesc": "Modello utilizzato per i suggerimenti di completamento automatico dell'input (come il testo fantasma di GitHub Copilot)",
"systemAgent.inputCompletion.title": "Agente di Completamento Automatico dell'Input",
"systemAgent.promptRewrite.label": "Modello",
"systemAgent.promptRewrite.modelDesc": "Specifica il modello utilizzato per riscrivere i prompt",
"systemAgent.promptRewrite.title": "Agente di Riscrittura Prompt",
"systemAgent.queryRewrite.label": "Modello",
"systemAgent.queryRewrite.modelDesc": "Specifica il modello utilizzato per ottimizzare le richieste degli utenti",
"systemAgent.queryRewrite.title": "Agente Riscrittura Richieste Libreria",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "Carica un file locale .zip o .skill",
"tab.usage": "Statistiche di Utilizzo",
"tools.add": "Aggiungi Competenza",
"tools.builtins.find-skills.description": "Aiuta gli utenti a scoprire e installare competenze dellagente quando chiedono \"come faccio a X\", \"trova una skill per X\" o vogliono estendere le funzionalità",
"tools.builtins.find-skills.title": "Trova Skill",
"tools.builtins.groupName": "Integrati",
"tools.builtins.install": "Installa",
"tools.builtins.installed": "Installato",
"tools.builtins.lobe-activator.description": "Scopri e attiva strumenti e skill",
"tools.builtins.lobe-activator.title": "Attivatore di Strumenti e Skill",
"tools.builtins.lobe-agent-browser.description": "CLI di automazione del browser per agenti AI. Da utilizzare per attività che coinvolgono interazioni con siti web o Electron come navigazione, compilazione di moduli, clic, cattura di screenshot, scraping di dati, flussi di login e test endtoend.",
"tools.builtins.lobe-agent-browser.title": "Browser Agente",
"tools.builtins.lobe-agent-builder.description": "Configura i metadati dellagente, le impostazioni del modello, i plugin e il system prompt",
"tools.builtins.lobe-agent-builder.title": "Costruttore Agente",
"tools.builtins.lobe-agent-documents.description": "Gestisci documenti associati allagente (elenca, crea, leggi, modifica, rimuovi, rinomina) e le regole di caricamento",
"tools.builtins.lobe-agent-documents.title": "Documenti",
"tools.builtins.lobe-agent-management.description": "Crea, gestisci e organizza agenti AI",
"tools.builtins.lobe-agent-management.title": "Gestione Agente",
"tools.builtins.lobe-artifacts.description": "Genera e visualizza in anteprima componenti UI interattivi, grafici e contenuti web",
"tools.builtins.lobe-artifacts.readme": "Genera e visualizza in anteprima componenti UI interattivi, visualizzazioni di dati, grafici, grafica SVG e applicazioni web. Crea contenuti visivi ricchi con cui gli utenti possono interagire direttamente.",
"tools.builtins.lobe-artifacts.title": "Artefatti",
"tools.builtins.lobe-brief.description": "Riporta i progressi, fornisce risultati e richiede decisioni allutente",
"tools.builtins.lobe-brief.title": "Strumenti di Brief",
"tools.builtins.lobe-calculator.description": "Esegui calcoli matematici, risolvi equazioni e lavora con espressioni simboliche",
"tools.builtins.lobe-calculator.readme": "Calcolatrice matematica avanzata che supporta aritmetica di base, equazioni algebriche, operazioni di calcolo e matematica simbolica. Include conversione di basi, risoluzione di equazioni, differenziazione, integrazione e altro.",
"tools.builtins.lobe-calculator.title": "Calcolatrice",
"tools.builtins.lobe-cloud-sandbox.description": "Esegui codice, comandi e gestisci file in un ambiente cloud sicuro",
"tools.builtins.lobe-cloud-sandbox.readme": "Esegui codice Python, JavaScript e TypeScript in un ambiente cloud isolato. Esegui comandi shell, gestisci file, cerca contenuti con espressioni regolari ed esporta i risultati in modo sicuro.",
"tools.builtins.lobe-cloud-sandbox.title": "Sandbox Cloud",
"tools.builtins.lobe-creds.description": "Gestisci le credenziali utente per autenticazione, inserimento di variabili dambiente e verifica delle API — gestisci API key, token OAuth e segreti per integrazioni di terze parti.",
"tools.builtins.lobe-creds.title": "Credenziali",
"tools.builtins.lobe-cron.description": "Gestisci attività pianificate che vengono eseguite automaticamente in orari specifici. Crea, aggiorna, abilita/disabilita e monitora attività ricorrenti per i tuoi agenti.",
"tools.builtins.lobe-cron.title": "Attività Pianificate",
"tools.builtins.lobe-group-agent-builder.description": "Configura i metadati dei gruppi, i membri e i contenuti condivisi per gruppi multiagente",
"tools.builtins.lobe-group-agent-builder.title": "Costruttore Gruppo Agente",
"tools.builtins.lobe-group-management.description": "Organizza e gestisci conversazioni di gruppi multiagente",
"tools.builtins.lobe-group-management.title": "Gestione Gruppo",
"tools.builtins.lobe-gtd.description": "Pianifica obiettivi e monitora i progressi con il metodo GTD",
"tools.builtins.lobe-gtd.readme": "Pianifica obiettivi e monitora i progressi utilizzando il metodo GTD. Crea piani strategici, gestisci liste di cose da fare con tracciamento dello stato ed esegui attività asincrone di lunga durata.",
"tools.builtins.lobe-gtd.title": "Strumenti GTD",
"tools.builtins.lobe-knowledge-base.description": "Cerca documenti caricati e conoscenze di dominio tramite ricerca vettoriale semantica — per riferimenti persistenti e riutilizzabili",
"tools.builtins.lobe-knowledge-base.title": "Base di Conoscenza",
"tools.builtins.lobe-local-system.description": "Accedi e gestisci file locali, esegui comandi shell sul tuo desktop",
"tools.builtins.lobe-local-system.readme": "Accedi al file system locale sul desktop. Leggi, scrivi, cerca e organizza file. Esegui comandi shell con supporto per attività in background e cerca contenuti con pattern regex.",
"tools.builtins.lobe-local-system.title": "Sistema Locale",
"tools.builtins.lobe-message.description": "Invia, leggi, modifica e gestisci messaggi su più piattaforme tramite uninterfaccia unificata",
"tools.builtins.lobe-message.readme": "Strumento di messaggistica multipiattaforma che supporta Discord, Telegram, Slack, Google Chat e IRC. Fornisce API unificate per operazioni sui messaggi, reazioni, pin, thread, gestione dei canali e funzionalità specifiche come i sondaggi.",
"tools.builtins.lobe-message.title": "Messaggi",
"tools.builtins.lobe-notebook.description": "Crea e gestisci documenti nel taccuino tematico",
"tools.builtins.lobe-notebook.readme": "Crea e gestisci documenti persistenti all'interno di argomenti di conversazione. Salva note, report, articoli e contenuti markdown accessibili tra le sessioni.",
"tools.builtins.lobe-notebook.title": "Taccuino",
"tools.builtins.lobe-page-agent.description": "Crea, leggi, aggiorna ed elimina nodi in documenti strutturati XML",
"tools.builtins.lobe-page-agent.readme": "Crea e modifica documenti strutturati con controllo preciso a livello di nodo. Inizializza da Markdown, esegui operazioni in batch di inserimento/modifica/rimozione e trovaesostituisci testo nei documenti.",
"tools.builtins.lobe-page-agent.title": "Documento",
"tools.builtins.lobe-remote-device.description": "Scopri e gestisci connessioni a dispositivi desktop remoti",
"tools.builtins.lobe-remote-device.readme": "Gestisci le connessioni ai tuoi dispositivi desktop. Elenca i dispositivi online, attiva un dispositivo per operazioni remote e verifica lo stato della connessione.",
"tools.builtins.lobe-remote-device.title": "Dispositivo Remoto",
"tools.builtins.lobe-skill-store.description": "Esplora e installa skill per agenti dal marketplace LobeHub. Utile quando servono funzionalità estese o si desidera installare una skill specifica.",
"tools.builtins.lobe-skill-store.title": "Skill Store",
"tools.builtins.lobe-skills.description": "Attiva e utilizza pacchetti di skill riutilizzabili",
"tools.builtins.lobe-skills.title": "Skill",
"tools.builtins.lobe-task.description": "Crea, elenca, modifica e cancella attività con dipendenze e configurazione di revisione",
"tools.builtins.lobe-task.title": "Strumenti di Attività",
"tools.builtins.lobe-topic-reference.description": "Recupera contesto da conversazioni su argomenti di riferimento",
"tools.builtins.lobe-topic-reference.title": "Riferimento Argomenti",
"tools.builtins.lobe-user-interaction.description": "Poni domande agli utenti tramite interazioni UI e osservane gli esiti",
"tools.builtins.lobe-user-interaction.title": "Interazione Utente",
"tools.builtins.lobe-user-memory.description": "Ricorda preferenze, attività ed esperienze dell'utente nelle conversazioni",
"tools.builtins.lobe-user-memory.readme": "Costruisci una base di conoscenza personalizzata su di te. Ricorda preferenze, traccia attività ed esperienze, memorizza informazioni sull'identità e richiama contesti rilevanti nelle conversazioni future.",
"tools.builtins.lobe-user-memory.title": "Memoria",
"tools.builtins.lobe-web-browsing.description": "Cerca informazioni aggiornate sul web ed esplora pagine per estrarre contenuti. Supporta più motori di ricerca, categorie e intervalli temporali.",
"tools.builtins.lobe-web-browsing.readme": "Cerca informazioni aggiornate sul web ed esplora pagine per estrarre contenuti. Supporta diversi motori di ricerca, categorie e intervalli temporali per ricerche approfondite.",
"tools.builtins.lobe-web-browsing.title": "Navigazione Web",
"tools.builtins.lobe-web-onboarding.description": "Gestisci il flusso di onboarding web con un runtime agente controllato",
"tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
"tools.builtins.lobehub.description": "Gestisci la piattaforma LobeHub tramite CLI — basi di conoscenza, memoria, agenti, file, ricerca, generazione e altro.",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "Non installato",
"tools.builtins.task.description": "Gestione ed esecuzione di attività — crea, traccia, rivedi e completa attività tramite CLI.",
"tools.builtins.task.title": "Attività",
"tools.builtins.uninstall": "Disinstalla",
"tools.builtins.uninstallConfirm.desc": "Sei sicuro di voler disinstallare {{name}}? Questa funzione verrà rimossa dall'agente attuale.",
"tools.builtins.uninstallConfirm.title": "Disinstalla {{name}}",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "Disconnettere {{name}}?",
"tools.lobehubSkill.disconnected": "Disconnesso",
"tools.lobehubSkill.error": "Errore",
"tools.lobehubSkill.providers.github.description": "GitHub è una piattaforma per il controllo versione e la collaborazione, che permette agli sviluppatori di ospitare, rivedere e gestire repository di codice.",
"tools.lobehubSkill.providers.github.readme": "Connettiti a GitHub per accedere ai tuoi repository, creare e gestire issue, rivedere pull request e collaborare al codice — tutto tramite conversazioni naturali con il tuo assistente AI.",
"tools.lobehubSkill.providers.linear.description": "Linear è uno strumento moderno per il tracciamento dei problemi e la gestione dei progetti, progettato per team ad alte prestazioni che vogliono sviluppare software migliori più velocemente",
"tools.lobehubSkill.providers.linear.readme": "Porta la potenza di Linear direttamente nel tuo assistente IA. Crea e aggiorna issue, gestisci sprint, monitora l'avanzamento dei progetti e ottimizza il flusso di lavoro di sviluppo—tutto tramite conversazioni naturali.",
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar è uno strumento di pianificazione integrato in Microsoft Outlook che consente agli utenti di creare appuntamenti, organizzare riunioni e gestire efficacemente il proprio tempo.",
"tools.lobehubSkill.providers.microsoft.readme": "Integra con Outlook Calendar per visualizzare, creare e gestire eventi senza interruzioni. Pianifica riunioni, controlla disponibilità, imposta promemoria e coordina il tuo tempo—tutto tramite comandi in linguaggio naturale.",
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) è una piattaforma di social media per condividere aggiornamenti in tempo reale, notizie e interagire con il tuo pubblico tramite post, risposte e messaggi diretti.",
"tools.lobehubSkill.providers.twitter.readme": "Connettiti a X (Twitter) per pubblicare tweet, gestire la tua timeline e interagire con il tuo pubblico. Crea contenuti, programma post, monitora menzioni e costruisci la tua presenza sui social media tramite IA conversazionale.",
"tools.lobehubSkill.providers.vercel.description": "Vercel è una piattaforma cloud per sviluppatori frontend, che offre hosting e funzioni serverless per distribuire applicazioni web con facilità.",
"tools.lobehubSkill.providers.vercel.readme": "Connettiti a Vercel per gestire le tue distribuzioni, monitorare lo stato dei progetti e controllare linfrastruttura. Distribuisci applicazioni, controlla i log di build, gestisci variabili dambiente e scala i tuoi progetti tramite AI conversazionale.",
"tools.notInstalled": "Non Installato",
"tools.notInstalledWarning": "Questa competenza non è attualmente installata, il che potrebbe influire sulla funzionalità dell'agente.",
"tools.plugins.enabled": "Abilitati: {{num}}",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "Passa a",
"credits.topUp.upgradeSuffix": "per risparmiare ${{savings}}",
"credits.topUp.validityInfo": "Validità di {{months}} mesi",
"crossPlatform.desc": "Questo abbonamento è stato acquistato tramite l'app mobile e non può essere modificato qui. Gestisci il tuo abbonamento sul tuo dispositivo mobile.",
"crossPlatform.manageOnMobile": "Gestisci sul dispositivo mobile",
"crossPlatform.title": "Abbonamento Cross-Platform",
"currentPlan.cancelAlert": "L'abbonamento verrà annullato dopo il {{canceledAt}}. Puoi ancora ripristinarlo in \"Gestisci Abbonamento\" prima di tale data",
"currentPlan.downgradeAlert": "Verrà effettuato il downgrade a {{plan}} dopo il {{downgradedAt}}.",
"currentPlan.management": "Gestisci Abbonamento",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "Fotogramma Iniziale",
"config.prompt.placeholder": "Descrivi il video che vuoi generare",
"config.prompt.placeholderWithRef": "Descrivi la scena che vuoi generare con l'immagine",
"config.promptExtend.label": "Estensione del prompt",
"config.referenceImage.label": "Immagine di Riferimento",
"config.resolution.label": "Risoluzione",
"config.seed.label": "Seed",
"config.seed.random": "Casuale",
"config.size.label": "Dimensione",
"config.watermark.label": "Filigrana",
"config.webSearch.label": "Ricerca web",
"generation.actions.copyError": "Copia Messaggio di Errore",
"generation.actions.errorCopied": "Messaggio di Errore Copiato negli Appunti",
"generation.actions.errorCopyFailed": "Copia del Messaggio di Errore Fallita",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "ボットが正常に接続されました",
"channel.connecting": "接続中...",
"channel.connectionConfig": "接続設定",
"channel.connectionMode": "接続モード",
"channel.connectionModeHint": "新しいボットには WebSocket を推奨します。すでに QQ オープンプラットフォームでコールバック URL を設定済みの場合は Webhook を使用してください。",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "クリップボードにコピーしました",
"channel.copy": "コピー",
"channel.credentials": "認証情報",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "このURLをコピーして、{{name}}開発者ポータルの<bold>{{fieldName}}</bold>フィールドに貼り付けてください。",
"channel.exportConfig": "設定をエクスポート",
"channel.feishu.description": "このアシスタントをFeishuに接続して、プライベートチャットやグループチャットを利用します。",
"channel.feishu.webhookMigrationDesc": "WebSocket モードでは、公開コールバック URL を必要とせず、リアルタイムでイベントを受信できます。移行するには、詳細設定で接続モードを WebSocket に切り替えてください。Feishu/Lark オープンプラットフォーム側での追加設定は不要です。",
"channel.feishu.webhookMigrationTitle": "WebSocket モードへの移行をご検討ください",
"channel.historyLimit": "履歴メッセージの制限",
"channel.historyLimitHint": "チャンネル履歴を読む際に取得するデフォルトのメッセージ数",
"channel.importConfig": "設定をインポート",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "インタラクション検証に必要",
"channel.qq.appIdHint": "QQオープンプラットフォームから取得したQQボットのアプリID",
"channel.qq.description": "このアシスタントをQQに接続して、グループチャットやダイレクトメッセージを利用しましょう。",
"channel.qq.webhookMigrationDesc": "WebSocket モードでは、コールバック URL を必要とせず、リアルタイムのイベント配信と自動再接続が可能です。移行するには、QQ オープンプラットフォームで新しいボットを作成し、コールバック URL を設定せずに、詳細設定で接続モードを WebSocket に切り替えてください。",
"channel.qq.webhookMigrationTitle": "WebSocket モードへの移行をご検討ください",
"channel.removeChannel": "チャンネルを削除",
"channel.removeFailed": "チャンネルの削除に失敗しました",
"channel.removed": "チャンネルが削除されました",
@ -93,7 +101,11 @@
"channel.signingSecret": "署名シークレット",
"channel.signingSecretHint": "Webhookリクエストを検証するために使用されます。",
"channel.slack.appIdHint": "Slack APIダッシュボードから取得したSlack App ID (Aで始まります)。",
"channel.slack.appToken": "アプリレベルトークン",
"channel.slack.appTokenHint": "Socket ModeWebSocketに必要です。Slack アプリ設定の「Basic Information」からアプリレベルトークンxapp-...)を生成してください。",
"channel.slack.description": "このアシスタントをSlackに接続して、チャンネル会話やダイレクトメッセージを行います。",
"channel.slack.webhookMigrationDesc": "Socket Mode では、公開 HTTP エンドポイントを使わずに WebSocket 経由でリアルタイムにイベントを受信できます。移行するには、Slack アプリ設定で Socket Mode を有効にし、アプリレベルトークンを生成してから、詳細設定で接続モードを WebSocket に切り替えてください。",
"channel.slack.webhookMigrationTitle": "Socket ModeWebSocketへの移行をご検討ください",
"channel.telegram.description": "このアシスタントをTelegramに接続して、プライベートチャットやグループチャットを利用します。",
"channel.testConnection": "接続テスト",
"channel.testFailed": "接続テストに失敗しました",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "グループが削除されました",
"confirmRemoveSessionItemAlert": "このアシスタントを削除してもよろしいですか?削除後は復元できません",
"confirmRemoveSessionSuccess": "アシスタントが削除されました",
"createModal.createBlank": "空白を作成",
"createModal.groupPlaceholder": "このグループが何をするか説明してください…",
"createModal.groupTitle": "グループは何をすべきですか?",
"createModal.placeholder": "エージェントが何をするか説明してください…",
"createModal.title": "エージェントは何をすべきですか?",
"defaultAgent": "カスタムアシスタント",
"defaultGroupChat": "グループ",
"defaultList": "デフォルトリスト",
@ -229,6 +234,7 @@
"operation.contextCompression": "コンテキストが長すぎるため、履歴を圧縮しています...",
"operation.execAgentRuntime": "応答を準備中",
"operation.execClientTask": "タスクを実行中",
"operation.execServerAgentRuntime": "実行中… 別の作業に切り替えたりページを閉じても、タスクは継続します。",
"operation.sendMessage": "メッセージを送信中",
"owner": "グループオーナー",
"pageCopilot.title": "ドキュメントコパイロット",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "詳細を取得中...",
"task.status.initializing": "タスクを起動中…",
"task.subtask": "サブタスク",
"task.title": "タスク",
"thread.divider": "サブトピック",
"thread.threadMessageCount": "{{messageCount}} 件のメッセージ",
"thread.title": "サブトピック",
@ -429,9 +436,11 @@
"toolAuth.title": "アシスタントのスキル承認を完了してください",
"topic.checkOpenNewTopic": "新しいトピックを開きますか?",
"topic.checkSaveCurrentMessages": "現在の会話をトピックとして保存しますか?",
"topic.defaultTitle": "無題のトピック",
"topic.openNewTopic": "新しいトピックを開く",
"topic.recent": "最近のトピック",
"topic.saveCurrentMessages": "トピックとして保存",
"topic.viewAll": "すべてのトピックを表示",
"translate.action": "翻訳",
"translate.clear": "翻訳を削除",
"tts.action": "音声読み上げ",

View file

@ -343,10 +343,19 @@
"mail.support": "メールサポート",
"more": "もっと見る",
"navPanel.agent": "アシスタント",
"navPanel.customizeSidebar": "サイドバーをカスタマイズ",
"navPanel.displayItems": "項目を表示",
"navPanel.hidden": "非表示",
"navPanel.hideSection": "セクションを非表示",
"navPanel.library": "ライブラリ",
"navPanel.moveDown": "下へ移動",
"navPanel.moveUp": "上へ移動",
"navPanel.pinned": "固定",
"navPanel.searchAgent": "アシスタントを検索…",
"navPanel.searchRecent": "最近の検索...",
"navPanel.searchResultEmpty": "検索結果がありません",
"navPanel.show": "表示",
"navPanel.visible": "表示中",
"new": "新規",
"noContent": "コンテンツがありません",
"oauth": "SSO ログイン",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "応援する",
"productHunt.description": "Product Huntで私たちを応援してください。皆さまのサポートが大きな力になります",
"productHunt.title": "Product Huntに掲載されました",
"promptTransform.action": "アイデアを洗練",
"promptTransform.actions.rewrite": "詳細を展開",
"promptTransform.actions.translate": "翻訳",
"promptTransform.status.rewrite": "詳細を展開しています...",
"promptTransform.status.translate": "翻訳しています...",
"recents": "最近",
"regenerate": "再生成",
"releaseNotes": "バージョン詳細",
"rename": "名前を変更",
@ -400,6 +415,7 @@
"tab.audio": "オーディオ",
"tab.chat": "チャット",
"tab.community": "コミュニティ",
"tab.create": "作成",
"tab.discover": "発見",
"tab.eval": "評価ラボ",
"tab.files": "ファイル",

View file

@ -12,6 +12,7 @@
"config.model.label": "モデル",
"config.prompt.placeholder": "生成したい内容を記述してください",
"config.prompt.placeholderWithRef": "画像をどのように調整したいか説明してください",
"config.promptExtend.label": "プロンプト拡張",
"config.quality.label": "画像品質",
"config.quality.options.hd": "高精細",
"config.quality.options.standard": "標準",
@ -24,6 +25,8 @@
"config.size.label": "サイズ",
"config.steps.label": "ステップ数",
"config.title": "設定",
"config.watermark.label": "ウォーターマーク",
"config.webSearch.label": "ウェブ検索",
"config.width.label": "幅",
"generation.actions.applySeed": "シードを適用する",
"generation.actions.copyError": "エラー情報をコピー",

View file

@ -1,6 +1,8 @@
{
"features.assistantMessageGroup.desc": "アシスタントのメッセージとそのツール呼び出し結果をグループ化して表示します",
"features.assistantMessageGroup.title": "アシスタントメッセージのグループ化表示",
"features.gatewayMode.desc": "エージェントのタスクをローカルではなく Gateway WebSocket を介してサーバー上で実行します。これにより、より高速な処理が可能になり、クライアント側のリソース消費を削減できます。",
"features.gatewayMode.title": "サーバーサイドエージェント実行Gateway",
"features.groupChat.desc": "複数のAIアシスタントによるグループチャット機能を有効にします。",
"features.groupChat.title": "グループチャット(マルチアシスタント)",
"features.inputMarkdown.desc": "入力エリアでMarkdown太字、コードブロック、表などをリアルタイムでレンダリングします。",

View file

@ -20,6 +20,7 @@
"Baichuan4-Turbo.description": "中国国内でトップクラスの性能を誇り、知識、長文生成、創造的生成などの中国語タスクで海外の主要モデルを上回ります。業界最先端のマルチモーダル機能も備え、権威あるベンチマークで高評価を獲得しています。",
"Baichuan4.description": "中国国内で最高レベルの性能を持ち、百科事典的知識、長文生成、創造的生成などの中国語タスクで海外の主要モデルを上回ります。業界最先端のマルチモーダル機能と優れたベンチマーク結果も提供します。",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSSは、ByteDance Seedが開発したオープンソースのLLMファミリーで、長文処理、推論、エージェント、汎用能力に優れています。Seed-OSS-36B-Instructは、36Bの命令調整済みモデルで、超長文コンテキストにネイティブ対応し、大規模な文書やコードベースの処理に最適です。推論、コード生成、エージェントタスクツール使用に最適化され、汎用能力も維持しています。特徴的な「Thinking Budget」機能により、柔軟な推論長を実現し、効率を向上させます。",
"DeepSeek-OCR.description": "DeepSeek-OCR は、DeepSeek AI による OCR と「コンテキスト光学圧縮」に特化したビジョン・ランゲージモデルです。画像から文脈を圧縮して抽出し、文書を効率的に処理して構造化テキストMarkdownへ変換します。画像内文字の高精度認識に優れ、文書のデジタル化、テキスト抽出、構造化処理に適しています。",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1は、DeepSeekスイートの中でより大規模かつ高性能なモデルであり、Llama 70Bアーキテクチャに蒸留されています。ベンチマークと人間による評価により、特に数学や事実精度のタスクで、ベースのLlama 70Bよりも優れていることが示されています。",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Qwen2.5-Math-1.5BをベースにしたDeepSeek-R1蒸留モデル。強化学習とコールドスタートデータにより推論性能を最適化し、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てています。",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distillモデルは、DeepSeek-R1によって生成されたサンプルデータを用いて、オープンソースモデルから微調整されています。",
@ -30,6 +31,7 @@
"DeepSeek-V3-Fast.description": "提供元sophnet。DeepSeek V3 Fastは、DeepSeek V3 0324の高TPSバージョンで、フル精度非量子化により、コードと数学に強く、応答も高速です。",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fastは、DeepSeek V3.1の高TPS高速バリアントです。ハイブリッド思考モードにより、1つのモデルで思考と非思考の両方をサポート。ポストトレーニングにより、ツールとエージェントタスクの性能が向上しています。",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1の思考モード思考と非思考の両モードを備えた新しいハイブリッド推論モデルで、DeepSeek-R1-0528よりも効率的です。ポストトレーニングの最適化により、エージェントのツール使用とタスク性能が大幅に向上しています。",
"DeepSeek-V3.2.description": "deepseek-v3.2 はスパースアテンション機構を導入し、長文処理における学習と推論の効率を向上させています。また、deepseek-v3.1 より低価格で提供されます。",
"DeepSeek-V3.description": "DeepSeek-V3は、DeepSeekが開発したMoEモデルで、Qwen2.5-72BやLlama-3.1-405Bなどの他のオープンモデルを多くのベンチマークで上回り、GPT-4oやClaude 3.5 Sonnetなどの主要なクローズドモデルと競合します。",
"Doubao-lite-128k.description": "Doubao-lite は、超高速な応答と優れたコストパフォーマンスを提供し、さまざまなシナリオに柔軟に対応します。推論とファインチューニングに対応した128Kコンテキストをサポートします。",
"Doubao-lite-32k.description": "Doubao-lite は、超高速な応答と優れたコストパフォーマンスを提供し、さまざまなシナリオに柔軟に対応します。推論とファインチューニングに対応した32Kコンテキストをサポートします。",
@ -57,9 +59,9 @@
"GLM-4.5.description": "GLM-4.5: 推論、コーディング、エージェントタスク向けの高性能モデル。",
"GLM-4.6.description": "GLM-4.6: 前世代モデル。",
"GLM-4.7.description": "GLM-4.7は智譜の最新フラッグシップモデルで、エージェンティックコーディングシナリオ向けに強化され、コーディング能力、長期タスク計画、ツール連携が向上しています。",
"GLM-5-Turbo.description": "GLM-5-Turbo: コーディングタスク向けに推論速度を最適化したGLM-5の改良版。",
"GLM-5-Turbo.description": "GLM-5-Turbo はエージェントシナリオに最適化された基盤モデルです。学習段階からツール呼び出し、コマンド実行、長いタスクチェーン処理など、エージェントに必要な能力を強化しており、高性能なエージェントアシスタントの構築に最適です。",
"GLM-5.1.description": "GLM-5.1はZhipuの最新フラッグシップモデルであり、GLM-5の強化版です。複雑なシステムエンジニアリングや長期的なタスクにおけるエージェント工学能力が向上しています。",
"GLM-5.description": "GLM-5は智譜の次世代フラッグシップ基盤モデルで、エージェンティックエンジニアリング向けに特化されています。複雑なシステムエンジニアリングや長期的なエージェンティックタスクにおいて信頼性の高い生産性を提供します。コーディングとエージェント能力において、GLM-5はオープンソースモデルの中で最先端の性能を達成しています。",
"GLM-5.description": "GLM-5 は Zhipu の次世代フラッグシップ基盤モデルで、エージェント工学向けに設計されています。複雑なシステムエンジニアリングや長期的なエージェントタスクにおいて高い生産性を発揮します。コーディングやエージェント能力ではオープンソースモデルの中で最先端の性能を示し、実際のプログラミング環境では Claude Opus 4.5 に匹敵するユーザー体験を提供します。汎用エージェントアシスタントの基盤モデルとして理想的です。",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L213Bは、多様な分野と複雑なタスクに対応する革新的なモデルです。",
"HY-Image-V3.0.description": "強力なオリジナル画像の特徴抽出と詳細保持機能により、より豊かな視覚的テクスチャを提供し、高精度で構図の優れた、プロダクション品質のビジュアルを生成します。",
"HelloMeme.description": "HelloMeme は、提供された画像や動作からミーム、GIF、ショート動画を生成するAIツールです。絵を描くスキルやコーディングスキルは不要で、参照画像を用意するだけで、楽しく魅力的でスタイルの一貫したコンテンツを作成できます。",
@ -72,6 +74,11 @@
"InstantCharacter.description": "InstantCharacter は、Tencent AI により2025年にリリースされたチューニング不要のパーソナライズキャラクター生成モデルで、高忠実度かつシナリオを超えた一貫性のあるキャラクター生成を目指しています。1枚の参照画像からキャラクターをモデリングし、スタイル、動作、背景を柔軟に変換できます。",
"InternVL2-8B.description": "InternVL2-8B は、マルチモーダルな画像・テキスト処理をサポートする強力なビジョン・ランゲージモデルで、画像内容の正確な認識と関連する説明や回答の生成が可能です。",
"InternVL2.5-26B.description": "InternVL2.5-26B は、マルチモーダルな画像・テキスト処理をサポートする強力なビジョン・ランゲージモデルで、画像内容の正確な認識と関連する説明や回答の生成が可能です。",
"KAT-Coder-Air-V1.description": "KAT-Coder シリーズの軽量版で、エージェントコーディング向けに特化されています。多様なプログラミングタスクとシナリオを幅広くカバーし、大規模エージェント強化学習により知的行動の創発を実現し、同等モデルを大きく上回るコーディング性能を発揮します。",
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B は KAT-Coder シリーズの強化学習実験モデルで、SWE-Bench verified ベンチマークで 74.6% の記録的性能を達成し、オープンソースモデルの新記録を樹立しました。エージェントコーディングに特化しており、現在は SWE-Agent フレームワークのみをサポートしますが、簡単な対話にも利用できます。",
"KAT-Coder-Pro-V1.description": "エージェントコーディング向けに設計され、幅広いプログラミングシナリオとタスクをカバーします。大規模強化学習により知的行動を創発し、類似モデルを大きく上回るコード生成性能を実現します。",
"KAT-Coder-Pro-V2.description": "Kuaishou Kwaipilot チームによる最新の高性能モデルで、複雑な企業向けプロジェクトや SaaS 統合を想定して設計されています。コード関連シナリオに強く、Claude Code、OpenCode、KiloCode などの各種エージェントフレームワークに対応し、OpenClaw をネイティブサポートします。また、フロントエンドのデザイン美観にも特化して最適化されています。",
"Kimi-K2.5.description": "Kimi K2.5 は Kimi シリーズで最も高性能なモデルで、エージェントタスク、コーディング、画像理解においてオープンソース最先端性能を発揮します。マルチモーダル入力に対応し、思考モードと非思考モードの両方をサポートします。",
"Kolors.description": "Kolors は、Kuaishou Kolors チームによって開発されたテキストから画像への生成モデルで、数十億のパラメータで訓練され、視覚品質、中国語の意味理解、テキスト描画において顕著な強みを持ちます。",
"Kwai-Kolors/Kolors.description": "Kolors は、Kuaishou Kolors チームによる大規模潜在拡散型テキストから画像への生成モデルで、数十億のテキスト・画像ペアで訓練され、視覚品質、複雑な意味の正確性、中国語・英語のテキスト描画に優れ、中国語コンテンツの理解と生成に強みを持ちます。",
"Kwaipilot/KAT-Dev.description": "KAT-Dev32Bは、ソフトウェアエンジニアリングタスク向けのオープンソース32Bモデルで、SWE-Bench Verified において62.4%の解決率を達成し、オープンモデル中で第5位にランクインしています。中間訓練、SFT、RL によって最適化され、コード補完、バグ修正、コードレビューに対応します。",
@ -90,18 +97,18 @@
"Meta-Llama-3.2-3B-Instruct.description": "優れた言語理解、推論、テキスト生成能力を備えた最先端の小型言語モデルです。",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 は、最も高度な多言語対応のオープンソース Llama モデルで、非常に低コストで 405B に近い性能を発揮します。Transformer ベースで、SFT と RLHF により有用性と安全性が向上しています。命令調整版は多言語チャットに最適化され、業界ベンチマークで多くのオープン・クローズドモデルを上回ります。知識カットオフ2023年12月。",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick は、効率的なエキスパート活性化により強力な推論性能を実現する大規模 MoE モデルです。",
"MiMo-V2-Pro.description": "MiMo-V2-Pro は実世界の高負荷エージェントワークフロー向けに設計されています。総パラメータは 1 兆超42B アクティブ)で、革新的なハイブリッドアテンション構造を採用し、最大 100 万トークンの超長コンテキストをサポートします。強力な基盤モデルをもとに、幅広いエージェントシナリオで計算資源を拡張し、知能の行動範囲を拡大して、コーディングから実世界タスク実行「claw」まで高い汎化能力を発揮します。",
"MiniMax-Hailuo-02.description": "次世代ビデオ生成モデル「MiniMax Hailuo 02」が正式リリースされ、1080P解像度と10秒間のビデオ生成をサポート。",
"MiniMax-Hailuo-2.3-Fast.description": "身体動作、物理的リアリズム、指示追従性において全面的にアップグレードされた新しいビデオ生成モデル。",
"MiniMax-Hailuo-2.3.description": "身体動作、物理的リアリズム、指示追従性において全面的にアップグレードされた新しいビデオ生成モデル。",
"MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。",
"MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。",
"MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング機能を備え、推論がより高速かつ効率的。",
"MiniMax-M2.1-highspeed.description": "強力な多言語プログラミング機能を備え、プログラミング体験を包括的に向上。より高速かつ効率的です。",
"MiniMax-M2.1.description": "MiniMax-M2.1は、MiniMaxが開発したフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスク解決に特化しています。多言語プログラミング能力とエージェントとしての高度なタスク処理能力が主な強みです。",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5と同等の性能で推論速度が向上。",
"MiniMax-M2.5.description": "MiniMax-M2.5は、MiniMaxによるフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスクを解決することに焦点を当てています。その主な強みは、多言語プログラミング能力とエージェントとして複雑なタスクを解決する能力です。",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: M2.7と同等の性能で推論速度が大幅に向上。",
"MiniMax-M2.7.description": "MiniMax M2.7: 再帰的自己改善の旅を開始し、実世界のトップエンジニアリング能力を備えています。",
"MiniMax-M2.7.description": "自己進化型モデルの第一弾で、トップクラスのコーディング性能とエージェント能力を備え、約 60 tps の高速性能を発揮します。",
"MiniMax-M2.description": "MiniMax M2: 前世代モデル。",
"MiniMax-Text-01.description": "MiniMax-01は、従来のTransformerを超える大規模な線形アテンションを導入し、4560億のパラメータと1パスあたり45.9億のアクティブパラメータを持ちます。最大400万トークンのコンテキストをサポートしGPT-4oの32倍、Claude-3.5-Sonnetの20倍、最高水準の性能を実現します。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1はオープンウェイトの大規模ハイブリッドアテンション推論モデルで、総パラメータ数456B、トークンごとに約45.9Bがアクティブです。ネイティブで1Mコンテキストをサポートし、Flash Attentionを使用してDeepSeek R1に比べて100Kトークン生成時のFLOPsを75%削減します。MoEアーキテクチャにCISPOとハイブリッドアテンションRLトレーニングを組み合わせ、長い入力推論や実際のソフトウェアエンジニアリングタスクで優れた性能を発揮します。",
@ -129,6 +136,7 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 は、最新かつ最も高性能な Kimi K2 モデルです。1T の総パラメータと 32B のアクティブパラメータを持つ最上位の MoE モデルであり、エージェント型コーディング知能が強化され、ベンチマークおよび実世界のエージェントタスクにおいて大幅な性能向上を実現しています。さらに、フロントエンドのコード美学と使いやすさも改善されています。",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo は、K2 Thinking のマルチステップ推論とツール使用能力を維持しつつ、推論速度とスループットを最適化した Turbo バリアントです。約 1T の総パラメータを持つ MoE モデルで、ネイティブで 256K のコンテキスト長をサポートし、低レイテンシーかつ高同時実行性が求められる本番環境において安定した大規模ツール呼び出しが可能です。",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5は、Kimi-K2-Baseを基盤としたオープンソースのネイティブマルチモーダルエージェントモデルで、約1.5兆の視覚・テキストトークンで訓練されています。MoEアーキテクチャを採用し、総パラメータ数1兆、アクティブパラメータ数32B、256Kのコンテキストウィンドウをサポートし、視覚と言語の理解をシームレスに統合しています。",
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 は MoEMixture of Expertsアーキテクチャを採用した次世代フラッグシップモデルで、総パラメータは 754B に達します。プログラミング能力が大幅に強化され、SWE-Bench Pro では最先端の結果を達成し、NL2Repo や Terminal-Bench 2.0 などでも前世代を大きく上回ります。長時間にわたるエージェントタスク向けに設計され、曖昧な質問への判断精度が向上し、複雑タスクの分解、実験実行、結果分析、数百回の反復と数千回のツール呼び出しによる継続的最適化が可能です。",
"Pro/zai-org/glm-4.7.description": "GLM-4.7は智譜の新世代フラッグシップモデルで、総パラメータ355B、アクティブパラメータ32Bを持ち、一般的な対話、推論、エージェント能力が完全にアップグレードされています。GLM-4.7は交互思考を強化し、保存思考とターンレベル思考を導入しています。",
"Pro/zai-org/glm-5.description": "GLM-5は、複雑なシステムエンジニアリングと長期間のエージェントタスクに焦点を当てたZhipuの次世代大規模言語モデルです。モデルパラメータは7440億アクティブ40億に拡張され、DeepSeek Sparse Attentionを統合しています。",
"QwQ-32B-Preview.description": "Qwen QwQ は、推論能力の向上に焦点を当てた実験的研究モデルです。",
@ -189,6 +197,7 @@
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507は、高度な推論と指示追従に最適化されており、MoEMixture of Expertsを活用して大規模でも効率的な推論を実現します。",
"Qwen3-235B.description": "Qwen3-235B-A22Bは、思考モードと非思考モードをシームレスに切り替えられるハイブリッド推論モードを導入したMoEモデルです。119の言語と方言に対応した理解と推論をサポートし、ツール呼び出し機能にも優れています。DeepSeek R1、OpenAI o1、o3-mini、Grok 3、Google Gemini 2.5 Proなどの主流モデルと、一般能力、コード・数学、多言語対応、知識推論のベンチマークで競合します。",
"Qwen3-32B.description": "Qwen3-32Bは、思考モードと非思考モードを切り替え可能なハイブリッド推論モードを導入した高密度モデルです。アーキテクチャの改良、データの増強、トレーニングの最適化により、Qwen2.5-72Bと同等の性能を発揮します。",
"Qwen3.5-Plus.description": "Qwen3.5 Plus はテキスト、画像、動画入力に対応します。テキストタスクの性能は Qwen3 Max と同等で、より高性能かつ低コストです。マルチモーダル能力は Qwen3 VL シリーズより大幅に向上しています。",
"S2V-01.description": "01シリーズの基盤となる参照からビデオへの変換モデル。",
"SenseChat-128K.description": "128Kコンテキストに対応したBase V4モデルで、長文の理解と生成に優れています。",
"SenseChat-32K.description": "32Kコンテキストに対応したBase V4モデルで、さまざまなシナリオに柔軟に対応可能です。",
@ -310,20 +319,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も知的なHaikuモデルで、驚異的な速度と拡張された思考能力を備えています。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は Anthropic の Haiku モデルで最速かつ最も高性能なモデルで、非常に高速な応答と拡張推論を備えています。",
"claude-haiku-4.5.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も賢いHaikuモデルで、驚異的なスピードと高度な推論能力を備えています。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 は Anthropic の最新かつ最も高性能なモデルで、高度に複雑なタスクにおいて性能、知性、流暢さ、理解力のすべてで優れています。",
"claude-opus-4-20250514.description": "Claude Opus 4 は Anthropic の最強モデルで、高度に複雑なタスクにおいて性能、知性、流暢さ、理解力で卓越しています。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
"claude-opus-4-6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-opus-4-6.description": "Claude Opus 4.6 はエージェント構築やコーディングに最適化された Anthropic の最高知能モデルです。",
"claude-opus-4.5.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、最上級の知能とスケーラブルな性能を組み合わせ、複雑で高品質な推論タスクに対応します。",
"claude-opus-4.6-fast.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-opus-4.6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4は、Anthropicのこれまでで最も知的なモデルで、APIユーザー向けに即時応答またはステップバイステップの詳細な思考を提供します。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropicのこれまでで最も知的なモデルです。",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6は、速度と知性の最適な組み合わせを提供します。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、即時応答と可視化された段階的思考プロセスの両方に対応します。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 は Anthropic の過去最高の知能モデルです。",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 は速度と知性の最良バランスを提供します。",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5は、これまでで最も知的なAnthropicのモデルです。",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6は、スピードと知能の最適な組み合わせを実現したAnthropicのモデルです。",
"claude-sonnet-4.description": "Claude Sonnet 4は、ほぼ瞬時の応答や、ユーザーが確認できる段階的な推論を提供できます。APIユーザーは、モデルの思考時間を細かく制御することが可能です。",
@ -397,7 +406,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2は次世代推論モデルで、複雑な推論と連鎖的思考能力が強化されています。",
"deepseek-chat.description": "DeepSeek V3.2は、日常的なQAやエージェントタスクのために推論と出力の長さをバランスさせています。公開ベンチマークでGPT-5レベルに達し、ツール使用に思考を統合した初のモデルであり、オープンソースエージェント評価でリードしています。",
"deepseek-chat.description": "一般対話能力と高いコーディング性能を併せ持つ新しいオープンソースモデルです。チャットモデルの対話性とコーダーモデルの強力なコーディング能力を両立し、嗜好整合性が向上しています。DeepSeek-V2.5 では文章生成と指示追従も改善されています。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@ -420,7 +429,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinkingは、出力前に思考の連鎖を生成する深い推論モデルで、より高い精度を実現します。競争のトップ結果を達成し、Gemini-3.0-Proに匹敵する推論能力を持っています。",
"deepseek-reasoner.description": "DeepSeek V3.2 の思考モードでは、最終回答の前に推論過程Chain-of-Thoughtを生成し、精度を向上させます。",
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@ -523,8 +532,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
"ernie-x1.1.description": "ERNIE X1.1は評価とテスト用の思考モデルプレビューです。",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5は、ByteDance Seedチームによって構築され、マルチイメージ編集と構成をサポートします。被写体の一貫性、正確な指示の遵守、空間論理の理解、美的表現、ポスターのレイアウト、ロゴデザイン、高精度のテキスト画像レンダリングが強化されています。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedによって構築され、プロンプトからの高品質な画像生成を高度に制御可能にするテキストおよび画像入力をサポートします。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は ByteDance Seed の画像生成モデルで、テキストと画像入力に対応し、高品質で高い制御性のある画像を生成します。テキストプロンプトから画像を生成できます。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
@ -532,17 +540,15 @@
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
"fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味的および外観の編集、正確な中国語/英語のテキスト編集、スタイル転送、回転などをサポートします。",
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語のテキストレンダリングと多様な視覚スタイルに優れています。",
"fal-ai/qwen-image-edit.description": "Qwen チームのプロフェッショナル画像編集モデルで、意味編集・外観編集に対応し、中国語と英語のテキストを正確に編集できます。スタイル変換、物体の回転など高品質の編集も可能です。",
"fal-ai/qwen-image.description": "Qwen チームの強力な画像生成モデルで、中国語テキストの描画精度が高く、多様なビジュアルスタイルに対応します。",
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 14 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
"flux-dev.description": "非商用の研究開発向けに効率化されたオープンソース画像生成モデルです。",
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
"flux-kontext-pro.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
"flux-merged.description": "FLUX.1 [merged] は、「DEV」で探求された深層機能と「Schnell」の高速性を組み合わせ、性能の限界を拡張し、応用範囲を広げます。",
"flux-pro-1.1-ultra.description": "400 万画素の超高解像度画像を 10 秒で生成するモデルです。",
"flux-pro-1.1.description": "画像品質とプロンプトの精度に優れた、アップグレードされたプロフェッショナル画像生成モデルです。",
"flux-pro.description": "比類なき画像品質と多様な出力を誇る、商用向けの最高クラス画像生成モデルです。",
"flux-schnell.description": "FLUX.1 [schnell] は、最も高度なオープンソースの少ステップ画像生成モデルで、Midjourney v6.0 や DALL-E 3 (HD) などの強力な非蒸留モデルをも上回ります。事前学習の多様性を保持するよう精密に調整されており、視覚品質、指示追従性、サイズ・アスペクト比の変化、フォント処理、出力の多様性が大幅に向上しています。",
"flux.1-schnell.description": "FLUX.1-schnell は、高速かつ多様なスタイルの出力に対応する高性能画像生成モデルです。",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001チューニングは、複雑なタスクに対して安定かつ調整可能な性能を提供します。",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002チューニングは、複雑なタスクに対して強力なマルチモーダル対応を提供します。",
@ -575,10 +581,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
"gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Proは、Googleの画像生成モデルで、マルチモーダル対話もサポートします。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)は、Googleの画像生成モデルであり、マルチモーダルチャットもサポートします。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana Proは Google の画像生成モデルで、マルチモーダルチャットにも対応します。",
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash ImageNano Banana 2は、Googleの最速のネイティブ画像生成モデルで、思考サポート、対話型画像生成および編集を提供します。",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)は、プロレベルの画像品質をフラッシュ速度で提供し、マルチモーダルチャットをサポートします。",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash ImageNano Banana 2は Google の最速ネイティブ画像生成モデルで、思考モード、会話型画像生成、編集をサポートします。",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite PreviewはGoogleの最もコスト効率の高いマルチモーダルモデルで、大量のエージェントタスク、翻訳、データ処理に最適化されています。",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Previewは、Gemini 3 Proの推論能力を強化し、中程度の思考レベルサポートを追加しています。",
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
@ -806,7 +812,6 @@
"jamba-large.description": "Jamba Large は、複雑な企業向けタスクに対応する最も強力で高度なモデルです。",
"jamba-mini.description": "Jamba Mini は、速度と品質のバランスに優れた、同クラスで最も効率的なモデルです。",
"jina-deepsearch-v1.description": "DeepSearch は、ウェブ検索、読解、推論を組み合わせて徹底的な調査を行うエージェントのようなモデルです。調査タスクを受け取り、複数回の広範な検索を行った後に回答を生成します。継続的な調査と多角的な問題解決を行う点で、従来の LLM や一度きりの検索に依存する RAG システムとは根本的に異なります。",
"k2p5.description": "Kimi K2.5は、これまでで最も多用途なモデルであり、視覚とテキスト入力の両方をサポートするネイティブなマルチモーダルアーキテクチャ、「思考」モードと「非思考」モード、そして会話タスクとエージェントタスクの両方を備えています。",
"kimi-k2-0711-preview.description": "kimi-k2 は、強力なコーディングおよびエージェント機能を備えた MoE 基盤モデルです(総パラメータ数 1T、アクティブ 32B。推論、プログラミング、数学、エージェントベンチマークにおいて、他の主流のオープンモデルを上回る性能を発揮します。",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview は、256k のコンテキストウィンドウ、より強力なエージェント型コーディング、フロントエンドコードの品質向上、文脈理解の改善を提供します。",
"kimi-k2-instruct.description": "Kimi K2 Instruct は、コードやQAなどの長文コンテキストに対応した、Kimi公式の推論モデルです。",
@ -1234,8 +1239,6 @@
"qwq.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に難解な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと競合する中規模の推論モデルです。",
"qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。",
"r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDanceは、テキストからビデオ、画像からビデオ最初のフレーム、最初+最後のフレーム)、および視覚と同期した音声生成をサポートします。",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlusは、リアルタイム情報のためのウェブ検索強化生成、複雑なプロンプト解釈の向上、プロフェッショナルな視覚制作のための参照一貫性の向上を特徴とします。",
"solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。",
"solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。",
"solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。",
@ -1249,11 +1252,8 @@
"sora-2.description": "Sora 2は、新しい強力なメディア生成モデルで、音声と同期したビデオを生成します。自然言語または画像からリッチで詳細な動的クリップを作成できます。",
"spark-x.description": "X2機能概要: 1. `thinking`フィールドを介して推論モードの動的調整を導入。2. コンテキスト長の拡張: 64K入力トークンと128K出力トークン。3. Function Call機能をサポート。",
"stable-diffusion-3-medium.description": "Stability AI による最新のテキストから画像への変換モデルです。画像品質、テキスト理解、スタイルの多様性が大幅に向上し、複雑な自然言語プロンプトをより正確に解釈し、多様で精密な画像を生成します。",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo は、ADD敵対的拡散蒸留を stable-diffusion-3.5-large に適用し、高速化を実現しています。",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large は、800M パラメータの MMDiT テキスト画像変換モデルで、優れた品質とプロンプト整合性を持ち、1 メガピクセルの画像生成と一般的なハードウェアでの効率的な実行をサポートします。",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 は v1.2 チェックポイントから初期化され、「laion-aesthetics v2 5+」で 595k ステップのファインチューニングを行い、テキスト条件付けを 10% 減少させて分類器フリーガイダンスサンプリングを改善しています。",
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo は高品質な画像生成に特化し、精密なディテール描写と高いシーン再現性を備えています。",
"stable-diffusion-xl-base-1.0.description": "Stability AI によるオープンソースのテキスト画像変換モデルで、業界最高水準の創造的画像生成を実現します。高度な指示理解と、精密な生成のための逆プロンプト定義に対応しています。",
"stable-diffusion-xl.description": "stable-diffusion-xl は v1.5 から大幅に改善され、オープンなテキスト画像変換モデルの中でも最高水準の結果を実現します。3 倍の UNet バックボーン、画像品質向上のためのリファインメントモジュール、効率的なトレーニング技術が導入されています。",
"step-1-128k.description": "一般的なシナリオにおいて、性能とコストのバランスを実現します。",
"step-1-256k.description": "超長文コンテキスト処理に対応し、長文ドキュメントの分析に最適です。",
"step-1-32k.description": "中程度の長さの会話を幅広いシナリオでサポートします。",

View file

@ -2,6 +2,7 @@
"arguments.moreParams": "合計で{{count}}個のパラメーターがあります",
"arguments.title": "パラメーター一覧",
"builtins.lobe-activator.apiName.activateTools": "ツールをアクティブ化",
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} 件が見つかりません",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "利用可能なモデルを取得",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "利用可能なツールを取得",
"builtins.lobe-agent-builder.apiName.getConfig": "設定を取得",

View file

@ -33,7 +33,6 @@
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
"kimicodingplan.description": "Moonshot AIのKimi Codeは、K2.5を含むKimiモデルへのアクセスを提供します。",
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
"lobehub.description": "LobeHub Cloudは公式APIを使用してAIモデルにアクセスし、モデルトークンに紐づいたクレジットで使用量を測定します。",
"longcat.description": "LongCatは、Meituanが独自に開発した生成AIの大型モデルシリーズです。効率的な計算アーキテクチャと強力なマルチモーダル機能を通じて、企業内部の生産性を向上させ、革新的なアプリケーションを可能にすることを目的としています。",
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
"minimaxcodingplan.description": "MiniMaxトークンプランは、固定料金のサブスクリプションを通じてM2.7を含むMiniMaxモデルへのアクセスを提供します。",
@ -60,6 +59,7 @@
"spark.description": "iFLYTEK Sparkは、スマートハードウェア、医療、金融などの分野で革新を可能にする、強力な多言語AIを提供します。",
"stepfun.description": "Stepfunのモデルは、マルチモーダル処理と複雑な推論に優れ、長文コンテキスト理解や自律的な検索オーケストレーションに対応します。",
"straico.description": "Straicoは、テキスト、画像、音声の生成AIモデルを統合したワークスペースを提供することで、AIの統合を簡素化します。これにより、マーケター、起業家、そして愛好家が多様なAIツールにシームレスにアクセスできるようになります。",
"streamlake.description": "StreamLakeは、企業向けのモデルサービスおよびAIコンピューティングクラウドプラットフォームであり、高性能なモデル推論、低コストのモデルカスタマイズ、フルマネージドサービスを統合し、企業が基盤となるコンピューティングリソースの複雑さやコストを気にすることなく、AIアプリケーションのイベーションに専念できるよう支援します。",
"taichu.description": "Taichuは、CASIAと武漢AI研究所が開発した次世代マルチモーダルモデルで、マルチターンQA、文章生成、画像生成、3D理解、信号解析などに対応し、認知力と創造性を強化しています。",
"tencentcloud.description": "LLM Knowledge Engine Atomic Powerは、企業や開発者向けに、文書解析、分割、埋め込み、多ターンリライトなどのモジュール型サービスを通じて、カスタムAIソリューションを構築できるエンドツーエンドの知識QAを提供します。",
"togetherai.description": "Together AIは、革新的なモデル、高度なカスタマイズ、迅速なスケーリング、シンプルな導入により、企業ニーズに応える高性能AIを提供します。",

View file

@ -673,14 +673,19 @@
"settingSystemTools.title": "システムツール",
"settingSystemTools.tools.ag.desc": "The Silver Searcher - 高速なコード検索ツール",
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - AIエージェント向けヘッドレスブラウザー自動化CLI",
"settingSystemTools.tools.bun.desc": "Bun - 高速な JavaScript ランタイム兼パッケージマネージャー",
"settingSystemTools.tools.bunx.desc": "bunx - npm パッケージを実行するための Bun パッケージランナー",
"settingSystemTools.tools.fd.desc": "fd - 高速で使いやすい find の代替ツール",
"settingSystemTools.tools.find.desc": "Unix find - 標準的なファイル検索コマンド",
"settingSystemTools.tools.grep.desc": "GNU grep - 標準的なテキスト検索ツール",
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - LobeHub サービスの管理と接続を行うツール",
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight 検索(高速なインデックス検索)",
"settingSystemTools.tools.node.desc": "Node.js - JavaScript/TypeScript を実行するランタイム",
"settingSystemTools.tools.npm.desc": "npm - Node.js パッケージマネージャー、依存関係のインストール用",
"settingSystemTools.tools.pnpm.desc": "pnpm - 高速でディスク効率の良いパッケージマネージャー",
"settingSystemTools.tools.python.desc": "Python - プログラミング言語ランタイム",
"settingSystemTools.tools.rg.desc": "ripgrep - 非常に高速なテキスト検索ツール",
"settingSystemTools.tools.uv.desc": "uv - 非常に高速な Python パッケージマネージャー",
"settingTTS.openai.sttModel": "OpenAI 音声認識モデル",
"settingTTS.openai.title": "OpenAI",
"settingTTS.openai.ttsModel": "OpenAI 音声合成モデル",
@ -777,6 +782,9 @@
"systemAgent.inputCompletion.label": "モデル",
"systemAgent.inputCompletion.modelDesc": "入力の自動補完候補GitHub Copilotのゴーストテキストのようなものに使用されるモデル",
"systemAgent.inputCompletion.title": "入力自動補完エージェント",
"systemAgent.promptRewrite.label": "モデル",
"systemAgent.promptRewrite.modelDesc": "プロンプトを書き換える際に使用するモデルを指定します",
"systemAgent.promptRewrite.title": "プロンプトリライトエージェント",
"systemAgent.queryRewrite.label": "モデル",
"systemAgent.queryRewrite.modelDesc": "ユーザーの質問を最適化するために指定されたモデル",
"systemAgent.queryRewrite.title": "リソースライブラリ質問リライトアシスタント",
@ -843,31 +851,83 @@
"tab.uploadZip.desc": "ローカルの.zipまたは.skillファイルをアップロード",
"tab.usage": "使用状況",
"tools.add": "スキルを統合",
"tools.builtins.find-skills.description": "ユーザーが「X をどうやるの」や「X のスキルを探して」などと尋ねた際に、エージェントスキルを発見・インストールするのを支援します",
"tools.builtins.find-skills.title": "スキル検索",
"tools.builtins.groupName": "組み込み",
"tools.builtins.install": "インストール",
"tools.builtins.installed": "インストール済み",
"tools.builtins.lobe-activator.description": "ツールとスキルを発見して有効化します",
"tools.builtins.lobe-activator.title": "ツール & スキルアクティベーター",
"tools.builtins.lobe-agent-browser.description": "AI エージェント向けのブラウザ自動化 CLI。ナビゲーション、フォーム入力、クリック、スクリーンショット、データ取得、ログインフロー、E2E テストなど、Web や Electron 操作が必要なタスクに使用します。",
"tools.builtins.lobe-agent-browser.title": "エージェントブラウザー",
"tools.builtins.lobe-agent-builder.description": "エージェントのメタデータ、モデル設定、プラグイン、システムプロンプトを構成します",
"tools.builtins.lobe-agent-builder.title": "エージェントビルダー",
"tools.builtins.lobe-agent-documents.description": "エージェントスコープのドキュメントを管理(一覧、作成、読み取り、編集、削除、名称変更)し、読み込みルールを設定します",
"tools.builtins.lobe-agent-documents.title": "ドキュメント",
"tools.builtins.lobe-agent-management.description": "AI エージェントの作成、管理、オーケストレーションを行います",
"tools.builtins.lobe-agent-management.title": "エージェント管理",
"tools.builtins.lobe-artifacts.description": "インタラクティブなUIコンポーネント、データ可視化、チャート、SVGグラフィック、Webアプリケーションを生成し、リアルタイムでプレビューします。ユーザーが直接操作できるリッチなビジュアルコンテンツを作成します。",
"tools.builtins.lobe-artifacts.readme": "インタラクティブなUIコンポーネント、データビジュアライゼーション、チャート、SVGグラフィック、Webアプリケーションを生成し、リアルタイムでプレビューできます。ユーザーが直接操作できるリッチなビジュアルコンテンツを作成しましょう。",
"tools.builtins.lobe-artifacts.title": "アーティファクト",
"tools.builtins.lobe-brief.description": "進捗を報告し、結果を提示し、ユーザーの意思決定を求めます",
"tools.builtins.lobe-brief.title": "ブリーフツール",
"tools.builtins.lobe-calculator.description": "数学計算を行い、方程式を解き、記号式を扱います",
"tools.builtins.lobe-calculator.readme": "基本的な算術、代数方程式、微積分操作、記号数学をサポートする高度な数学計算機。基数変換、方程式の解法、微分、積分などを含みます。",
"tools.builtins.lobe-calculator.title": "計算機",
"tools.builtins.lobe-cloud-sandbox.description": "クラウド上の隔離環境でPython、JavaScript、TypeScriptのコードを実行します。シェルコマンドの実行、ファイル管理、正規表現によるコンテンツ検索、結果の安全なエクスポートが可能です。",
"tools.builtins.lobe-cloud-sandbox.readme": "Python、JavaScript、TypeScriptのコードを隔離されたクラウド環境で実行します。シェルコマンドの実行、ファイル管理、正規表現によるコンテンツ検索、結果の安全なエクスポートが可能です。",
"tools.builtins.lobe-cloud-sandbox.title": "クラウドサンドボックス",
"tools.builtins.lobe-creds.description": "認証、環境変数の注入、API 検証のためにユーザー認証情報を管理します。API キー、OAuth トークン、サードパーティ連携用の秘密情報などを扱います。",
"tools.builtins.lobe-creds.title": "認証情報",
"tools.builtins.lobe-cron.description": "指定時間に自動で実行されるスケジュールタスクを管理します。定期タスクの作成、更新、オン/オフ切替、監視を行います。",
"tools.builtins.lobe-cron.title": "スケジュールタスク",
"tools.builtins.lobe-group-agent-builder.description": "マルチエージェントグループのメタデータ、メンバー、共有コンテンツを構成します",
"tools.builtins.lobe-group-agent-builder.title": "グループエージェントビルダー",
"tools.builtins.lobe-group-management.description": "マルチエージェントグループの会話をオーケストレーションおよび管理します",
"tools.builtins.lobe-group-management.title": "グループ管理",
"tools.builtins.lobe-gtd.description": "GTDGetting Things Done手法を用いて目標を計画し、進捗を追跡します。戦略的な計画を立て、ステータス管理付きのToDoリストを作成し、長時間実行される非同期タスクを実行します。",
"tools.builtins.lobe-gtd.readme": "GTDGetting Things Done手法を用いて目標を計画し、進捗を追跡します。戦略的な計画を立て、ステータス管理付きのToDoリストを作成し、長時間実行される非同期タスクを実行できます。",
"tools.builtins.lobe-gtd.title": "GTDツール",
"tools.builtins.lobe-knowledge-base.description": "アップロードしたドキュメントやドメイン知識を、セマンティックベクター検索を通じて検索します。永続的で再利用可能なリファレンスとして利用できます。",
"tools.builtins.lobe-knowledge-base.title": "ナレッジベース",
"tools.builtins.lobe-local-system.description": "デスクトップ上のローカルファイルシステムにアクセスします。ファイルの読み書き、検索、整理が可能です。バックグラウンドタスク対応のシェルコマンド実行や、正規表現によるコンテンツ検索も行えます。",
"tools.builtins.lobe-local-system.readme": "デスクトップ上のローカルファイルシステムにアクセスします。ファイルの読み書き、検索、整理が可能です。バックグラウンドタスク対応のシェルコマンド実行や、正規表現によるコンテンツのgrepも行えます。",
"tools.builtins.lobe-local-system.title": "ローカルシステム",
"tools.builtins.lobe-message.description": "複数のメッセージングプラットフォームにおいて、統一されたインターフェースでメッセージの送信、読み取り、編集、管理を行います",
"tools.builtins.lobe-message.readme": "Discord、Telegram、Slack、Google Chat、IRC をサポートするクロスプラットフォームのメッセージングツール。メッセージ操作、リアクション、ピン留め、スレッド、チャンネル管理、投票などプラットフォーム固有機能を統合 API で提供します。",
"tools.builtins.lobe-message.title": "メッセージ",
"tools.builtins.lobe-notebook.description": "会話トピック内で永続的なドキュメントを作成・管理します。ート、レポート、記事、Markdownコンテンツを保存し、セッションをまたいでアクセス可能にします。",
"tools.builtins.lobe-notebook.readme": "会話トピックごとに永続的なドキュメントを作成・管理します。メモ、レポート、記事、Markdownコンテンツを保存し、セッションをまたいでアクセス可能にします。",
"tools.builtins.lobe-notebook.title": "ノートブック",
"tools.builtins.lobe-page-agent.description": "XML 構造のドキュメント内のノードを作成、読み取り、更新、削除します",
"tools.builtins.lobe-page-agent.readme": "ードレベルで精密な制御を行いながら、構造化ドキュメントを作成・編集できます。Markdown からの初期化、バッチ挿入/修正/削除、全文置換などをサポートします。",
"tools.builtins.lobe-page-agent.title": "ドキュメント編集",
"tools.builtins.lobe-remote-device.description": "リモートデスクトップデバイスの接続を検出および管理します",
"tools.builtins.lobe-remote-device.readme": "デスクトップデバイスへの接続を管理します。オンラインデバイスの一覧表示、リモート操作のためのデバイス有効化、接続状態の確認が可能です。",
"tools.builtins.lobe-remote-device.title": "リモートデバイス",
"tools.builtins.lobe-skill-store.description": "LobeHub マーケットプレイスからエージェントスキルを閲覧・インストールします。機能拡張や特定スキルの導入が必要な時に使用します。",
"tools.builtins.lobe-skill-store.title": "スキルストア",
"tools.builtins.lobe-skills.description": "再利用可能なスキルパッケージを有効化し、使用します",
"tools.builtins.lobe-skills.title": "スキル",
"tools.builtins.lobe-task.description": "依存関係とレビュー設定を備えたタスクの作成、一覧、編集、削除を行います",
"tools.builtins.lobe-task.title": "タスクツール",
"tools.builtins.lobe-topic-reference.description": "参照されたトピック会話からコンテキストを取得します",
"tools.builtins.lobe-topic-reference.title": "トピック参照",
"tools.builtins.lobe-user-interaction.description": "UI を通じてユーザーへ質問し、そのライフサイクル結果を観察します",
"tools.builtins.lobe-user-interaction.title": "ユーザーインタラクション",
"tools.builtins.lobe-user-memory.description": "あなたに関するパーソナライズされたナレッジベースを構築します。好みを記憶し、活動や体験を追跡し、個人情報を保存して、将来の会話で関連するコンテキストを呼び出します。",
"tools.builtins.lobe-user-memory.readme": "あなたに関するパーソナライズされたナレッジベースを構築します。好みを記憶し、活動や体験を追跡し、個人情報を保存し、将来の会話で関連するコンテキストを呼び出せます。",
"tools.builtins.lobe-user-memory.title": "メモリー",
"tools.builtins.lobe-web-browsing.description": "最新情報の Web 検索や Web ページのクロールを行い、コンテンツを抽出します。複数の検索エンジン、カテゴリ、期間をサポートします。",
"tools.builtins.lobe-web-browsing.readme": "最新情報の Web 検索や Web ページのクロールを実行します。複数検索エンジン、カテゴリ、期間指定をサポートし、包括的なリサーチが可能です。",
"tools.builtins.lobe-web-browsing.title": "Web ブラウジング",
"tools.builtins.lobe-web-onboarding.description": "制御されたエージェントランタイムにより Web オンボーディングフローを実行します",
"tools.builtins.lobe-web-onboarding.title": "Web オンボーディング",
"tools.builtins.lobehub.description": "CLI を通じて LobeHub プラットフォームを管理します — ナレッジベース、メモリ、エージェント、ファイル、検索、生成など。",
"tools.builtins.lobehub.title": "LobeHub",
"tools.builtins.notInstalled": "未インストール",
"tools.builtins.task.description": "タスク管理と実行を行います — CLI でタスクの作成、追跡、レビュー、完了が可能です。",
"tools.builtins.task.title": "タスク",
"tools.builtins.uninstall": "アンインストール",
"tools.builtins.uninstallConfirm.desc": "{{name}} をアンインストールしてもよろしいですか?このスキルは現在のエージェントから削除されます。",
"tools.builtins.uninstallConfirm.title": "{{name}} のアンインストール",
@ -949,12 +1009,16 @@
"tools.lobehubSkill.disconnectConfirm.title": "{{name}}を切断しますか?",
"tools.lobehubSkill.disconnected": "未接続",
"tools.lobehubSkill.error": "エラー",
"tools.lobehubSkill.providers.github.description": "GitHub は、バージョン管理とコラボレーションのためのプラットフォームで、開発者がコードリポジトリをホスト、レビュー、管理できます。",
"tools.lobehubSkill.providers.github.readme": "GitHub に接続して、リポジトリへのアクセス、Issue の作成と管理、プルリクエストのレビュー、コードコラボレーションを AI アシスタントとの自然な対話で行えます。",
"tools.lobehubSkill.providers.linear.description": "Linearは、高性能なチーム向けに設計された、モダンな課題追跡およびプロジェクト管理ツールです。より良いソフトウェアをより速く構築できます。",
"tools.lobehubSkill.providers.linear.readme": "Linearの機能をAIアシスタントに統合します。イシューの作成・更新、スプリントの管理、プロジェクト進捗の追跡、自然な会話による開発ワークフローの最適化が可能です。",
"tools.lobehubSkill.providers.microsoft.description": "Outlook カレンダーは、Microsoft Outlookに統合されたスケジューリングツールで、予定の作成、他者との会議の調整、時間とイベントの効果的な管理が可能です。",
"tools.lobehubSkill.providers.microsoft.readme": "Outlookカレンダーと連携してイベントの表示、作成、管理をシームレスに行います。会議のスケジューリング、空き時間の確認、リマインダーの設定、自然言語による時間調整が可能です。",
"tools.lobehubSkill.providers.twitter.description": "X旧Twitterは、リアルタイムの更新、ニュースの共有、投稿・返信・DMを通じてオーディエンスと交流できるソーシャルメディアプラットフォームです。",
"tools.lobehubSkill.providers.twitter.readme": "X旧Twitterと接続してツイートの投稿、タイムラインの管理、オーディエンスとの交流を行います。コンテンツの作成、投稿のスケジューリング、メンションの監視、会話型AIによるSNS運用が可能です。",
"tools.lobehubSkill.providers.vercel.description": "Vercel はフロントエンド開発者向けのクラウドプラットフォームで、Web アプリケーションを簡単にデプロイできるホスティングやサーバーレス機能を提供します。",
"tools.lobehubSkill.providers.vercel.readme": "Vercel に接続して、デプロイ管理、プロジェクト状況の監視、インフラ制御を行います。アプリのデプロイ、ビルドログの確認、環境変数の管理、スケール調整を会話形式で実行できます。",
"tools.notInstalled": "未インストール",
"tools.notInstalledWarning": "このスキルはまだインストールされておらず、アシスタントの使用に影響する可能性があります",
"tools.plugins.enabled": "{{num}} が有効",

View file

@ -97,6 +97,9 @@
"credits.topUp.upgradePrefix": "アップグレードして",
"credits.topUp.upgradeSuffix": "${{savings}} 節約",
"credits.topUp.validityInfo": "{{months}} ヶ月の有効期間",
"crossPlatform.desc": "このサブスクリプションはモバイルアプリを通じて購入されたため、ここでは変更できません。モバイルデバイスでサブスクリプションを管理してください。",
"crossPlatform.manageOnMobile": "モバイルデバイスで管理",
"crossPlatform.title": "クロスプラットフォームサブスクリプション",
"currentPlan.cancelAlert": "{{canceledAt}} にサブスクリプションがキャンセルされます。それまでは「サブスクリプション管理」で復元可能です",
"currentPlan.downgradeAlert": "{{downgradedAt}} に {{plan}} にダウングレードされます。",
"currentPlan.management": "サブスクリプション管理",

View file

@ -8,11 +8,14 @@
"config.imageUrl.label": "開始フレーム",
"config.prompt.placeholder": "生成したいビデオの内容を説明してください",
"config.prompt.placeholderWithRef": "生成したい画像のシーンを説明してください",
"config.promptExtend.label": "プロンプト拡張",
"config.referenceImage.label": "参照画像",
"config.resolution.label": "解像度",
"config.seed.label": "シード値",
"config.seed.random": "ランダム",
"config.size.label": "サイズ",
"config.watermark.label": "ウォーターマーク",
"config.webSearch.label": "ウェブ検索",
"generation.actions.copyError": "エラーメッセージをコピー",
"generation.actions.errorCopied": "エラーメッセージをクリップボードにコピーしました",
"generation.actions.errorCopyFailed": "エラーメッセージのコピーに失敗しました",

View file

@ -22,6 +22,10 @@
"channel.connectSuccess": "봇 연결 성공",
"channel.connecting": "연결 중...",
"channel.connectionConfig": "연결 구성",
"channel.connectionMode": "연결 모드",
"channel.connectionModeHint": "새로운 봇에는 WebSocket을 권장합니다. 이미 QQ 오픈 플랫폼에서 콜백 URL이 설정된 경우 Webhook을 사용하세요.",
"channel.connectionModeWebSocket": "WebSocket",
"channel.connectionModeWebhook": "Webhook",
"channel.copied": "클립보드에 복사됨",
"channel.copy": "복사",
"channel.credentials": "자격 증명",
@ -57,6 +61,8 @@
"channel.endpointUrlHint": "이 URL을 복사하여 {{name}} 개발자 포털의 <bold>{{fieldName}}</bold> 필드에 붙여넣으세요.",
"channel.exportConfig": "구성 내보내기",
"channel.feishu.description": "이 어시스턴트를 Feishu에 연결하여 개인 및 그룹 채팅을 사용할 수 있습니다.",
"channel.feishu.webhookMigrationDesc": "WebSocket 모드는 퍼블릭 콜백 URL 없이도 실시간 이벤트를 제공할 수 있습니다. 마이그레이션하려면 고급 설정에서 연결 모드를 WebSocket으로 변경하세요. Feishu/Lark 오픈 플랫폼에서 추가 설정은 필요하지 않습니다.",
"channel.feishu.webhookMigrationTitle": "WebSocket 모드로의 전환을 고려하세요",
"channel.historyLimit": "히스토리 메시지 제한",
"channel.historyLimitHint": "채널 히스토리를 읽을 때 기본적으로 가져올 메시지 수",
"channel.importConfig": "구성 가져오기",
@ -71,6 +77,8 @@
"channel.publicKeyPlaceholder": "상호작용 검증에 필요",
"channel.qq.appIdHint": "QQ 오픈 플랫폼에서 제공된 QQ 봇 앱 ID를 입력하세요.",
"channel.qq.description": "이 어시스턴트를 QQ에 연결하여 그룹 채팅 및 직접 메시지를 이용하세요.",
"channel.qq.webhookMigrationDesc": "WebSocket 모드는 콜백 URL 없이도 실시간 이벤트 전달과 자동 재연결 기능을 제공합니다. 마이그레이션하려면 QQ 오픈 플랫폼에서 콜백 URL을 설정하지 않은 새 봇을 생성한 뒤, 고급 설정에서 연결 모드를 WebSocket으로 변경하세요.",
"channel.qq.webhookMigrationTitle": "WebSocket 모드로의 전환을 고려하세요",
"channel.removeChannel": "채널 제거",
"channel.removeFailed": "채널 제거 실패",
"channel.removed": "채널이 제거되었습니다",
@ -93,7 +101,11 @@
"channel.signingSecret": "서명 비밀키",
"channel.signingSecretHint": "웹훅 요청을 검증하는 데 사용됩니다.",
"channel.slack.appIdHint": "Slack API 대시보드에서 제공된 Slack App ID (A로 시작).",
"channel.slack.appToken": "앱 레벨 토큰",
"channel.slack.appTokenHint": "Socket Mode(WebSocket)를 사용하려면 필요합니다. Slack 앱 설정의 기본 정보(Basic Information)에서 앱 레벨 토큰(xapp-...)을 생성하세요.",
"channel.slack.description": "이 어시스턴트를 Slack에 연결하여 채널 대화 및 직접 메시지를 지원합니다.",
"channel.slack.webhookMigrationDesc": "Socket Mode는 퍼블릭 HTTP 엔드포인트를 노출하지 않고도 WebSocket을 통해 실시간 이벤트를 제공합니다. 마이그레이션하려면 Slack 앱 설정에서 Socket Mode를 활성화하고 앱 레벨 토큰을 생성한 뒤, 고급 설정에서 연결 모드를 WebSocket으로 변경하세요.",
"channel.slack.webhookMigrationTitle": "Socket Mode(WebSocket)로의 전환을 고려하세요",
"channel.telegram.description": "이 어시스턴트를 Telegram에 연결하여 개인 및 그룹 채팅을 사용할 수 있습니다.",
"channel.testConnection": "연결 테스트",
"channel.testFailed": "연결 테스트 실패",

View file

@ -42,6 +42,11 @@
"confirmRemoveGroupSuccess": "그룹이 삭제되었습니다",
"confirmRemoveSessionItemAlert": "이 도우미를 삭제하시겠습니까? 삭제 후 복구할 수 없습니다",
"confirmRemoveSessionSuccess": "도우미가 삭제되었습니다",
"createModal.createBlank": "빈 항목 만들기",
"createModal.groupPlaceholder": "이 그룹이 수행해야 할 작업을 설명하세요...",
"createModal.groupTitle": "그룹이 무엇을 해야 하나요?",
"createModal.placeholder": "에이전트가 수행해야 할 작업을 설명하세요...",
"createModal.title": "에이전트가 무엇을 해야 하나요?",
"defaultAgent": "사용자 정의 도우미",
"defaultGroupChat": "그룹",
"defaultList": "기본 목록",
@ -229,6 +234,7 @@
"operation.contextCompression": "컨텍스트가 너무 길어 기록을 압축합니다...",
"operation.execAgentRuntime": "응답 준비 중",
"operation.execClientTask": "작업 실행 중",
"operation.execServerAgentRuntime": "실행 중… 다른 작업으로 전환하거나 페이지를 닫아도 작업은 계속 진행됩니다.",
"operation.sendMessage": "메시지 전송 중",
"owner": "그룹 소유자",
"pageCopilot.title": "문서 코파일럿",
@ -382,6 +388,7 @@
"task.status.fetchingDetails": "세부 정보를 불러오는 중...",
"task.status.initializing": "작업 시작 중…",
"task.subtask": "하위 작업",
"task.title": "작업",
"thread.divider": "하위 주제",
"thread.threadMessageCount": "{{messageCount}}개의 메시지",
"thread.title": "하위 주제",
@ -429,9 +436,11 @@
"toolAuth.title": "도우미의 기능 승인을 완료하세요",
"topic.checkOpenNewTopic": "새 주제를 열겠습니까?",
"topic.checkSaveCurrentMessages": "현재 대화를 주제로 저장하시겠습니까?",
"topic.defaultTitle": "제목 없음 주제",
"topic.openNewTopic": "새 주제 열기",
"topic.recent": "최근 주제",
"topic.saveCurrentMessages": "주제로 저장",
"topic.viewAll": "모든 주제 보기",
"translate.action": "번역",
"translate.clear": "번역 삭제",
"tts.action": "음성 읽기",

View file

@ -343,10 +343,19 @@
"mail.support": "이메일 지원",
"more": "더보기",
"navPanel.agent": "도우미",
"navPanel.customizeSidebar": "사이드바 사용자 지정",
"navPanel.displayItems": "항목 표시",
"navPanel.hidden": "숨김",
"navPanel.hideSection": "섹션 숨기기",
"navPanel.library": "자료실",
"navPanel.moveDown": "아래로 이동",
"navPanel.moveUp": "위로 이동",
"navPanel.pinned": "고정됨",
"navPanel.searchAgent": "도우미 검색…",
"navPanel.searchRecent": "최근 검색...",
"navPanel.searchResultEmpty": "검색 결과가 없습니다",
"navPanel.show": "표시",
"navPanel.visible": "표시됨",
"new": "새로운",
"noContent": "내용이 없습니다",
"oauth": "SSO 로그인",
@ -362,6 +371,12 @@
"productHunt.actionLabel": "응원하기",
"productHunt.description": "Product Hunt에서 저희를 응원해 주세요. 여러분의 응원이 큰 힘이 됩니다!",
"productHunt.title": "우리는 Product Hunt에 있어요!",
"promptTransform.action": "아이디어 다듬기",
"promptTransform.actions.rewrite": "세부 정보 확장",
"promptTransform.actions.translate": "번역",
"promptTransform.status.rewrite": "세부 정보를 확장하는 중...",
"promptTransform.status.translate": "번역 중...",
"recents": "최근 항목",
"regenerate": "다시 생성",
"releaseNotes": "버전 정보",
"rename": "이름 변경",
@ -400,6 +415,7 @@
"tab.audio": "오디오",
"tab.chat": "채팅",
"tab.community": "커뮤니티",
"tab.create": "생성",
"tab.discover": "탐색",
"tab.eval": "평가 연구소",
"tab.files": "파일",

Some files were not shown because too many files have changed in this diff Show more