mirror of
https://github.com/lobehub/lobehub
synced 2026-04-21 17:47:27 +00:00
🔨 fix: layout sidebar en More (#13723)
* fix: layout sidebar en More * chore: update i18n files
This commit is contained in:
parent
17b3acead6
commit
5d135b3ae1
172 changed files with 2281 additions and 538 deletions
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "تم الاتصال بالروبوت بنجاح",
|
||||
"channel.connecting": "جارٍ الاتصال...",
|
||||
"channel.connectionConfig": "إعدادات الاتصال",
|
||||
"channel.connectionMode": "وضع الاتصال",
|
||||
"channel.connectionModeHint": "يُفضَّل استخدام WebSocket للروبوتات الجديدة. استخدم Webhook إذا كان روبوتك يحتوي بالفعل على عنوان URL مُعدّ لرد النداء على منصة QQ المفتوحة.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "تم النسخ إلى الحافظة",
|
||||
"channel.copy": "نسخ",
|
||||
"channel.credentials": "بيانات الاعتماد",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "يرجى نسخ هذا العنوان ولصقه في الحقل <bold>{{fieldName}}</bold> في بوابة مطوري {{name}}.",
|
||||
"channel.exportConfig": "تصدير التكوين",
|
||||
"channel.feishu.description": "قم بتوصيل هذا المساعد بـ Feishu للدردشة الخاصة والجماعية.",
|
||||
"channel.feishu.webhookMigrationDesc": "يوفّر وضع WebSocket تسليمًا فوريًا للأحداث دون الحاجة إلى عنوان URL عام لرد النداء. للانتقال، قم بتغيير وضع الاتصال إلى WebSocket في الإعدادات المتقدمة. لا يلزم أي إعداد إضافي على منصة Feishu/Lark المفتوحة.",
|
||||
"channel.feishu.webhookMigrationTitle": "النظر في الترقية إلى وضع WebSocket",
|
||||
"channel.historyLimit": "حد رسائل السجل",
|
||||
"channel.historyLimitHint": "العدد الافتراضي للرسائل التي يتم جلبها عند قراءة سجل القناة",
|
||||
"channel.importConfig": "استيراد التكوين",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "مطلوب للتحقق من التفاعل",
|
||||
"channel.qq.appIdHint": "معرّف تطبيق QQ Bot الخاص بك من منصة QQ المفتوحة",
|
||||
"channel.qq.description": "قم بتوصيل هذا المساعد بـ QQ للمحادثات الجماعية والرسائل المباشرة.",
|
||||
"channel.qq.webhookMigrationDesc": "يوفّر وضع WebSocket تسليمًا فوريًا للأحداث وإعادة اتصال تلقائية دون الحاجة إلى عنوان URL لرد النداء. للانتقال، أنشئ روبوتًا جديدًا على منصة QQ المفتوحة دون إعداد عنوان URL لرد النداء، ثم غيّر وضع الاتصال إلى WebSocket في الإعدادات المتقدمة.",
|
||||
"channel.qq.webhookMigrationTitle": "النظر في الترقية إلى وضع WebSocket",
|
||||
"channel.removeChannel": "إزالة القناة",
|
||||
"channel.removeFailed": "فشل في إزالة القناة",
|
||||
"channel.removed": "تمت إزالة القناة",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "سر التوقيع",
|
||||
"channel.signingSecretHint": "يُستخدم للتحقق من طلبات الويب هوك.",
|
||||
"channel.slack.appIdHint": "معرف تطبيق Slack الخاص بك من لوحة تحكم API Slack (يبدأ بـ A).",
|
||||
"channel.slack.appToken": "رمز على مستوى التطبيق",
|
||||
"channel.slack.appTokenHint": "مطلوب لوضع Socket Mode (WebSocket). أنشئ رمزًا على مستوى التطبيق (xapp-...) من قسم المعلومات الأساسية في إعدادات تطبيق Slack الخاص بك.",
|
||||
"channel.slack.description": "قم بتوصيل هذا المساعد بـ Slack للمحادثات القنوية والرسائل المباشرة.",
|
||||
"channel.slack.webhookMigrationDesc": "يوفّر وضع Socket Mode تسليمًا فوريًا للأحداث عبر WebSocket دون الحاجة إلى تعريض نقطة نهاية HTTP عامة. للانتقال، فعّل Socket Mode في إعدادات تطبيق Slack، وأنشئ رمزًا على مستوى التطبيق، ثم غيّر وضع الاتصال إلى WebSocket في الإعدادات المتقدمة.",
|
||||
"channel.slack.webhookMigrationTitle": "النظر في الترقية إلى وضع Socket Mode (WebSocket)",
|
||||
"channel.telegram.description": "قم بتوصيل هذا المساعد بـ Telegram للدردشة الخاصة والجماعية.",
|
||||
"channel.testConnection": "اختبار الاتصال",
|
||||
"channel.testFailed": "فشل اختبار الاتصال",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "تم حذف المجموعة بنجاح",
|
||||
"confirmRemoveSessionItemAlert": "أنت على وشك حذف هذا الوكيل. بمجرد الحذف، لا يمكن استعادته. يرجى تأكيد الإجراء.",
|
||||
"confirmRemoveSessionSuccess": "تم حذف الوكيل بنجاح",
|
||||
"createModal.createBlank": "إنشاء صفحة فارغة",
|
||||
"createModal.groupPlaceholder": "صِف ما ينبغي أن يقوم به هذا الفريق...",
|
||||
"createModal.groupTitle": "ما الذي ينبغي أن يقوم به فريقك؟",
|
||||
"createModal.placeholder": "صِف ما ينبغي أن يقوم به وكيلك...",
|
||||
"createModal.title": "ما الذي ينبغي أن يقوم به وكيلك؟",
|
||||
"defaultAgent": "الوكيل الافتراضي",
|
||||
"defaultGroupChat": "مجموعة",
|
||||
"defaultList": "القائمة الافتراضية",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "السياق طويل جدًا، يتم ضغط السجل...",
|
||||
"operation.execAgentRuntime": "جارٍ تحضير الرد",
|
||||
"operation.execClientTask": "تنفيذ المهمة",
|
||||
"operation.execServerAgentRuntime": "قيد التنفيذ… يمكنك تغيير المهام أو إغلاق الصفحة — ستستمر المهمة بالعمل.",
|
||||
"operation.sendMessage": "جارٍ إرسال الرسالة",
|
||||
"owner": "مالك المجموعة",
|
||||
"pageCopilot.title": "وكيل الصفحة",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "جارٍ جلب التفاصيل...",
|
||||
"task.status.initializing": "جارٍ تهيئة المهمة...",
|
||||
"task.subtask": "مهمة فرعية",
|
||||
"task.title": "المهام",
|
||||
"thread.divider": "موضوع فرعي",
|
||||
"thread.threadMessageCount": "{{messageCount}} رسالة",
|
||||
"thread.title": "موضوع فرعي",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "تفويض المهارات لهذا الوكيل",
|
||||
"topic.checkOpenNewTopic": "هل تريد بدء موضوع جديد؟",
|
||||
"topic.checkSaveCurrentMessages": "هل تريد حفظ المحادثة الحالية كموضوع؟",
|
||||
"topic.defaultTitle": "موضوع بدون عنوان",
|
||||
"topic.openNewTopic": "فتح موضوع جديد",
|
||||
"topic.recent": "المواضيع الأخيرة",
|
||||
"topic.saveCurrentMessages": "حفظ الجلسة الحالية كموضوع",
|
||||
"topic.viewAll": "عرض جميع المواضيع",
|
||||
"translate.action": "ترجمة",
|
||||
"translate.clear": "مسح الترجمة",
|
||||
"tts.action": "تحويل النص إلى كلام",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "دعم عبر البريد الإلكتروني",
|
||||
"more": "المزيد",
|
||||
"navPanel.agent": "الوكيل",
|
||||
"navPanel.customizeSidebar": "تخصيص الشريط الجانبي",
|
||||
"navPanel.displayItems": "عناصر العرض",
|
||||
"navPanel.hidden": "مخفي",
|
||||
"navPanel.hideSection": "إخفاء القسم",
|
||||
"navPanel.library": "المكتبة",
|
||||
"navPanel.moveDown": "نقل لأسفل",
|
||||
"navPanel.moveUp": "نقل لأعلى",
|
||||
"navPanel.pinned": "مثبّت",
|
||||
"navPanel.searchAgent": "بحث عن وكيل...",
|
||||
"navPanel.searchRecent": "البحث في الأخير...",
|
||||
"navPanel.searchResultEmpty": "لم يتم العثور على نتائج",
|
||||
"navPanel.show": "إظهار",
|
||||
"navPanel.visible": "مرئي",
|
||||
"new": "جديد",
|
||||
"noContent": "لا يوجد محتوى",
|
||||
"oauth": "تسجيل الدخول الموحد",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "ادعمنا",
|
||||
"productHunt.description": "ادعمنا على Product Hunt. دعمك يعني لنا الكثير!",
|
||||
"productHunt.title": "نحن على Product Hunt!",
|
||||
"promptTransform.action": "تنقية الفكرة",
|
||||
"promptTransform.actions.rewrite": "توسيع التفاصيل",
|
||||
"promptTransform.actions.translate": "ترجمة",
|
||||
"promptTransform.status.rewrite": "جارٍ توسيع التفاصيل...",
|
||||
"promptTransform.status.translate": "جارٍ الترجمة...",
|
||||
"recents": "العناصر الأخيرة",
|
||||
"regenerate": "إعادة التوليد",
|
||||
"releaseNotes": "تفاصيل الإصدار",
|
||||
"rename": "إعادة التسمية",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "الصوت",
|
||||
"tab.chat": "الدردشة",
|
||||
"tab.community": "المجتمع",
|
||||
"tab.create": "إنشاء",
|
||||
"tab.discover": "اكتشف",
|
||||
"tab.eval": "مختبر التقييم",
|
||||
"tab.files": "الملفات",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "النموذج",
|
||||
"config.prompt.placeholder": "صف ما ترغب في إنشائه",
|
||||
"config.prompt.placeholderWithRef": "وصف كيف تريد تعديل الصورة",
|
||||
"config.promptExtend.label": "توسيع المطلب",
|
||||
"config.quality.label": "جودة الصورة",
|
||||
"config.quality.options.hd": "عالية الدقة",
|
||||
"config.quality.options.standard": "قياسية",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "الحجم",
|
||||
"config.steps.label": "الخطوات",
|
||||
"config.title": "الإعدادات",
|
||||
"config.watermark.label": "علامة مائية",
|
||||
"config.webSearch.label": "بحث ويب",
|
||||
"config.width.label": "العرض",
|
||||
"generation.actions.applySeed": "تطبيق البذرة",
|
||||
"generation.actions.copyError": "نسخ رسالة الخطأ",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "تجميع رسائل الوكيل ونتائج استدعاء الأدوات معًا للعرض",
|
||||
"features.assistantMessageGroup.title": "تجميع رسائل الوكيل",
|
||||
"features.gatewayMode.desc": "تنفيذ مهام الوكيل على الخادم عبر بوابة WebSocket بدلًا من التشغيل محليًا، مما يتيح تنفيذًا أسرع ويقلل من استهلاك موارد العميل.",
|
||||
"features.gatewayMode.title": "تنفيذ الوكيل من جانب الخادم (البوابة)",
|
||||
"features.groupChat.desc": "تمكين تنسيق الدردشة الجماعية متعددة الوكلاء.",
|
||||
"features.groupChat.title": "دردشة جماعية (متعددة الوكلاء)",
|
||||
"features.inputMarkdown.desc": "عرض Markdown في منطقة الإدخال في الوقت الفعلي (نص عريض، كتل الشيفرة، جداول، إلخ).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "نموذج رائد في الصين، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة، النصوص الطويلة، والتوليد الإبداعي. كما يتميز بقدرات متعددة الوسائط رائدة في الصناعة ونتائج قوية في المعايير الموثوقة.",
|
||||
"Baichuan4.description": "أداء محلي رائد، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والتوليد الإبداعي. كما يقدم قدرات متعددة الوسائط رائدة ونتائج قوية في المعايير.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS هي عائلة من النماذج مفتوحة المصدر من ByteDance Seed، مصممة للتعامل مع السياقات الطويلة، والاستدلال، والمهام العامة. Seed-OSS-36B-Instruct هو نموذج موجه بالتعليم يحتوي على 36 مليار معلمة مع دعم أصلي للسياقات الطويلة جدًا لمعالجة المستندات الكبيرة أو قواعد الشيفرة. يتميز بقدرات قوية في الاستدلال وتوليد الشيفرة واستخدام الأدوات. من أبرز ميزاته \"ميزانية التفكير\" التي تسمح بطول استدلال مرن لتحسين الكفاءة.",
|
||||
"DeepSeek-OCR.description": "يعد DeepSeek-OCR نموذج رؤية-لغة من DeepSeek AI يركز على التعرف البصري على الحروف و\"الضغط السياقي البصري\". يستكشف ضغط السياق المستخرج من الصور، ويعالج المستندات بكفاءة، ويحوّلها إلى نص منظم (مثل Markdown). يقدّم دقة عالية في التعرف على النص داخل الصور، مما يجعله مناسباً لرقمنة المستندات واستخراج النصوص والمعالجة الهيكلية.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "تم تقطير DeepSeek R1، النموذج الأكبر والأذكى في مجموعة DeepSeek، إلى بنية Llama 70B. تُظهر المعايير والتقييمات البشرية أنه أذكى من Llama 70B الأساسي، خاصة في مهام الرياضيات ودقة الحقائق.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "نموذج مقطر من DeepSeek-R1 يعتمد على Qwen2.5-Math-1.5B. يعمل التعلم المعزز وبيانات البداية الباردة على تحسين أداء الاستدلال، مما يضع معايير جديدة للمهام المتعددة في النماذج المفتوحة.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "نماذج DeepSeek-R1-Distill مدربة بدقة من نماذج مفتوحة المصدر باستخدام بيانات عينة تم إنشاؤها بواسطة DeepSeek-R1.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "المزود: sophnet. DeepSeek V3 Fast هو الإصدار عالي السرعة من DeepSeek V3 0324، بدقة كاملة (غير مضغوطة) مع أداء أقوى في البرمجة والرياضيات واستجابات أسرع.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast هو الإصدار السريع عالي السرعة من DeepSeek V3.1. وضع تفكير هجين: من خلال قوالب الدردشة، يدعم نموذج واحد كلاً من أوضاع التفكير وغير التفكير. استخدام أدوات أذكى: التحسينات بعد التدريب تعزز أداء المهام التي تتطلب أدوات ووكلاء.",
|
||||
"DeepSeek-V3.1-Think.description": "وضع التفكير في DeepSeek-V3.1: نموذج استدلال هجين جديد يدعم أوضاع التفكير وغير التفكير، أكثر كفاءة من DeepSeek-R1-0528. التحسينات بعد التدريب تعزز بشكل كبير استخدام الأدوات وأداء المهام التي تتطلب وكلاء.",
|
||||
"DeepSeek-V3.2.description": "يقدم deepseek-v3.2 آلية انتباه متفرّق تهدف إلى تحسين كفاءة التدريب والاستدلال عند معالجة النصوص الطويلة، مع كلفة أقل مقارنة بـ deepseek-v3.1.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE تم تطويره بواسطة DeepSeek. يتفوق على نماذج مفتوحة أخرى مثل Qwen2.5-72B وLlama-3.1-405B في العديد من المعايير، ويتنافس مع النماذج المغلقة الرائدة مثل GPT-4o وClaude 3.5 Sonnet.",
|
||||
"Doubao-lite-128k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 128K للاستدلال والتدريب الدقيق.",
|
||||
"Doubao-lite-32k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 32K للاستدلال والتدريب الدقيق.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: نموذج عالي الأداء للمنطق، البرمجة، ومهام الوكلاء.",
|
||||
"GLM-4.6.description": "GLM-4.6: نموذج الجيل السابق.",
|
||||
"GLM-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، معزز لسيناريوهات البرمجة الوكيلية مع تحسين قدرات البرمجة، تخطيط المهام طويلة الأمد، والتعاون مع الأدوات.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: إصدار محسن من GLM-5 مع استدلال أسرع لمهام البرمجة.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo هو نموذج أساس مُحسَّن بعمق لسيناريوهات الوكلاء. تم تحسينه خصيصاً لتلبية المتطلبات الأساسية لمهام الوكلاء منذ مرحلة التدريب، مما يعزز القدرات الأساسية مثل استدعاء الأدوات، تنفيذ الأوامر، وسلاسل التنفيذ الطويلة. وهو مثالي لبناء مساعدين ذكيين عاليي الأداء.",
|
||||
"GLM-5.1.description": "GLM-5.1 هو أحدث نموذج رائد من Zhipu، وهو نسخة محسّنة من GLM-5 مع قدرات هندسية وكيلة محسّنة لأنظمة الهندسة المعقدة والمهام طويلة الأمد.",
|
||||
"GLM-5.description": "GLM-5 هو نموذج الأساس الرائد من الجيل التالي لـ Zhipu، مصمم خصيصًا للهندسة الوكيلية. يوفر إنتاجية موثوقة في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة الأمد. في قدرات البرمجة والوكلاء، يحقق GLM-5 أداءً رائدًا بين النماذج مفتوحة المصدر.",
|
||||
"GLM-5.description": "GLM-5 هو نموذج الجيل القادم الأساسي من شركة Zhipu، مصمّم خصيصاً لهندسة الوكلاء. يقدّم إنتاجية موثوقة في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة الأمد. في قدرات البرمجة والوكلاء، يحقق GLM-5 أداءً رائداً بين النماذج مفتوحة المصدر. وفي سيناريوهات البرمجة الواقعية، يقترب في تجربة المستخدم من Claude Opus 4.5. يتفوق في هندسة الأنظمة المعقدة ومهام الوكلاء طويلة المدى، مما يجعله نموذجاً أساسياً مثالياً للمساعدين العامين.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) هو نموذج مبتكر لمجالات متنوعة ومهام معقدة.",
|
||||
"HY-Image-V3.0.description": "قدرات قوية لاستخراج الميزات من الصور الأصلية والحفاظ على التفاصيل، مما يوفر نسيجًا بصريًا أكثر ثراءً وينتج صورًا عالية الدقة ومتقنة ومناسبة للإنتاج.",
|
||||
"HelloMeme.description": "HelloMeme هي أداة ذكاء اصطناعي لإنشاء الميمات، الصور المتحركة (GIFs)، أو مقاطع الفيديو القصيرة من الصور أو الحركات التي تقدمها. لا تتطلب مهارات رسم أو برمجة—فقط صورة مرجعية—لإنتاج محتوى ممتع وجذاب ومتناسق من حيث الأسلوب.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter هو نموذج توليد شخصيات مخصص بدون ضبط من Tencent AI لعام 2025، يهدف إلى توليد شخصيات عالية الدقة ومتسقة عبر السيناريوهات. يمكنه نمذجة شخصية من صورة مرجعية واحدة ونقلها بمرونة عبر الأساليب، الحركات، والخلفيات.",
|
||||
"InternVL2-8B.description": "InternVL2-8B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
|
||||
"KAT-Coder-Air-V1.description": "إصدار خفيف الوزن ضمن سلسلة KAT-Coder. مصمم خصيصاً للبرمجة عبر الوكلاء، ويغطي بشكل شامل مهام البرمجة وسيناريوهاتها. وبالاعتماد على التعلم المعزز واسع النطاق القائم على الوكلاء، يتيح ظهور سلوكيات ذكية ويتفوق بشكل كبير على النماذج المماثلة في أداء البرمجة.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "يعد KAT-Coder-Exp-72B الإصدار التجريبي المعتمد على الابتكار بالتعلم المعزز في سلسلة KAT-Coder، وقد حقق أداءً مذهلاً بنسبة 74.6٪ على معيار SWE-Bench Verified، مسجلاً رقماً قياسياً جديداً للنماذج مفتوحة المصدر. وهو يركز على البرمجة عبر الوكلاء ويدعم حالياً فقط هيكل SWE-Agent، لكنه قابل أيضاً للاستخدام في المحادثات البسيطة.",
|
||||
"KAT-Coder-Pro-V1.description": "مصمم للبرمجة عبر الوكلاء، يغطي بشكل شامل مهام البرمجة وسيناريوهاتها، ويحقق سلوكاً ذكياً ناشئاً عبر التعلم المعزز واسع النطاق، متفوقاً بشكل كبير على النماذج المشابهة في أداء كتابة الأكواد.",
|
||||
"KAT-Coder-Pro-V2.description": "أحدث نموذج عالي الأداء من فريق Kwaipilot لدى Kuaishou، مصمم للمشاريع المؤسسية المعقدة وتكامل SaaS. يتفوق في سيناريوهات البرمجة، ويتوافق مع مختلف أطر الوكلاء (Claude Code، OpenCode، KiloCode)، ويدعم OpenClaw أصلياً، ومُحسَّن خصيصاً لجماليات واجهات الويب الأمامية.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 هو أقوى نموذج من سلسلة Kimi، ويقدم أداءً متقدماً مفتوح المصدر في مهام الوكلاء والبرمجة وفهم الرؤية. يدعم الإدخال متعدد الوسائط ووضعَي التفكير وغير التفكير.",
|
||||
"Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة طوره فريق Kolors في Kuaishou. مدرب على مليارات المعاملات، يتميز بجودة بصرية عالية، فهم دلالي قوي للغة الصينية، وقدرات متميزة في عرض النصوص.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة واسع النطاق من فريق Kolors في Kuaishou. مدرب على مليارات أزواج النصوص والصور، يتفوق في الجودة البصرية، الدقة الدلالية المعقدة، وعرض النصوص الصينية/الإنجليزية، مع فهم وتوليد قويين للمحتوى الصيني.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) هو نموذج مفتوح المصدر لمهام هندسة البرمجيات. يحقق معدل حل 62.4% على SWE-Bench Verified، ويحتل المرتبة الخامسة بين النماذج المفتوحة. تم تحسينه عبر التدريب الوسيط، SFT، وRL لإكمال الشيفرة، إصلاح الأخطاء، ومراجعة الشيفرة.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "نموذج لغة صغير متطور يتمتع بفهم لغوي قوي، استدلال ممتاز، وتوليد نصوص عالي الجودة.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 هو النموذج مفتوح المصدر متعدد اللغات الأكثر تقدمًا من Llama، يقدم أداءً قريبًا من نموذج 405B بتكلفة منخفضة جدًا. يعتمد على بنية Transformer ومحسن باستخدام SFT وRLHF لتحقيق الفائدة والسلامة. النسخة المضبوطة على التعليمات محسنّة للمحادثة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة. تاريخ التحديث المعرفي: ديسمبر 2023.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick هو نموذج MoE كبير مع تفعيل خبراء فعال لأداء استدلال قوي.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro مصمم خصيصاً لتدفقات عمل الوكلاء عالية الكثافة في السيناريوهات الواقعية. يحتوي على أكثر من تريليون معلمة إجمالية (42 مليار معلمة مفعلة)، ويعتمد بنية انتباه هجينة مبتكرة، ويدعم طول سياق هائل يصل إلى مليون رمز. يعتمد على نموذج أساس قوي، ونواصل توسيع الموارد الحاسوبية عبر نطاق أوسع من سيناريوهات الوكلاء، مما يوسع فضاء الحركة للذكاء ويحقق تعميماً كبيراً — من البرمجة إلى تنفيذ المهام الواقعية (\"claw\").",
|
||||
"MiniMax-Hailuo-02.description": "تم إصدار نموذج إنشاء الفيديو من الجيل التالي، MiniMax Hailuo 02، رسميًا، ويدعم دقة 1080P وإنشاء فيديو لمدة 10 ثوانٍ.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "نموذج جديد لإنشاء الفيديو مع تحسينات شاملة في حركة الجسم، والواقعية الفيزيائية، واتباع التعليمات.",
|
||||
"MiniMax-Hailuo-2.3.description": "نموذج جديد لإنشاء الفيديو مع تحسينات شاملة في حركة الجسم، والواقعية الفيزيائية، واتباع التعليمات.",
|
||||
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
|
||||
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
|
||||
"MiniMax-M2.1-Lightning.description": "قدرات برمجة متعددة اللغات قوية مع استدلال أسرع وأكثر كفاءة.",
|
||||
"MiniMax-M2.1-highspeed.description": "قدرات برمجة متعددة اللغات قوية، تجربة برمجة مطورة بشكل شامل. أسرع وأكثر كفاءة.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام الواقعية المعقدة. يتميز بقدرات برمجة متعددة اللغات والقدرة على أداء المهام المعقدة كوكلاء ذكي.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: نفس أداء M2.5 مع استدلال أسرع.",
|
||||
"MiniMax-M2.5.description": "أداء من الدرجة الأولى وفعالية تكلفة قصوى، يتعامل بسهولة مع المهام المعقدة (تقريباً 60 tps).",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: نفس أداء M2.7 مع استدلال أسرع بشكل ملحوظ.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: بداية رحلة التحسين الذاتي التكراري، قدرات هندسية واقعية رائدة.",
|
||||
"MiniMax-M2.7.description": "أول نموذج ذاتي التطور يتميز بأداء رائد في البرمجة والمهام عبر الوكلاء (~60 رمزاً في الثانية).",
|
||||
"MiniMax-M2.description": "MiniMax M2: نموذج الجيل السابق.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 هو نموذج استدلال كبير مفتوح الأوزان مع 456 مليار معلمة إجمالية وحوالي 45.9 مليار نشطة لكل رمز. يدعم سياق 1 مليون بشكل طبيعي ويستخدم Flash Attention لتقليل FLOPs بنسبة 75% على توليد 100 ألف رمز مقارنة بـ DeepSeek R1. مع بنية MoE بالإضافة إلى CISPO وتدريب RL الهجين، يحقق أداءً رائدًا في الاستدلال طويل المدخلات ومهام الهندسة البرمجية الواقعية.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج MoE من الدرجة الأولى يحتوي على إجمالي 1 تريليون و32 مليار معلمة نشطة. من أبرز ميزاته الذكاء البرمجي القوي مع تحسينات كبيرة في المعايير ومهام الوكلاء الواقعية، بالإضافة إلى تحسينات في جمالية واجهة الشيفرة وسهولة الاستخدام.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo هو إصدار Turbo محسّن لسرعة الاستدلال والإنتاجية مع الحفاظ على قدرات التفكير متعدد الخطوات واستخدام الأدوات في K2 Thinking. إنه نموذج MoE يحتوي على حوالي 1 تريليون معلمة إجمالية، ويدعم سياقًا أصليًا بطول 256 ألف رمز، واستدعاء أدوات واسع النطاق ومستقر لسيناريوهات الإنتاج التي تتطلب زمن استجابة وتزامنًا صارمين.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 هو نموذج وكيل متعدد الوسائط مفتوح المصدر، مبني على Kimi-K2-Base، ومدرب على حوالي 1.5 تريليون رمز من النصوص والرؤية. يستخدم بنية MoE بعدد إجمالي 1 تريليون مع 32 مليار معلمات نشطة، ويدعم نافذة سياق تصل إلى 256 ألف، مما يدمج الفهم البصري واللغوي بسلاسة.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 هو نموذج الجيل التالي الرائد المصمم لهندسة الوكلاء، ويستخدم بنية خبراء مختلطة (MoE) بـ 754 مليار معلمة. يعزز قدرات البرمجة بشكل كبير، محققاً نتائج متقدمة على SWE-Bench Pro، ويتفوق بوضوح على سابقه في مقاييس مثل NL2Repo وTerminal-Bench 2.0. مصمم لمهام الوكلاء طويلة الأمد، ويتعامل مع الأسئلة الغامضة بشكل أدق، ويحلل المهام المعقدة، وينفذ التجارب، ويفحص النتائج، ويواصل التحسين عبر مئات الدورات وآلاف استدعاءات الأدوات.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 هو النموذج الرائد الجديد من Zhipu مع 355 مليار معلمة إجمالية و32 مليار معلمة نشطة، تم ترقيته بالكامل في الحوار العام، المنطق، وقدرات الوكلاء. يعزز GLM-4.7 التفكير المتداخل ويقدم التفكير المحفوظ والتفكير على مستوى الدور.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 هو نموذج اللغة الكبير من الجيل التالي من Zhipu، يركز على هندسة الأنظمة المعقدة ومهام الوكيل طويلة المدة. تم توسيع معلمات النموذج إلى 744 مليار (40 مليار نشطة) وتدمج DeepSeek Sparse Attention.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ هو نموذج بحث تجريبي يركز على تحسين الاستدلال.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 مُحسَّن للاستدلال المتقدم واتباع التعليمات، ويستخدم بنية MoE للحفاظ على كفاءة الاستدلال على نطاق واسع.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B هو نموذج MoE يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بسلاسة بين التفكير وعدم التفكير. يدعم الفهم والاستدلال عبر 119 لغة ولهجة، ويتمتع بقدرات قوية على استدعاء الأدوات، ويتنافس مع نماذج رائدة مثل DeepSeek R1 وOpenAI o1 وo3-mini وGrok 3 وGoogle Gemini 2.5 Pro في اختبارات القدرات العامة، والبرمجة والرياضيات، والقدرات متعددة اللغات، واستدلال المعرفة.",
|
||||
"Qwen3-32B.description": "Qwen3-32B هو نموذج كثيف يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بين التفكير وعدم التفكير. بفضل تحسينات في البنية، وبيانات أكثر، وتدريب أفضل، يقدم أداءً مماثلًا لـ Qwen2.5-72B.",
|
||||
"Qwen3.5-Plus.description": "يدعم Qwen3.5 Plus إدخال النصوص والصور والفيديو. أداؤه في المهام النصية البحتة مماثل لـ Qwen3 Max، مع أداء أفضل وتكلفة أقل. وقد تحسّنت قدراته متعددة الوسائط بشكل ملحوظ مقارنة بسلسلة Qwen3 VL.",
|
||||
"S2V-01.description": "النموذج الأساسي لتحويل المرجع إلى فيديو من سلسلة 01.",
|
||||
"SenseChat-128K.description": "الإصدار الرابع الأساسي مع سياق 128 ألف رمز، قوي في فهم وتوليد النصوص الطويلة.",
|
||||
"SenseChat-32K.description": "الإصدار الرابع الأساسي مع سياق 32 ألف رمز، مرن لمجموعة متنوعة من السيناريوهات.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو النموذج الأسرع والأكثر ذكاءً من Anthropic، يتميز بسرعة البرق وقدرات تفكير ممتدة.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرات استدلال ممتدة.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 هو نموذج Haiku الأسرع والأذكى من Anthropic، يتميز بسرعة البرق وقدرات استدلال موسعة.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 هو النموذج الأكثر قوة من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام شديدة التعقيد، ويتفوق في الأداء والذكاء والطلاقة والفهم.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة جداً، ويتميز بأداء وذكاء وطلاقة وفهم متقدم.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 هو أذكى نموذج من Anthropic لبناء الوكلاء والبرمجة.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الفائق والأداء القابل للتوسع لمهام الاستدلال المعقدة وعالية الجودة.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن، يقدم استجابات شبه فورية أو تفكيرًا ممتدًا خطوة بخطوة مع تحكم دقيق للمستخدمين عبر واجهة API.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 قادر على تقديم ردود شبه فورية أو عمليّة تفكير مفصلة خطوة بخطوة مع إظهار سير العملية.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج طورته Anthropic حتى الآن.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 يقدم أفضل مزيج بين السرعة والذكاء من Anthropic.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 يمكنه إنتاج استجابات شبه فورية أو استدلال خطوة بخطوة ممتد يمكن للمستخدمين رؤيته. يمكن لمستخدمي API التحكم بدقة في مدة تفكير النموذج.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 يوازن بين التفكير وطول المخرجات لمهام الأسئلة والأجوبة اليومية والمهام الوكيلة. تصل المعايير العامة إلى مستويات GPT-5، وهو الأول الذي يدمج التفكير في استخدام الأدوات، مما يؤدي إلى تقييمات وكلاء مفتوحة المصدر.",
|
||||
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة وقدرات البرمجة. يحافظ على قدرة المحادثة للنموذج الحواري والقدرة البرمجية القوية لنموذج البرمجة، مع مواءمة تفضيلات أفضل. كما يحسن DeepSeek-V2.5 قدرات الكتابة واتباع التعليمات.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
|
||||
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
|
||||
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج تفكير عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية عالية وقدرات تفكير قابلة للمقارنة مع Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة منطقية قبل الإجابة النهائية لتحسين الدقة.",
|
||||
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
|
||||
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، الذي تم تطويره بواسطة فريق ByteDance Seed، يدعم تحرير الصور المتعددة والتكوين. يتميز باتساق الموضوع المحسن، واتباع التعليمات بدقة، وفهم المنطق المكاني، والتعبير الجمالي، وتخطيط الملصقات وتصميم الشعارات مع تقديم نصوص وصور عالية الدقة.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، الذي تم تطويره بواسطة ByteDance Seed، يدعم إدخال النصوص والصور لإنشاء صور عالية الجودة وقابلة للتحكم بدرجة عالية من التعليمات.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع قدرة عالية على التحكم وجودة عالية في توليد الصور. يمكنه إنتاج الصور بناءً على الأوامر النصية.",
|
||||
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
|
||||
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
|
||||
"fal-ai/qwen-image-edit.description": "نموذج تحرير الصور الاحترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، وتحرير النصوص الدقيقة باللغتين الصينية والإنجليزية، ونقل الأنماط، والتدوير، والمزيد.",
|
||||
"fal-ai/qwen-image.description": "نموذج إنشاء الصور القوي من فريق Qwen مع قدرات قوية في عرض النصوص الصينية وأنماط بصرية متنوعة.",
|
||||
"fal-ai/qwen-image-edit.description": "نموذج احترافي لتحرير الصور من فريق Qwen، يدعم التحرير الدلالي والبصري، ويحرر النصوص الصينية والإنجليزية بدقة، ويتيح تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
|
||||
"fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen يتميز بإظهار ممتاز للنصوص الصينية وأنماط بصرية متنوعة.",
|
||||
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
|
||||
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
|
||||
"flux-dev.description": "نموذج مفتوح المصدر مخصص لتوليد الصور لأغراض البحث والابتكار غير التجاري، مع تحسينات فعالة.",
|
||||
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
||||
"flux-kontext-pro.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
||||
"flux-merged.description": "FLUX.1 [merged] يجمع بين الميزات العميقة المستكشفة في \"DEV\" مع مزايا السرعة العالية لـ \"Schnell\"، مما يوسع حدود الأداء ويوسع التطبيقات.",
|
||||
"flux-pro-1.1-ultra.description": "توليد صور بدقة فائقة تصل إلى 4 ميغابكسل، تنتج صورًا واضحة في غضون 10 ثوانٍ.",
|
||||
"flux-pro-1.1.description": "نموذج توليد صور احترافي مطور يتميز بجودة صور ممتازة واتباع دقيق للأوامر.",
|
||||
"flux-pro.description": "نموذج توليد صور تجاري من الدرجة الأولى بجودة صور لا مثيل لها ومخرجات متنوعة.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] هو أكثر النماذج مفتوحة المصدر تقدمًا في توليد الصور بعدد خطوات قليلة، يتفوق على المنافسين المماثلين وحتى النماذج غير المقطرة القوية مثل Midjourney v6.0 و DALL-E 3 (HD). تم ضبطه بدقة للحفاظ على تنوع ما قبل التدريب، مما يحسن بشكل كبير من جودة الصور، واتباع التعليمات، وتنوع الحجم/النسبة، والتعامل مع الخطوط، وتنوع المخرجات.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell هو نموذج عالي الأداء لتوليد الصور يدعم أنماطًا متعددة بسرعة.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) يوفر أداءً مستقرًا وقابلًا للضبط للمهام المعقدة.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) يوفر دعمًا متعدد الوسائط قويًا للمهام المعقدة.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج إنشاء الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضاً المحادثة متعددة الوسائط.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور بمستوى احترافي بسرعة Flash مع دعم الدردشة متعددة الوسائط.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) هو أسرع نموذج توليد صور أصلي من Google مع دعم التفكير، وتوليد الصور التفاعلي، والتحرير.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview هو النموذج الأكثر كفاءة من حيث التكلفة من Google، مُحسّن للمهام الوكيلة ذات الحجم الكبير، الترجمة، ومعالجة البيانات.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.",
|
||||
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "أقوى وأحدث نماذجنا، مصمم للمهام المؤسسية المعقدة بأداء متميز.",
|
||||
"jamba-mini.description": "أكثر النماذج كفاءة في فئته، يوازن بين السرعة والجودة مع استهلاك منخفض للموارد.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال لإجراء تحقيقات شاملة. فكر فيه كوكيل يأخذ مهمة البحث الخاصة بك، ويجري عمليات بحث واسعة متعددة المراحل، ثم يقدم إجابة. تتضمن العملية بحثًا مستمرًا، واستدلالًا، وحلًا متعدد الزوايا للمشكلات، وهو مختلف جوهريًا عن نماذج LLM التقليدية التي تعتمد على بيانات التدريب المسبق أو أنظمة RAG التقليدية التي تعتمد على بحث سطحي لمرة واحدة.",
|
||||
"k2p5.description": "Kimi K2.5 هو النموذج الأكثر تنوعًا لـ Kimi حتى الآن، يتميز بهيكل متعدد الوسائط يدعم إدخال الرؤية والنصوص، أوضاع 'التفكير' و'غير التفكير'، بالإضافة إلى المهام الحوارية والوكيلة.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 هو نموذج MoE أساسي يتمتع بقدرات قوية في البرمجة والوكالة (1 تريليون معلمة إجمالية، 32 مليار نشطة)، ويتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال، البرمجة، الرياضيات، والوكالة.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview يوفر نافذة سياق 256k، برمجة وكيلة أقوى، جودة أفضل لرموز الواجهة الأمامية، وفهم سياقي محسن.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct هو النموذج الرسمي للاستدلال من Kimi مع سياق طويل للبرمجة، الأسئلة والأجوبة، والمزيد.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم قدرات تفكير واستدلال تعزز الأداء بشكل كبير، خاصة في المشكلات الصعبة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.",
|
||||
"qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.",
|
||||
"r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم النص إلى الفيديو، الصورة إلى الفيديو (الإطار الأول، الإطار الأول+الأخير)، وتوليد الصوت المتزامن مع المرئيات.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بتوليد معزز بالاسترجاع عبر الويب للحصول على معلومات في الوقت الفعلي، تفسير معقد للتعليمات، وتحسين اتساق المراجع لإنشاء مرئيات احترافية.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.",
|
||||
"solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.",
|
||||
"solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 هو نموذجنا الجديد القوي لتوليد الوسائط، يولد فيديوهات مع صوت متزامن. يمكنه إنشاء مقاطع غنية بالتفاصيل وديناميكية من اللغة الطبيعية أو الصور.",
|
||||
"spark-x.description": "نظرة عامة على قدرات X2: 1. يقدم تعديل ديناميكي لوضع الاستدلال، يتم التحكم فيه عبر الحقل `thinking`. 2. طول سياق موسع: 64K رموز إدخال و128K رموز إخراج. 3. يدعم وظيفة استدعاء الأدوات.",
|
||||
"stable-diffusion-3-medium.description": "أحدث نموذج تحويل النص إلى صورة من Stability AI. هذا الإصدار يحسن جودة الصور، وفهم النص، وتنوع الأساليب بشكل كبير، ويفسر التعليمات الطبيعية المعقدة بدقة أكبر وينتج صورًا أكثر دقة وتنوعًا.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo يستخدم تقنيات تقطير الانتشار العدائي (ADD) لتسريع stable-diffusion-3.5-large.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large هو نموذج تحويل نص إلى صورة بسعة 800 مليون معلمة، يتميز بجودة عالية وتوافق ممتاز مع التعليمات، ويدعم صورًا بدقة 1 ميغابيكسل وتشغيلًا فعالًا على الأجهزة الاستهلاكية.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 تم تهيئته من نقطة التحقق v1.2 وتم تحسينه لمدة 595 ألف خطوة على \"laion-aesthetics v2 5+\" بدقة 512x512، مع تقليل تكييف النص بنسبة 10% لتحسين التوجيه بدون مصنف.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo يركز على توليد صور عالية الجودة مع قوة ممتازة في إظهار التفاصيل وواقعية المشاهد.",
|
||||
"stable-diffusion-xl-base-1.0.description": "نموذج تحويل نص إلى صورة مفتوح المصدر من Stability AI يتميز بإبداع رائد في توليد الصور. يتمتع بفهم قوي للتعليمات ويدعم تعريف التعليمات العكسية لتوليد دقيق.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl يقدم تحسينات كبيرة مقارنة بـ v1.5 ويضاهي أفضل نتائج النماذج المفتوحة لتحويل النص إلى صورة. تشمل التحسينات مضاعفة حجم UNet ثلاث مرات، ووحدة تحسين لجودة الصورة، وتقنيات تدريب أكثر كفاءة.",
|
||||
"step-1-128k.description": "يوفر توازنًا بين الأداء والتكلفة للسيناريوهات العامة.",
|
||||
"step-1-256k.description": "يدعم السياقات الطويلة جدًا، مثالي لتحليل المستندات الطويلة.",
|
||||
"step-1-32k.description": "يدعم المحادثات متوسطة الطول لمجموعة واسعة من الاستخدامات.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "إجمالي {{count}} من المعاملات",
|
||||
"arguments.title": "المعلمات",
|
||||
"builtins.lobe-activator.apiName.activateTools": "تفعيل الأدوات",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} غير موجود",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "الحصول على النماذج المتاحة",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "الحصول على المهارات المتاحة",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "الحصول على الإعدادات",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
|
||||
"kimicodingplan.description": "كود Kimi من Moonshot AI يوفر الوصول إلى نماذج Kimi بما في ذلك K2.5 لأداء مهام الترميز.",
|
||||
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
|
||||
"lobehub.description": "يستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي ويقيس الاستخدام باستخدام أرصدة مرتبطة برموز النماذج.",
|
||||
"longcat.description": "LongCat هو سلسلة من نماذج الذكاء الاصطناعي التوليدية الكبيرة التي تم تطويرها بشكل مستقل بواسطة Meituan. تم تصميمه لتعزيز إنتاجية المؤسسة الداخلية وتمكين التطبيقات المبتكرة من خلال بنية حسابية فعالة وقدرات متعددة الوسائط قوية.",
|
||||
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
|
||||
"minimaxcodingplan.description": "خطة الرموز MiniMax توفر الوصول إلى نماذج MiniMax بما في ذلك M2.7 لأداء مهام الترميز عبر اشتراك ثابت الرسوم.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "يوفر iFLYTEK Spark ذكاءً اصطناعيًا متعدد اللغات قويًا عبر مجالات متعددة، مما يمكّن من الابتكار في الأجهزة الذكية والرعاية الصحية والتمويل وغيرها.",
|
||||
"stepfun.description": "تقدم نماذج Stepfun قدرات رائدة في التعدد الوسائطي والتفكير المعقد، مع فهم طويل للسياق وتنظيم بحث مستقل قوي.",
|
||||
"straico.description": "يُبسط Straico دمج الذكاء الاصطناعي من خلال توفير مساحة عمل موحدة تجمع بين أفضل نماذج الذكاء الاصطناعي التوليدية للنصوص والصور والصوت، مما يمكّن المسوقين ورواد الأعمال والهواة من الوصول السلس إلى أدوات الذكاء الاصطناعي المتنوعة.",
|
||||
"streamlake.description": "تعد StreamLake منصة سحابية للموديلات الذكية وحوسبة الذكاء الاصطناعي على مستوى المؤسسات، تجمع بين استدلال الموديلات عالي الأداء، وتخصيص الموديلات منخفض التكلفة، وخدمات مُدارة بالكامل، لتمكين المؤسسات من التركيز على ابتكار تطبيقات الذكاء الاصطناعي دون القلق بشأن تعقيد موارد الحوسبة الأساسية أو تكلفتها.",
|
||||
"taichu.description": "Taichu هو نموذج متعدد الوسائط من الجيل التالي من CASIA ومعهد ووهان للذكاء الاصطناعي، يدعم الأسئلة والأجوبة متعددة الجولات، والكتابة، وتوليد الصور، وفهم الأبعاد الثلاثية، وتحليل الإشارات بقدرات إدراكية وإبداعية متقدمة.",
|
||||
"tencentcloud.description": "توفر Tencent Cloud محرك معرفة قائم على النماذج اللغوية الكبيرة يقدم إجابات معرفية شاملة للمؤسسات والمطورين، مع خدمات معيارية مثل تحليل المستندات، والتقسيم، والتضمين، وإعادة الصياغة متعددة الجولات لبناء حلول ذكاء اصطناعي مخصصة.",
|
||||
"togetherai.description": "توفر Together AI أداءً رائدًا من خلال نماذج مبتكرة، وتخصيص واسع، وتوسع سريع، ونشر بسيط لتلبية احتياجات المؤسسات.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "أدوات النظام",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - أداة سريعة للبحث في الشيفرة البرمجية",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - واجهة سطر الأوامر لأتمتة المتصفح بدون واجهة لوكلاء الذكاء الاصطناعي",
|
||||
"settingSystemTools.tools.bun.desc": "Bun - بيئة تشغيل JavaScript ومدير حزم سريع",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx - أداة تشغيل حزم Bun لتنفيذ حزم npm",
|
||||
"settingSystemTools.tools.fd.desc": "fd - بديل سريع وسهل الاستخدام لأداة find",
|
||||
"settingSystemTools.tools.find.desc": "أداة find في Unix - أمر قياسي للبحث عن الملفات",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - أداة قياسية للبحث في النصوص",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - إدارة والاتصال بخدمات LobeHub",
|
||||
"settingSystemTools.tools.mdfind.desc": "بحث Spotlight في macOS (بحث مفهرس وسريع)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - بيئة تشغيل JavaScript لـ JS/TS",
|
||||
"settingSystemTools.tools.npm.desc": "npm - مدير حزم Node.js لتثبيت التبعيات",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm - مدير حزم سريع وفعّال في استخدام مساحة القرص",
|
||||
"settingSystemTools.tools.python.desc": "Python - بيئة تشغيل لغة البرمجة",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - أداة بحث نصي سريعة للغاية",
|
||||
"settingSystemTools.tools.uv.desc": "uv - مدير حزم Python فائق السرعة",
|
||||
"settingTTS.openai.sttModel": "نموذج OpenAI لتحويل الكلام إلى نص",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "نموذج OpenAI لتحويل النص إلى كلام",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "النموذج",
|
||||
"systemAgent.inputCompletion.modelDesc": "النموذج المستخدم لاقتراحات الإكمال التلقائي للإدخال (مثل نص الشبح في GitHub Copilot)",
|
||||
"systemAgent.inputCompletion.title": "وكيل الإكمال التلقائي للإدخال",
|
||||
"systemAgent.promptRewrite.label": "النموذج",
|
||||
"systemAgent.promptRewrite.modelDesc": "حدد النموذج المستخدم لإعادة صياغة المطالبات",
|
||||
"systemAgent.promptRewrite.title": "وكيل إعادة صياغة المطالبات",
|
||||
"systemAgent.queryRewrite.label": "النموذج",
|
||||
"systemAgent.queryRewrite.modelDesc": "تحديد النموذج المستخدم لتحسين استفسارات المستخدم",
|
||||
"systemAgent.queryRewrite.title": "وكيل إعادة صياغة استعلام المكتبة",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "رفع ملف .zip أو .skill محلي",
|
||||
"tab.usage": "إحصائيات الاستخدام",
|
||||
"tools.add": "إضافة مهارة",
|
||||
"tools.builtins.find-skills.description": "يساعد المستخدمين في اكتشاف وتثبيت مهارات الوكلاء عند سؤالهم \"كيف أفعل كذا\" أو \"اعثر على مهارة لكذا\" أو عند رغبتهم في توسيع القدرات",
|
||||
"tools.builtins.find-skills.title": "العثور على المهارات",
|
||||
"tools.builtins.groupName": "المهارات المدمجة",
|
||||
"tools.builtins.install": "تثبيت",
|
||||
"tools.builtins.installed": "مثبّت",
|
||||
"tools.builtins.lobe-activator.description": "اكتشاف وتنشيط الأدوات والمهارات",
|
||||
"tools.builtins.lobe-activator.title": "منشّط الأدوات والمهارات",
|
||||
"tools.builtins.lobe-agent-browser.description": "واجهة سطر أوامر لأتمتة المتصفح للوكلاء الذكيين. تُستخدم للمهام التي تتضمن التفاعل مع المواقع أو تطبيقات Electron مثل التنقل، تعبئة النماذج، النقر، التقاط الصور، استخراج البيانات، تدفقات تسجيل الدخول، والاختبارات الشاملة.",
|
||||
"tools.builtins.lobe-agent-browser.title": "متصفح الوكيل",
|
||||
"tools.builtins.lobe-agent-builder.description": "إعداد بيانات الوكيل، إعدادات النموذج، الإضافات، والموجه النظامي",
|
||||
"tools.builtins.lobe-agent-builder.title": "منشئ الوكيل",
|
||||
"tools.builtins.lobe-agent-documents.description": "إدارة مستندات الوكيل (عرض، إنشاء، قراءة، تعديل، إزالة، إعادة تسمية) وقواعد التحميل",
|
||||
"tools.builtins.lobe-agent-documents.title": "المستندات",
|
||||
"tools.builtins.lobe-agent-management.description": "إنشاء الوكلاء وإدارتهم وتنظيم عملهم",
|
||||
"tools.builtins.lobe-agent-management.title": "إدارة الوكلاء",
|
||||
"tools.builtins.lobe-artifacts.description": "إنشاء ومعاينة مكونات واجهة المستخدم التفاعلية، وتصوير البيانات، والمخططات، والرسومات بصيغة SVG، وتطبيقات الويب بشكل مباشر. أنشئ محتوى بصريًا غنيًا يمكن للمستخدمين التفاعل معه مباشرة.",
|
||||
"tools.builtins.lobe-artifacts.readme": "أنشئ معاينات حية وتفاعلية لمكونات واجهة المستخدم، وتصوير البيانات، والمخططات، والرسومات بصيغة SVG، وتطبيقات الويب. أنشئ محتوى بصريًا غنيًا يمكن للمستخدمين التفاعل معه مباشرة.",
|
||||
"tools.builtins.lobe-artifacts.title": "القطع الفنية",
|
||||
"tools.builtins.lobe-brief.description": "الإبلاغ عن التقدم، تسليم النتائج، وطلب القرارات من المستخدم",
|
||||
"tools.builtins.lobe-brief.title": "أدوات المختصر",
|
||||
"tools.builtins.lobe-calculator.description": "إجراء العمليات الحسابية، حل المعادلات، والعمل مع التعبيرات الرمزية",
|
||||
"tools.builtins.lobe-calculator.readme": "آلة حاسبة رياضية متقدمة تدعم العمليات الحسابية الأساسية، المعادلات الجبرية، عمليات التفاضل والتكامل، والرياضيات الرمزية. تشمل تحويل القواعد، حل المعادلات، التفاضل، التكامل، وأكثر.",
|
||||
"tools.builtins.lobe-calculator.title": "آلة حاسبة",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "تنفيذ تعليمات برمجية بلغة بايثون، جافاسكريبت، وتايب سكريبت في بيئة سحابية معزولة. شغّل أوامر الصدفة، إدارة الملفات، البحث باستخدام تعبيرات regex، وتصدير النتائج بأمان.",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "نفّذ تعليمات برمجية بلغة Python وJavaScript وTypeScript في بيئة سحابية معزولة. شغّل أوامر الصدفة، وأدر الملفات، وابحث في المحتوى باستخدام regex، وصدّر النتائج بأمان.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "بيئة سحابية تجريبية",
|
||||
"tools.builtins.lobe-creds.description": "إدارة بيانات اعتماد المستخدم للمصادقة، وحقن متغيرات البيئة، والتحقق من واجهات API — التعامل مع مفاتيح API، رموز OAuth، والأسرار للتكامل مع الخدمات الخارجية.",
|
||||
"tools.builtins.lobe-creds.title": "بيانات الاعتماد",
|
||||
"tools.builtins.lobe-cron.description": "إدارة المهام المجدولة التي تعمل تلقائيًا في أوقات محددة. إنشاء، تحديث، تفعيل/تعطيل، ومراقبة المهام المتكررة لوكلائك.",
|
||||
"tools.builtins.lobe-cron.title": "المهام المجدولة",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "إعداد بيانات المجموعات، الأعضاء، والمحتوى المشترك لمجموعات الوكلاء متعددة",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "منشئ وكيل المجموعة",
|
||||
"tools.builtins.lobe-group-management.description": "تنظيم وإدارة المحادثات الجماعية لوكلاء متعددين",
|
||||
"tools.builtins.lobe-group-management.title": "إدارة المجموعات",
|
||||
"tools.builtins.lobe-gtd.description": "خطط للأهداف وتابع التقدم باستخدام منهجية GTD. أنشئ خططًا استراتيجية، وأدر قوائم المهام مع تتبع الحالة، ونفّذ مهام غير متزامنة طويلة الأمد.",
|
||||
"tools.builtins.lobe-gtd.readme": "خطط لأهدافك وتابع تقدمك باستخدام منهجية GTD. أنشئ خططًا استراتيجية، وأدر قوائم المهام مع تتبع الحالة، ونفّذ المهام غير المتزامنة طويلة الأمد.",
|
||||
"tools.builtins.lobe-gtd.title": "أدوات GTD",
|
||||
"tools.builtins.lobe-knowledge-base.description": "البحث في المستندات المرفوعة والمعرفة المتخصصة عبر البحث الدلالي — للرجوع الدائم والقابل لإعادة الاستخدام",
|
||||
"tools.builtins.lobe-knowledge-base.title": "قاعدة المعرفة",
|
||||
"tools.builtins.lobe-local-system.description": "الوصول إلى نظام الملفات المحلي على سطح المكتب. قراءة، وكتابة، والبحث، وتنظيم الملفات. تنفيذ أوامر الصدفة مع دعم المهام الخلفية والبحث في المحتوى باستخدام تعبيرات regex.",
|
||||
"tools.builtins.lobe-local-system.readme": "يمكنك الوصول إلى نظام الملفات المحلي على سطح المكتب. اقرأ، واكتب، وابحث، ونظّم الملفات. نفّذ أوامر الصدفة مع دعم المهام الخلفية وابحث في المحتوى باستخدام أنماط regex.",
|
||||
"tools.builtins.lobe-local-system.title": "النظام المحلي",
|
||||
"tools.builtins.lobe-message.description": "إرسال، قراءة، تحرير، وإدارة الرسائل عبر منصات مراسلة متعددة من خلال واجهة موحدة",
|
||||
"tools.builtins.lobe-message.readme": "أداة مراسلة متعددة المنصات تدعم Discord وTelegram وSlack وGoogle Chat وIRC. توفر واجهات موحدة لعمليات الرسائل، التفاعلات، التثبيت، المواضيع، إدارة القنوات، والميزات الخاصة بكل منصة مثل الاستفتاءات.",
|
||||
"tools.builtins.lobe-message.title": "الرسائل",
|
||||
"tools.builtins.lobe-notebook.description": "إنشاء وإدارة مستندات دائمة ضمن مواضيع المحادثة. احفظ الملاحظات، والتقارير، والمقالات، ومحتوى Markdown الذي يبقى متاحًا عبر الجلسات.",
|
||||
"tools.builtins.lobe-notebook.readme": "أنشئ وادِر مستندات دائمة ضمن مواضيع المحادثة. احفظ الملاحظات، والتقارير، والمقالات، ومحتوى Markdown ليبقى متاحًا عبر الجلسات.",
|
||||
"tools.builtins.lobe-notebook.title": "دفتر الملاحظات",
|
||||
"tools.builtins.lobe-page-agent.description": "إنشاء، قراءة، تحديث، وحذف العقد في المستندات ذات البنية XML",
|
||||
"tools.builtins.lobe-page-agent.readme": "إنشاء وتحرير مستندات منظمة مع تحكم دقيق على مستوى العقد. البدء من Markdown، إجراء عمليات إدراج/تعديل/حذف مجمّعة، والبحث والاستبدال عبر المستندات.",
|
||||
"tools.builtins.lobe-page-agent.title": "المستند",
|
||||
"tools.builtins.lobe-remote-device.description": "اكتشاف وإدارة اتصالات أجهزة سطح المكتب البعيدة",
|
||||
"tools.builtins.lobe-remote-device.readme": "إدارة الاتصالات مع أجهزة سطح المكتب الخاصة بك. عرض الأجهزة المتصلة، تفعيل جهاز للعمليات البعيدة، والتحقق من حالة الاتصال.",
|
||||
"tools.builtins.lobe-remote-device.title": "جهاز بعيد",
|
||||
"tools.builtins.lobe-skill-store.description": "تصفح وتثبيت مهارات الوكلاء من سوق LobeHub. استخدم هذا عند حاجتك لقدرات إضافية أو لتثبيت مهارة محددة.",
|
||||
"tools.builtins.lobe-skill-store.title": "متجر المهارات",
|
||||
"tools.builtins.lobe-skills.description": "تنشيط واستخدام حزم المهارات القابلة لإعادة الاستخدام",
|
||||
"tools.builtins.lobe-skills.title": "المهارات",
|
||||
"tools.builtins.lobe-task.description": "إنشاء، عرض، تحرير، وحذف المهام مع إدارة التبعيات وإعدادات المراجعة",
|
||||
"tools.builtins.lobe-task.title": "أدوات المهام",
|
||||
"tools.builtins.lobe-topic-reference.description": "استرجاع السياق من المحادثات المرجعية للمواضيع",
|
||||
"tools.builtins.lobe-topic-reference.title": "مرجع الموضوع",
|
||||
"tools.builtins.lobe-user-interaction.description": "طرح الأسئلة على المستخدمين عبر تفاعلات الواجهة ومتابعة نتائج دورة حياتهم",
|
||||
"tools.builtins.lobe-user-interaction.title": "تفاعل المستخدم",
|
||||
"tools.builtins.lobe-user-memory.description": "أنشئ قاعدة معرفة مخصصة عنك. تذكّر التفضيلات، وتتبع الأنشطة والتجارب، واحفظ معلومات الهوية، واسترجع السياق المناسب في المحادثات المستقبلية.",
|
||||
"tools.builtins.lobe-user-memory.readme": "أنشئ قاعدة معرفة مخصصة عنك. تذكّر التفضيلات، وتتبع الأنشطة والتجارب، واحتفظ بمعلومات الهوية، واسترجع السياق المناسب في المحادثات المستقبلية.",
|
||||
"tools.builtins.lobe-user-memory.title": "الذاكرة",
|
||||
"tools.builtins.lobe-web-browsing.description": "البحث في الويب للحصول على معلومات حديثة وزحف الصفحات لاستخراج المحتوى. يدعم عدة محركات بحث، فئات، ونطاقات زمنية.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "البحث في الويب وجمع المعلومات الحديثة وزحف الصفحات لاستخراج المحتوى. يدعم محركات بحث متعددة، فئات، ونطاقات زمنية للبحث الشامل.",
|
||||
"tools.builtins.lobe-web-browsing.title": "تصفح الويب",
|
||||
"tools.builtins.lobe-web-onboarding.description": "قيادة عملية الإعداد على الويب ببيئة تشغيل وكيل مُتحكم بها",
|
||||
"tools.builtins.lobe-web-onboarding.title": "إعداد الويب",
|
||||
"tools.builtins.lobehub.description": "إدارة منصة LobeHub عبر CLI — قواعد المعرفة، الذاكرة، الوكلاء، الملفات، البحث، التوليد، والمزيد.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "غير مثبّت",
|
||||
"tools.builtins.task.description": "إدارة وتنفيذ المهام — إنشاء، تتبع، مراجعة، وإكمال المهام عبر CLI.",
|
||||
"tools.builtins.task.title": "المهام",
|
||||
"tools.builtins.uninstall": "إلغاء التثبيت",
|
||||
"tools.builtins.uninstallConfirm.desc": "هل أنت متأكد أنك تريد إلغاء تثبيت {{name}}؟ سيتم إزالة هذه المهارة من الوكيل الحالي.",
|
||||
"tools.builtins.uninstallConfirm.title": "إلغاء تثبيت {{name}}",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "هل تريد قطع الاتصال بـ {{name}}؟",
|
||||
"tools.lobehubSkill.disconnected": "غير متصل",
|
||||
"tools.lobehubSkill.error": "خطأ",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub هو منصة للتحكم بالإصدارات والتعاون، تتيح للمطورين استضافة، مراجعة، وإدارة مستودعات الأكواد.",
|
||||
"tools.lobehubSkill.providers.github.readme": "اتصل بـ GitHub للوصول إلى مستودعاتك، إنشاء وإدارة القضايا، مراجعة طلبات السحب، والتعاون في الأكواد — وكل ذلك عبر محادثة طبيعية مع مساعدك الذكي.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear هي أداة حديثة لتتبع القضايا وإدارة المشاريع مصممة للفرق عالية الأداء لبناء برمجيات أفضل بشكل أسرع",
|
||||
"tools.lobehubSkill.providers.linear.readme": "اجلب قوة Linear مباشرة إلى مساعدك الذكي. أنشئ وحدث المشكلات، وأدر السبرينت، وتتبع تقدم المشاريع، وسهّل سير عمل التطوير — كل ذلك من خلال المحادثة الطبيعية.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "تقويم Outlook هو أداة جدولة مدمجة ضمن Microsoft Outlook تتيح للمستخدمين إنشاء المواعيد، تنظيم الاجتماعات، وإدارة الوقت والفعاليات بفعالية.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "تكامل مع تقويم Outlook لعرض وإنشاء وإدارة فعالياتك بسلاسة. جدْوِل الاجتماعات، وتحقق من التوفر، واضبط التذكيرات، ونظّم وقتك — كل ذلك باستخدام أوامر اللغة الطبيعية.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (تويتر سابقًا) هي منصة تواصل اجتماعي لمشاركة التحديثات الفورية، الأخبار، والتفاعل مع جمهورك من خلال المنشورات، الردود، والرسائل المباشرة.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "اتصل بـ X (تويتر) لنشر التغريدات، وإدارة الجدول الزمني، والتفاعل مع جمهورك. أنشئ المحتوى، وجدول المنشورات، وراقب الإشارات، وابنِ حضورك على وسائل التواصل الاجتماعي من خلال الذكاء الاصطناعي الحواري.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel هي منصة سحابية للمطورين الأماميين، توفر الاستضافة والدوال الخادمة لنشر التطبيقات بسهولة.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "اتصل بـ Vercel لإدارة عمليات النشر، مراقبة حالة المشاريع، والتحكم في البنية التحتية. انشر التطبيقات، تحقق من سجلات البناء، أدر متغيرات البيئة، ووسع مشاريعك عبر محادثة ذكية.",
|
||||
"tools.notInstalled": "غير مثبت",
|
||||
"tools.notInstalledWarning": "هذه المهارة غير مثبتة حاليًا، مما قد يؤثر على وظائف الوكيل.",
|
||||
"tools.plugins.enabled": "مفعلة: {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "الإطار الابتدائي",
|
||||
"config.prompt.placeholder": "صف الفيديو الذي ترغب في إنشائه",
|
||||
"config.prompt.placeholderWithRef": "وصف المشهد الذي تريد إنشاؤه مع الصورة",
|
||||
"config.promptExtend.label": "توسيع المطالبة",
|
||||
"config.referenceImage.label": "صورة مرجعية",
|
||||
"config.resolution.label": "الدقة",
|
||||
"config.seed.label": "البذرة",
|
||||
"config.seed.random": "عشوائي",
|
||||
"config.size.label": "الحجم",
|
||||
"config.watermark.label": "علامة مائية",
|
||||
"config.webSearch.label": "البحث في الويب",
|
||||
"generation.actions.copyError": "نسخ رسالة الخطأ",
|
||||
"generation.actions.errorCopied": "تم نسخ رسالة الخطأ إلى الحافظة",
|
||||
"generation.actions.errorCopyFailed": "فشل في نسخ رسالة الخطأ",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "Ботът е успешно свързан",
|
||||
"channel.connecting": "Свързване...",
|
||||
"channel.connectionConfig": "Конфигурация на връзката",
|
||||
"channel.connectionMode": "Режим на свързване",
|
||||
"channel.connectionModeHint": "WebSocket се препоръчва за нови ботове. Използвайте Webhook, ако вашият бот вече има конфигуриран callback URL в платформата QQ Open Platform.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "Копирано в клипборда",
|
||||
"channel.copy": "Копирай",
|
||||
"channel.credentials": "Удостоверения",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "Моля, копирайте този URL и го поставете в полето <bold>{{fieldName}}</bold> в {{name}} Developer Portal.",
|
||||
"channel.exportConfig": "Експортиране на конфигурация",
|
||||
"channel.feishu.description": "Свържете този асистент с Feishu за лични и групови чатове.",
|
||||
"channel.feishu.webhookMigrationDesc": "Режимът WebSocket осигурява доставяне на събития в реално време без необходимост от публичен callback URL. За миграция превключете режима на свързване към WebSocket в Разширени настройки. Не е необходима допълнителна конфигурация в Feishu/Lark Open Platform.",
|
||||
"channel.feishu.webhookMigrationTitle": "Обмислете миграция към режим WebSocket",
|
||||
"channel.historyLimit": "Лимит на съобщенията в историята",
|
||||
"channel.historyLimitHint": "По подразбиране брой съобщения за извличане при четене на историята на канала",
|
||||
"channel.importConfig": "Импортиране на конфигурация",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "Задължително за проверка на взаимодействия",
|
||||
"channel.qq.appIdHint": "Вашият QQ Bot App ID от QQ Open Platform",
|
||||
"channel.qq.description": "Свържете този асистент с QQ за групови чатове и директни съобщения.",
|
||||
"channel.qq.webhookMigrationDesc": "Режимът WebSocket осигурява доставяне на събития в реално време и автоматично повторно свързване без необходимост от callback URL. За миграция създайте нов бот в QQ Open Platform без да конфигурирате callback URL, след което превключете режима на свързване към WebSocket в Разширени настройки.",
|
||||
"channel.qq.webhookMigrationTitle": "Обмислете миграция към режим WebSocket",
|
||||
"channel.removeChannel": "Премахване на канал",
|
||||
"channel.removeFailed": "Неуспешно премахване на канала",
|
||||
"channel.removed": "Каналът е премахнат",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "Тайна за подписване",
|
||||
"channel.signingSecretHint": "Използва се за проверка на заявки към уебхук.",
|
||||
"channel.slack.appIdHint": "Вашият Slack App ID от таблото за управление на Slack API (започва с A).",
|
||||
"channel.slack.appToken": "Токен на ниво приложение",
|
||||
"channel.slack.appTokenHint": "Задължителен за Socket Mode (WebSocket). Генерирайте токен на ниво приложение (xapp-...) в секцията Basic Information в настройките на вашето Slack приложение.",
|
||||
"channel.slack.description": "Свържете този асистент със Slack за разговори в канали и директни съобщения.",
|
||||
"channel.slack.webhookMigrationDesc": "Socket Mode осигурява доставяне на събития в реално време чрез WebSocket без да изисква публичен HTTP endpoint. За миграция активирайте Socket Mode в настройките на вашето Slack приложение, генерирайте токен на ниво приложение, след което превключете режима на свързване към WebSocket в Разширени настройки.",
|
||||
"channel.slack.webhookMigrationTitle": "Обмислете миграция към Socket Mode (WebSocket)",
|
||||
"channel.telegram.description": "Свържете този асистент с Telegram за лични и групови чатове.",
|
||||
"channel.testConnection": "Тестване на връзката",
|
||||
"channel.testFailed": "Тестът на връзката неуспешен",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "Групата е изтрита успешно",
|
||||
"confirmRemoveSessionItemAlert": "Ще изтриете този агент. След изтриване, той не може да бъде възстановен. Моля, потвърдете действието си.",
|
||||
"confirmRemoveSessionSuccess": "Агентът е премахнат успешно",
|
||||
"createModal.createBlank": "Създай празен",
|
||||
"createModal.groupPlaceholder": "Опишете какво трябва да прави тази група...",
|
||||
"createModal.groupTitle": "Какво трябва да прави вашата група?",
|
||||
"createModal.placeholder": "Опишете какво трябва да прави вашият агент...",
|
||||
"createModal.title": "Какво трябва да прави вашият агент?",
|
||||
"defaultAgent": "Агент по подразбиране",
|
||||
"defaultGroupChat": "Група",
|
||||
"defaultList": "Списък по подразбиране",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "Контекстът е твърде дълъг, компресиране на историята...",
|
||||
"operation.execAgentRuntime": "Подготвяне на отговор",
|
||||
"operation.execClientTask": "Изпълнение на задача",
|
||||
"operation.execServerAgentRuntime": "Работи… Можете да превключите задачи или да затворите страницата — задачата ще продължи.",
|
||||
"operation.sendMessage": "Изпращане на съобщение",
|
||||
"owner": "Собственик на групата",
|
||||
"pageCopilot.title": "Агент на страницата",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "Извличане на подробности...",
|
||||
"task.status.initializing": "Инициализиране на задачата...",
|
||||
"task.subtask": "Подзадача",
|
||||
"task.title": "Задачи",
|
||||
"thread.divider": "Подтема",
|
||||
"thread.threadMessageCount": "{{messageCount}} съобщения",
|
||||
"thread.title": "Подтема",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "Упълномощи уменията за този агент",
|
||||
"topic.checkOpenNewTopic": "Да започнем нова тема?",
|
||||
"topic.checkSaveCurrentMessages": "Искате ли да запазите текущия разговор като тема?",
|
||||
"topic.defaultTitle": "Неозаглавена тема",
|
||||
"topic.openNewTopic": "Отвори нова тема",
|
||||
"topic.recent": "Скорошни теми",
|
||||
"topic.saveCurrentMessages": "Запази текущата сесия като тема",
|
||||
"topic.viewAll": "Виж всички теми",
|
||||
"translate.action": "Преведи",
|
||||
"translate.clear": "Изчисти превода",
|
||||
"tts.action": "Текст към реч",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "Имейл поддръжка",
|
||||
"more": "Още",
|
||||
"navPanel.agent": "Агент",
|
||||
"navPanel.customizeSidebar": "Персонализиране на страничната лента",
|
||||
"navPanel.displayItems": "Показвани елементи",
|
||||
"navPanel.hidden": "Скрито",
|
||||
"navPanel.hideSection": "Скриване на раздел",
|
||||
"navPanel.library": "Библиотека",
|
||||
"navPanel.moveDown": "Преместване надолу",
|
||||
"navPanel.moveUp": "Преместване нагоре",
|
||||
"navPanel.pinned": "Закачено",
|
||||
"navPanel.searchAgent": "Търсене на агент...",
|
||||
"navPanel.searchRecent": "Търсене в скорошни...",
|
||||
"navPanel.searchResultEmpty": "Няма намерени резултати",
|
||||
"navPanel.show": "Показване",
|
||||
"navPanel.visible": "Видимо",
|
||||
"new": "Нов",
|
||||
"noContent": "Няма съдържание",
|
||||
"oauth": "SSO вход",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "Подкрепете ни",
|
||||
"productHunt.description": "Подкрепете ни в Product Hunt. Вашата подкрепа означава много за нас!",
|
||||
"productHunt.title": "Ние сме в Product Hunt!",
|
||||
"promptTransform.action": "Усъвършенстване на идеята",
|
||||
"promptTransform.actions.rewrite": "Разширяване на подробностите",
|
||||
"promptTransform.actions.translate": "Превод",
|
||||
"promptTransform.status.rewrite": "Разширяване на подробностите...",
|
||||
"promptTransform.status.translate": "Превеждане...",
|
||||
"recents": "Скорошни",
|
||||
"regenerate": "Генерирай отново",
|
||||
"releaseNotes": "Детайли за версията",
|
||||
"rename": "Преименувай",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "Аудио",
|
||||
"tab.chat": "Чат",
|
||||
"tab.community": "Общност",
|
||||
"tab.create": "Създаване",
|
||||
"tab.discover": "Открий",
|
||||
"tab.eval": "Оценителна лаборатория",
|
||||
"tab.files": "Файлове",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "Модел",
|
||||
"config.prompt.placeholder": "Опишете какво искате да генерирате",
|
||||
"config.prompt.placeholderWithRef": "Опишете как искате да промените изображението",
|
||||
"config.promptExtend.label": "Разширяване на подсказката",
|
||||
"config.quality.label": "Качество на изображението",
|
||||
"config.quality.options.hd": "Висока резолюция",
|
||||
"config.quality.options.standard": "Стандартно",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "Размер",
|
||||
"config.steps.label": "Стъпки",
|
||||
"config.title": "Конфигурация",
|
||||
"config.watermark.label": "Воден знак",
|
||||
"config.webSearch.label": "Уеб търсене",
|
||||
"config.width.label": "Ширина",
|
||||
"generation.actions.applySeed": "Приложи сийд",
|
||||
"generation.actions.copyError": "Копирай съобщението за грешка",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "Групиране на съобщенията от агента и резултатите от извикванията на инструменти заедно за показване",
|
||||
"features.assistantMessageGroup.title": "Групиране на съобщения от агент",
|
||||
"features.gatewayMode.desc": "Изпълнявайте задачите на агента на сървъра чрез Gateway WebSocket вместо локално. Осигурява по-бързо изпълнение и намалява използването на ресурси от клиента.",
|
||||
"features.gatewayMode.title": "Изпълнение на агента от страна на сървъра (Gateway)",
|
||||
"features.groupChat.desc": "Активиране на координация в групов чат с множество агенти.",
|
||||
"features.groupChat.title": "Групов чат (многоагентен)",
|
||||
"features.inputMarkdown.desc": "Реално време визуализация на Markdown в полето за въвеждане (удебелен текст, кодови блокове, таблици и др.).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "Водещ модел в Китай, надминаващ основни чуждестранни модели при китайски задачи като знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности с отлични резултати на авторитетни бенчмаркове.",
|
||||
"Baichuan4.description": "Водещо вътрешно представяне, надминаващо водещи чуждестранни модели при китайски задачи като енциклопедични знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности и силни резултати на бенчмаркове.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS е семейство от отворени LLM модели от ByteDance Seed, проектирани за силна обработка на дълъг контекст, логическо мислене, агентни и общи способности. Seed-OSS-36B-Instruct е 36B модел, настроен за инструкции, с вграден ултра-дълъг контекст за обработка на големи документи или кодови бази. Оптимизиран е за логическо мислене, генериране на код и агентни задачи (използване на инструменти), като същевременно запазва силни общи способности. Ключова характеристика е \"Бюджет за мислене\", позволяващ гъвкава дължина на разсъждение за подобрена ефективност.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR е мултимоделен модел на DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Той изследва техники за компресиране на контекст от изображения, обработва документи ефективно и ги преобразува в структуриран текст (например Markdown). Точно разпознава текст в изображения и е подходящ за дигитализация на документи, извличане на текст и структурирана обработка.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, по-големият и по-интелигентен модел от серията DeepSeek, е дистилиран в архитектурата Llama 70B. Бенчмаркове и човешки оценки показват, че е по-умен от базовия Llama 70B, особено при задачи по математика и точност на фактите.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Дистилиран модел DeepSeek-R1, базиран на Qwen2.5-Math-1.5B. Подсилващо обучение и cold-start данни оптимизират логическата производителност, поставяйки нови мултизадачни бенчмаркове за отворени модели.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "Моделите DeepSeek-R1-Distill са фино настроени от отворени модели с помощта на примерни данни, генерирани от DeepSeek-R1.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "Доставчик: sophnet. DeepSeek V3 Fast е високоскоростната версия на DeepSeek V3 0324, с пълна прецизност (без квантизация), по-силен при програмиране и математика и по-бързи отговори.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast е високоскоростният вариант на DeepSeek V3.1. Хибриден режим на мислене: чрез шаблони за чат, един модел поддържа както мислещ, така и немислещ режим. По-умно използване на инструменти: оптимизации след обучение подобряват производителността при задачи с инструменти и агенти.",
|
||||
"DeepSeek-V3.1-Think.description": "Режим на мислене на DeepSeek-V3.1: нов хибриден модел за разсъждение с мислещ и немислещ режим, по-ефективен от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и производителността при агентни задачи.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 въвежда механизъм за разредено внимание, който подобрява ефективността при обучение и инференция при обработка на дълги текстове, като е по-евтин от deepseek-v3.1.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 е MoE модел, разработен от DeepSeek. Надминава други отворени модели като Qwen2.5-72B и Llama-3.1-405B в много бенчмаркове и е конкурентен с водещи затворени модели като GPT-4o и Claude 3.5 Sonnet.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 128K контекст за извеждане и фина настройка.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 32K контекст за извеждане и фина настройка.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: Високопроизводителен модел за разсъждения, програмиране и задачи с агенти.",
|
||||
"GLM-4.6.description": "GLM-4.6: Модел от предишно поколение.",
|
||||
"GLM-4.7.description": "GLM-4.7 е най-новият водещ модел на Zhipu, подобрен за сценарии на агентно програмиране с усъвършенствани възможности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: Оптимизирана версия на GLM-5 с по-бързо извеждане за задачи по програмиране.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo е базов модел, силно оптимизиран за агентни сценарии. Той е специално трениран за основните изисквания на агентните задачи, подобрявайки ключови способности като извикване на инструменти, следване на команди и изпълнение на дълги вериги от действия. Идеален е за изграждане на високопроизводителни агентни асистенти.",
|
||||
"GLM-5.1.description": "GLM-5.1 е най-новият флагмански модел на Zhipu, подобрена версия на GLM-5 с усъвършенствани възможности за агентно инженерство за сложни системни инженерни задачи и задачи с дълъг хоризонт.",
|
||||
"GLM-5.description": "GLM-5 е водещ модел от следващо поколение на Zhipu, създаден за агентно инженерство. Той осигурява надеждна продуктивност в сложни системни инженерни задачи и дългосрочни агентни задачи. В областта на програмирането и агентните способности GLM-5 постига най-добри резултати сред моделите с отворен код.",
|
||||
"GLM-5.description": "GLM-5 е следващото флагманско поколение базови модели на Zhipu, създадено за Agentic Engineering. Осигурява надеждна продуктивност при сложни системни разработки и дългосрочни агентни задачи. В кодирането и агентните способности GLM-5 постига водещи резултати сред отворените модели. В реални програмни сценарии потребителското му изживяване се доближава до това на Claude Opus 4.5. Отличава се при сложни системни инженерни задачи и дълги агентни процеси, което го прави идеална основа за универсални агентни асистенти.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) е иновативен модел за разнообразни области и сложни задачи.",
|
||||
"HY-Image-V3.0.description": "Мощни възможности за извличане на характеристики от оригиналното изображение и запазване на детайлите, предоставящи по-богата визуална текстура и създаващи високоточни, добре композирани, продукционни визуализации.",
|
||||
"HelloMeme.description": "HelloMeme е AI инструмент, който генерира мемета, GIF-ове или кратки видеа от предоставени изображения или движения. Не изисква умения за рисуване или програмиране — само референтно изображение — за създаване на забавно, атрактивно и стилово консистентно съдържание.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter е модел за персонализирано генериране на персонажи без нужда от настройка, пуснат от Tencent AI през 2025 г., насочен към висок реализъм и консистентност на персонажа в различни сценарии. Може да моделира персонаж от едно референтно изображение и гъвкаво да го прехвърля между стилове, действия и фонове.",
|
||||
"InternVL2-8B.description": "InternVL2-8B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
|
||||
"KAT-Coder-Air-V1.description": "Лек модел от серията KAT-Coder. Специално създаден за Agentic Coding, покрива широк спектър от програмни задачи и сценарии. Благодарение на мащабно обучение с подсилване върху агентни методи, развива интелигентно поведение и значително превъзхожда подобни модели в производителността при програмиране.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B е експерименталната версия с RL иновации в серията KAT-Coder, постигайки забележителни 74.6% на бенчмарка SWE-Bench Verified — нов рекорд за отворени модели. Фокусира се върху Agentic Coding и към момента поддържа само SWE-Agent структурата, но може да се използва и за прости разговори.",
|
||||
"KAT-Coder-Pro-V1.description": "Създаден за Agentic Coding, покрива комплексно програмни задачи и сценарии, като постига интелигентно поведение чрез мащабно обучение с подсилване и значително превъзхожда сходни модели в производителността при писане на код.",
|
||||
"KAT-Coder-Pro-V2.description": "Най-новият високопроизводителен модел на екипа Kwaipilot на Kuaishou, създаден за сложни корпоративни проекти и SaaS интеграции. Отличава се в сценарии, свързани с код, и е съвместим с различни агентни рамки (Claude Code, OpenCode, KiloCode), поддържа OpenClaw нативно и е специално оптимизиран за естетика на фронт-енд страници.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 е най-способният модел от серията Kimi, постигащ водещи резултати при агентни задачи, програмиране и визуално разбиране. Поддържа мултимодални входове и режими с мислене и без мислене.",
|
||||
"Kolors.description": "Kolors е модел за преобразуване на текст в изображение, разработен от екипа на Kuaishou Kolors. Обучен с милиарди параметри, той има значителни предимства във визуалното качество, разбиране на китайски семантики и визуализиране на текст.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors е мащабен латентен дифузионен модел за преобразуване на текст в изображение от екипа на Kuaishou Kolors. Обучен върху милиарди двойки текст-изображение, той се отличава с високо визуално качество, точност при сложни семантики и визуализиране на китайски/английски текст, с отлично разбиране и генериране на китайско съдържание.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) е модел с отворен код за задачи в софтуерното инженерство. Постига 62.4% успеваемост в SWE-Bench Verified, класирайки се на 5-то място сред отворените модели. Оптимизиран чрез междинно обучение, SFT и RL за допълване на код, отстраняване на грешки и преглед на код.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "Модерен малък езиков модел с отлично езиково разбиране, логическо мислене и генериране на текст.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много по-ниска цена. Базиран е на трансформерна архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и надминава много отворени и затворени модели на индустриални бенчмаркове. Граница на знанието: декември 2023 г.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick е голям MoE модел с ефективна активация на експерти за силна логическа производителност.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro е специално създаден за високонатоварени агентни работни процеси в реални условия. Разполага с над 1 трилион параметъра (42B активирани), използва хибридна архитектура за внимание и поддържа ултра-дълъг контекст до 1 милион токена. Изграден върху мощен базов модел, той непрекъснато разширява изчислителните възможности за по-широк набор агентни сценарии, увеличава действията, които интелигентността може да изпълнява, и постига значима генерализация — от програмиране до изпълнение на реални задачи („claw“).",
|
||||
"MiniMax-Hailuo-02.description": "Моделът за видео генериране от следващо поколение, MiniMax Hailuo 02, е официално пуснат, поддържащ резолюция 1080P и генериране на видеа с продължителност 10 секунди.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "Чисто нов модел за видео генериране с цялостни подобрения в движенията на тялото, физическата реалистичност и следването на инструкции.",
|
||||
"MiniMax-Hailuo-2.3.description": "Чисто нов модел за видео генериране с цялостни подобрения в движенията на тялото, физическата реалистичност и следването на инструкции.",
|
||||
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
|
||||
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
|
||||
"MiniMax-M2.1-Lightning.description": "Мощни многоезични програмни възможности с по-бързо и ефективно извеждане.",
|
||||
"MiniMax-M2.1-highspeed.description": "Мощни многоезични програмни възможности, цялостно подобрено програмиране. По-бързо и по-ефективно.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 е водеща отворена голяма езикова система от MiniMax, фокусирана върху решаването на сложни реални задачи. Основните ѝ предимства са възможностите за програмиране на множество езици и способността да действа като агент за решаване на сложни задачи.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Същата производителност като M2.5, но с по-бързо извеждане.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5 е водещ модел с отворен код от MiniMax, фокусиран върху решаването на сложни реални задачи. Основните му предимства са мултиезиковите програмни възможности и способността да решава сложни задачи като агент.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Същата производителност като M2.7, но със значително по-бързо извеждане.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: Начало на пътя към рекурсивно самоусъвършенстване, водещи инженерни способности в реалния свят.",
|
||||
"MiniMax-M2.7.description": "Първият самоеволюиращ се модел с висок клас производителност при програмиране и агентни задачи (~60 tps).",
|
||||
"MiniMax-M2.description": "MiniMax M2: Модел от предишно поколение.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е модел за хибридно внимание с отворени тегла, съдържащ 456 милиарда общи параметри и ~45.9 милиарда активни на токен. Той поддържа контекст от 1 милион токена и използва Flash Attention за намаляване на FLOPs с 75% при генериране на 100K токена спрямо DeepSeek R1. С архитектура MoE плюс CISPO и обучение с хибридно внимание RL, той постига водещи резултати в задачи за дългосрочно разсъждение и реално софтуерно инженерство.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 е най-новият и най-мощен модел от серията Kimi K2. Това е MoE модел от най-висок клас с 1T общо и 32B активни параметъра. Основните му предимства включват по-силна агентна интелигентност при програмиране с значителни подобрения в бенчмаркове и реални задачи, както и подобрена естетика и използваемост на фронтенд кода.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo е ускорен вариант, оптимизиран за скорост на разсъждение и пропускателна способност, като запазва многoетапното разсъждение и използване на инструменти от K2 Thinking. Това е MoE модел с ~1T общи параметри, роден 256K контекст и стабилно мащабируемо извикване на инструменти за производствени сценарии с по-строги изисквания за латентност и едновременност.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 е отворен мултимодален агентен модел, базиран на Kimi-K2-Base, обучен върху приблизително 1.5 трилиона смесени визуални и текстови токени. Моделът използва MoE архитектура с общо 1T параметри и 32B активни параметри, поддържа контекстен прозорец от 256K и безпроблемно интегрира визуално и езиково разбиране.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 е следващо поколение флагмански модел, създаден за агентно инженерство, използващ архитектура Mixture of Experts (MoE) с 754B параметъра. Значително подобрява програмните способности, постигайки водещи резултати на SWE-Bench Pro, и превъзхожда предшественика си на NL2Repo и Terminal-Bench 2.0. Създаден за дълги агентни процеси, обработва неясни въпроси с по-добра преценка, разбива сложни задачи, изпълнява експерименти, анализира резултати и оптимизира решенията чрез стотици итерации и хиляди извиквания на инструменти.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 е новото поколение водещ модел на Zhipu с 355 милиарда общи параметри и 32 милиарда активни параметри, напълно обновен за общ диалог, разсъждения и агентни способности. GLM-4.7 подобрява преплетеното мислене и въвежда запазено мислене и мислене на ниво завой.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 е следващото поколение голям езиков модел на Zhipu, фокусиран върху сложното системно инженерство и задачи на агенти с дълга продължителност. Параметрите на модела са разширени до 744 милиарда (40 милиарда активни) и интегрират DeepSeek Sparse Attention.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобряване на разсъждението.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 е оптимизиран за напреднало разсъждение и следване на инструкции, използвайки MoE за ефективно мащабиране на разсъждението.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B е MoE модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват безпроблемно между мислещ и немислещ режим. Поддържа разбиране и разсъждение на 119 езика и диалекта и има силни възможности за извикване на инструменти, конкурирайки се с водещи модели като DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro в бенчмаркове за общи способности, програмиране и математика, многоезичност и логическо разсъждение.",
|
||||
"Qwen3-32B.description": "Qwen3-32B е плътен модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват между мислещ и немислещ режим. С архитектурни подобрения, повече данни и по-добро обучение, той се представя наравно с Qwen2.5-72B.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus поддържа текст, изображения и видео. Представянето му при чисто текстови задачи е сравнимо с Qwen3 Max, но е по-ефективно и по-евтино. Мултимодалните му способности са значително подобрени спрямо серията Qwen3 VL.",
|
||||
"S2V-01.description": "Основният модел за преобразуване на референция във видео от серията 01.",
|
||||
"SenseChat-128K.description": "Базов модел V4 с контекст от 128K, силен в разбиране и генериране на дълги текстове.",
|
||||
"SenseChat-32K.description": "Базов модел V4 с контекст от 32K, гъвкав за различни сценарии.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и интелигентен модел Haiku на Anthropic, с мълниеносна скорост и разширено мислене.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и интелигентен модел Haiku на Anthropic, отличаващ се със светкавична скорост и разширени способности за разсъждение.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 е най-бързият и най-умен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способният модел на Anthropic за силно комплексни задачи, превъзхождащ по производителност, интелигентност, плавност и разбиране.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително комплексни задачи, предоставящ върхова производителност, интелигентност, плавност и разбиране.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и програмиране.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 е водещият модел на Anthropic, съчетаващ първокласен интелект с мащабируемо представяне за сложни задачи с високо качество на разсъжденията.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено мислене стъпка по стъпка с фино управление за API потребители.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширени стъпкови разсъждения с видим мисловен процес.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 предлага най-добрия баланс между скорост и интелигентност.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено стъпка по стъпка разсъждение, което потребителите могат да видят. Потребителите на API могат фино да контролират колко дълго моделът разсъждава.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 балансира разсъжденията и дължината на изхода за ежедневни задачи за въпроси и отговори и агенти. Публичните бенчмаркове достигат нива на GPT-5, и това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на агенти с отворен код.",
|
||||
"deepseek-chat.description": "Нов модел с отворен код, комбиниращ общи и програмни способности. Запазва диалоговите възможности на чат моделите и силното програмиране на coder моделите, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също подобрява писането и следването на инструкции.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
|
||||
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
|
||||
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking е модел за дълбоко разсъждение, който генерира верига от мисли преди изходите за по-висока точност, с топ резултати в конкуренцията и разсъждения, сравними с Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "Режимът за мислене на DeepSeek V3.2 извежда вериги от разсъждения преди крайния отговор за по-висока точност.",
|
||||
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, създаден от екипа Seed на ByteDance, поддържа редактиране и композиция на множество изображения. Характеризира се с подобрена консистенция на обектите, прецизно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на плакати и дизайн на лого с високопрецизно рендиране на текст и изображения.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа текстови и визуални входове за силно контролируемо, висококачествено генериране на изображения от подсказки.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ текстови и визуални входове и предлагаш висококачествен, силно контролиран визуален резултат. Генерира изображения по текстови описания.",
|
||||
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
|
||||
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
|
||||
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, ротация и други.",
|
||||
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа Qwen със силно рендиране на текст на китайски и разнообразни визуални стилове.",
|
||||
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени промени като трансфер на стил и завъртане на обекти.",
|
||||
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen, отличаващ се с впечатляващо качествено изобразяване на китайски текст и разнообразни визуални стилове.",
|
||||
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
|
||||
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
|
||||
"flux-dev.description": "Модел за генериране на изображения с отворен код, оптимизиран за неконкурентни изследвания и иновации.",
|
||||
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
|
||||
"flux-kontext-pro.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
|
||||
"flux-merged.description": "FLUX.1 [обединен] комбинира дълбоките функции, изследвани в \"DEV\", с високоскоростните предимства на \"Schnell\", разширявайки границите на производителността и разширявайки приложенията.",
|
||||
"flux-pro-1.1-ultra.description": "Генериране на изображения с ултра висока резолюция и изход от 4MP, създаващ ясни изображения за 10 секунди.",
|
||||
"flux-pro-1.1.description": "Подобрен професионален модел за генериране на изображения с отлично качество и прецизно следване на подсказки.",
|
||||
"flux-pro.description": "Висококласен търговски модел за генериране на изображения с несравнимо качество и разнообразие на изхода.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] е най-усъвършенстваният отворен модел с малко стъпки, надминаващ подобни конкуренти и дори силни недестилирани модели като Midjourney v6.0 и DALL-E 3 (HD). Фино настроен е да запази разнообразието от предварително обучение, значително подобрявайки визуалното качество, следването на инструкции, вариациите в размер/съотношение, обработката на шрифтове и разнообразието на изхода.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell е високопроизводителен модел за генериране на изображения с бърз изход в различни стилове.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) осигурява стабилна и настройваема производителност за комплексни задачи.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) предлага силна мултимодална поддръжка за комплексни задачи.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google, който също поддържа мултимодален диалог.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът за генериране на изображения на Google, който също поддържа мултимодален чат.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения и поддържа мултимодален чат.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) предлага качество на изображения от професионално ниво с Flash скорост и поддръжка на мултимодален чат.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият нативен модел на Google за генериране на изображения, с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview е най-икономичният мултимодален модел на Google, оптимизиран за задачи с голям обем, превод и обработка на данни.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.",
|
||||
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
|
||||
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch комбинира уеб търсене, четене и разсъждение за задълбочени изследвания. Представете си го като агент, който поема вашата изследователска задача, извършва широки търсения с множество итерации и едва след това предоставя отговор. Процесът включва непрекъснато проучване, разсъждение и многопластово решаване на проблеми, коренно различен от стандартните LLM, които отговарят въз основа на предварително обучение или традиционни RAG системи, разчитащи на еднократно повърхностно търсене.",
|
||||
"k2p5.description": "Kimi K2.5 е най-гъвкавият модел на Kimi досега, с вградена мултимодална архитектура, която поддържа както визуални, така и текстови входове, режими на 'мислене' и 'немислене', както и както разговорни, така и агентски задачи.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлага прозорец на контекста от 256k, по-силно агентно програмиране, по-добро качество на front-end код и подобрено разбиране на контекста.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct е официалният модел за разсъждение на Kimi с дълъг контекст за код, въпроси и отговори и други.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при трудни задачи. QwQ-32B е среден по размер модел, който се конкурира с водещи модели като DeepSeek-R1 и o1-mini.",
|
||||
"qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.",
|
||||
"r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа преобразуване на текст във видео, изображение във видео (първи кадър, първи+последен кадър) и генериране на аудио, синхронизирано с визуализациите.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus предлага генериране, обогатено с уеб извличане за реална информация, подобрена интерпретация на сложни подсказки и подобрена консистентност на референциите за професионално визуално създаване.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.",
|
||||
"solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.",
|
||||
"solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 е нашият нов мощен модел за генериране на медии, генериращ видеа със синхронизиран звук. Той може да създава богато детайлизирани, динамични клипове от естествен език или изображения.",
|
||||
"spark-x.description": "Преглед на възможностите на X2: 1. Въвежда динамично регулиране на режима на разсъждение, контролирано чрез полето `thinking`. 2. Разширена дължина на контекста: 64K входни токени и 128K изходни токени. 3. Поддържа функционалност за извикване на функции.",
|
||||
"stable-diffusion-3-medium.description": "Най-новият модел за преобразуване на текст в изображение от Stability AI. Тази версия значително подобрява качеството на изображенията, разбирането на текст и стиловото разнообразие, като по-точно интерпретира сложни естественоезикови заявки и генерира по-прецизни и разнообразни изображения.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo използва adversarial diffusion distillation (ADD) върху stable-diffusion-3.5-large за по-висока скорост.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large е текст-към-изображение модел MMDiT с 800 милиона параметъра, предлагащ отлично качество и съответствие с подадените инструкции, поддържащ изображения с резолюция 1 мегапиксел и ефективна работа на потребителски хардуер.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 е инициализиран от контролна точка v1.2 и фино настроен за 595 хиляди стъпки върху „laion-aesthetics v2 5+“ при резолюция 512x512, като намалява влиянието на текстовото условие с 10% за подобрено семплиране без класификатор.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo е фокусиран върху висококачествено генериране на изображения с отлична детайлност и вярност на сцените.",
|
||||
"stable-diffusion-xl-base-1.0.description": "Модел с отворен код за генериране на изображения от текст от Stability AI, предлагащ водещо в индустрията творческо качество. Притежава силно разбиране на инструкции и поддържа обратни дефиниции на подканите за прецизно генериране.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl предлага значителни подобрения спрямо v1.5 и съответства на водещите отворени модели за генериране на изображения от текст. Подобренията включват 3 пъти по-голям UNet гръбнак, модул за прецизиране за по-добро качество на изображенията и по-ефективни техники на обучение.",
|
||||
"step-1-128k.description": "Баланс между производителност и разходи за общи сценарии.",
|
||||
"step-1-256k.description": "Обработка на изключително дълъг контекст, идеална за анализ на дълги документи.",
|
||||
"step-1-32k.description": "Поддържа разговори със средна дължина за широк спектър от приложения.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "{{count}} параметъра общо",
|
||||
"arguments.title": "Аргументи",
|
||||
"builtins.lobe-activator.apiName.activateTools": "Активиране на инструменти",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} не са намерени",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Извличане на налични модели",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Извличане на налични умения",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "Извличане на конфигурация",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
|
||||
"kimicodingplan.description": "Kimi Code от Moonshot AI предоставя достъп до модели Kimi, включително K2.5, за задачи, свързани с програмиране.",
|
||||
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
|
||||
"lobehub.description": "LobeHub Cloud използва официални API за достъп до AI модели и измерва използването с Кредити, свързани с токени на модела.",
|
||||
"longcat.description": "LongCat е серия от големи модели за генеративен AI, независимо разработени от Meituan. Той е създаден да подобри вътрешната продуктивност на предприятието и да позволи иновативни приложения чрез ефективна изчислителна архитектура и силни мултимодални възможности.",
|
||||
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
|
||||
"minimaxcodingplan.description": "MiniMax Token Plan предоставя достъп до модели MiniMax, включително M2.7, за задачи, свързани с програмиране, чрез абонамент с фиксирана такса.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Spark предоставя мощен многоезичен AI в различни области, позволявайки иновации в умния хардуер, здравеопазването, финансите и други вертикали.",
|
||||
"stepfun.description": "Моделите на Stepfun предлагат водещи мултимодални и сложни разсъждателни възможности, с разбиране на дълъг контекст и мощна автономна координация на търсене.",
|
||||
"straico.description": "Straico опростява интеграцията на изкуствения интелект, като предоставя унифицирано работно пространство, което обединява водещи модели за генериране на текст, изображения и аудио, давайки възможност на маркетолози, предприемачи и ентусиасти за лесен достъп до разнообразни AI инструменти.",
|
||||
"streamlake.description": "StreamLake е корпоративна платформа за модели и AI изчислителен облак, която обединява високопроизводителна инференция на модели, нискобюджетна персонализация на модели и напълно управлявани услуги, за да помогне на предприятията да се съсредоточат върху иновациите в AI приложенията, без да се притесняват за сложността и разходите на базовите изчислителни ресурси.",
|
||||
"taichu.description": "Модел от ново поколение от CASIA и Института по AI в Ухан, поддържащ многократни въпроси и отговори, писане, генериране на изображения, 3D разбиране и анализ на сигнали с по-силна когниция и креативност.",
|
||||
"tencentcloud.description": "LLM Knowledge Engine Atomic Power предоставя цялостни решения за въпроси и отговори за предприятия и разработчици, с модулни услуги като анализ на документи, сегментиране, вграждания и многократна пренаписка за изграждане на персонализирани AI решения.",
|
||||
"togetherai.description": "Together AI предлага водеща производителност с иновативни модели, широка персонализация, бързо мащабиране и лесно внедряване за нуждите на предприятията.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "Системни инструменти",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - бърз инструмент за търсене в код",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI за автоматизация на браузъра без графичен интерфейс за AI агенти",
|
||||
"settingSystemTools.tools.bun.desc": "Bun – бърза JavaScript среда за изпълнение и мениджър на пакети",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx – инструмент на Bun за изпълнение на npm пакети",
|
||||
"settingSystemTools.tools.fd.desc": "fd - бърза и удобна алтернатива на find",
|
||||
"settingSystemTools.tools.find.desc": "Unix find - стандартна команда за търсене на файлове",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - стандартен инструмент за търсене в текст",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI – управлявайте и свързвайте услуги на LobeHub",
|
||||
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight търсене (бързо индексирано търсене)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - JavaScript среда за изпълнение за JS/TS",
|
||||
"settingSystemTools.tools.npm.desc": "npm - мениджър на пакети Node.js за инсталиране на зависимости",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm – бърз и ефективен по отношение на дисковото пространство мениджър на пакети",
|
||||
"settingSystemTools.tools.python.desc": "Python - среда за изпълнение на езика за програмиране",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - изключително бърз инструмент за търсене в текст",
|
||||
"settingSystemTools.tools.uv.desc": "uv – изключително бърз мениджър на Python пакети",
|
||||
"settingTTS.openai.sttModel": "OpenAI модел за разпознаване на реч",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "OpenAI модел за преобразуване на текст в реч",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "Модел",
|
||||
"systemAgent.inputCompletion.modelDesc": "Модел, използван за предложения за автоматично довършване на въвеждане (като призрачния текст на GitHub Copilot)",
|
||||
"systemAgent.inputCompletion.title": "Агент за автоматично довършване на въвеждане",
|
||||
"systemAgent.promptRewrite.label": "Модел",
|
||||
"systemAgent.promptRewrite.modelDesc": "Определете модела, използван за пренаписване на подсказки",
|
||||
"systemAgent.promptRewrite.title": "Агент за пренаписване на подсказки",
|
||||
"systemAgent.queryRewrite.label": "Модел",
|
||||
"systemAgent.queryRewrite.modelDesc": "Посочете модел за оптимизиране на потребителски заявки",
|
||||
"systemAgent.queryRewrite.title": "Агент за пренаписване на заявки в библиотеката",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "Качване на локален .zip или .skill файл",
|
||||
"tab.usage": "Статистика на използване",
|
||||
"tools.add": "Добави умение",
|
||||
"tools.builtins.find-skills.description": "Помага на потребителите да откриват и инсталират умения за агенти, когато питат „как да направя X“, „намери умение за X“ или когато искат да разширят възможностите",
|
||||
"tools.builtins.find-skills.title": "Намиране на умения",
|
||||
"tools.builtins.groupName": "Вградени",
|
||||
"tools.builtins.install": "Инсталирай",
|
||||
"tools.builtins.installed": "Инсталирано",
|
||||
"tools.builtins.lobe-activator.description": "Откриване и активиране на инструменти и умения",
|
||||
"tools.builtins.lobe-activator.title": "Активатор на инструменти и умения",
|
||||
"tools.builtins.lobe-agent-browser.description": "CLI за автоматизация на браузър за AI агенти. Използва се при задачи, включващи уебсайтове или Electron – навигация, попълване на формуляри, кликване, заснемане на екрана, извличане на данни, логин процеси и end-to-end тестване.",
|
||||
"tools.builtins.lobe-agent-browser.title": "Браузър за агенти",
|
||||
"tools.builtins.lobe-agent-builder.description": "Конфигурирайте метаданни на агента, настройки на модела, плъгини и системната подсказка",
|
||||
"tools.builtins.lobe-agent-builder.title": "Създател на агенти",
|
||||
"tools.builtins.lobe-agent-documents.description": "Управление на документи в обхвата на агента (списък, създаване, четене, редактиране, премахване, преименуване) и правила за зареждане",
|
||||
"tools.builtins.lobe-agent-documents.title": "Документи",
|
||||
"tools.builtins.lobe-agent-management.description": "Създаване, управление и оркестриране на AI агенти",
|
||||
"tools.builtins.lobe-agent-management.title": "Управление на агенти",
|
||||
"tools.builtins.lobe-artifacts.description": "Генерирайте и визуализирайте интерактивни UI компоненти, визуализации на данни, диаграми, SVG графики и уеб приложения в реално време. Създавайте богато визуално съдържание, с което потребителите могат директно да взаимодействат.",
|
||||
"tools.builtins.lobe-artifacts.readme": "Генерирайте и визуализирайте интерактивни UI компоненти, визуализации на данни, диаграми, SVG графики и уеб приложения в реално време. Създавайте богато визуално съдържание, с което потребителите могат директно да взаимодействат.",
|
||||
"tools.builtins.lobe-artifacts.title": "Артефакти",
|
||||
"tools.builtins.lobe-brief.description": "Докладване на напредък, предоставяне на резултати и заявка за решения от потребителя",
|
||||
"tools.builtins.lobe-brief.title": "Инструменти за отчети",
|
||||
"tools.builtins.lobe-calculator.description": "Извършвайте математически изчисления, решавайте уравнения и работете със символни изрази",
|
||||
"tools.builtins.lobe-calculator.readme": "Разширен математически калкулатор, поддържащ основна аритметика, алгебрични уравнения, операции с калкулус и символна математика. Включва преобразуване на бази, решаване на уравнения, диференциране, интегриране и други.",
|
||||
"tools.builtins.lobe-calculator.title": "Калкулатор",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "Изпълнявайте код на Python, JavaScript и TypeScript в изолирана облачна среда. Стартирайте shell команди, управлявайте файлове, търсете съдържание с regex и експортирайте резултати сигурно.",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "Изпълнявайте код на Python, JavaScript и TypeScript в изолирана облачна среда. Стартирайте shell команди, управлявайте файлове, търсете съдържание с regex и експортирайте резултати сигурно.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "Облачна пясъчник среда",
|
||||
"tools.builtins.lobe-creds.description": "Управление на потребителски идентификационни данни за автентикация, задаване на променливи на средата и API проверка — управление на API ключове, OAuth токени и тайни за интеграции на трети страни.",
|
||||
"tools.builtins.lobe-creds.title": "Идентификационни данни",
|
||||
"tools.builtins.lobe-cron.description": "Управление на планирани задачи, които се изпълняват автоматично в определени моменти. Създаване, актуализиране, активиране/деактивиране и наблюдение на повтарящи се задачи.",
|
||||
"tools.builtins.lobe-cron.title": "Планирани задачи",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "Конфигурирайте метаданни на групи, членове и споделено съдържание за групи с множество агенти",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "Създател на групови агенти",
|
||||
"tools.builtins.lobe-group-management.description": "Оркестрирайте и управлявайте разговори в групи от агенти",
|
||||
"tools.builtins.lobe-group-management.title": "Групово управление",
|
||||
"tools.builtins.lobe-gtd.description": "Планирайте цели и следете напредъка с помощта на методологията GTD. Създавайте стратегически планове, управлявайте списъци със задачи със следене на статус и изпълнявайте дълготрайни асинхронни задачи.",
|
||||
"tools.builtins.lobe-gtd.readme": "Планирайте цели и следете напредъка си с помощта на методологията GTD. Създавайте стратегически планове, управлявайте списъци със задачи със следене на статус и изпълнявайте дълготрайни асинхронни задачи.",
|
||||
"tools.builtins.lobe-gtd.title": "GTD Инструменти",
|
||||
"tools.builtins.lobe-knowledge-base.description": "Търсене в качени документи и специализирани знания чрез семантично векторно търсене — за постоянно и многократно използване",
|
||||
"tools.builtins.lobe-knowledge-base.title": "База знания",
|
||||
"tools.builtins.lobe-local-system.description": "Достъп до локалната файлова система на настолния компютър. Четете, записвайте, търсете и организирайте файлове. Изпълнявайте shell команди с поддръжка на фонови задачи и търсете съдържание с regex шаблони.",
|
||||
"tools.builtins.lobe-local-system.readme": "Достъп до локалната файлова система на вашия компютър. Четете, записвайте, търсете и организирайте файлове. Изпълнявайте shell команди с поддръжка на фонови задачи и търсете съдържание с regex шаблони.",
|
||||
"tools.builtins.lobe-local-system.title": "Локална система",
|
||||
"tools.builtins.lobe-message.description": "Изпращане, четене, редактиране и управление на съобщения в множество платформи чрез обединен интерфейс",
|
||||
"tools.builtins.lobe-message.readme": "Инструмент за съобщения с поддръжка на Discord, Telegram, Slack, Google Chat и IRC. Осигурява унифицирани API за операции със съобщения, реакции, закачане, нишки, управление на канали и специфични функции като анкети.",
|
||||
"tools.builtins.lobe-message.title": "Съобщения",
|
||||
"tools.builtins.lobe-notebook.description": "Създавайте и управлявайте постоянни документи в рамките на разговорни теми. Запазвайте бележки, доклади, статии и markdown съдържание, достъпно през различни сесии.",
|
||||
"tools.builtins.lobe-notebook.readme": "Създавайте и управлявайте постоянни документи в рамките на разговорни теми. Запазвайте бележки, доклади, статии и markdown съдържание, достъпно през различни сесии.",
|
||||
"tools.builtins.lobe-notebook.title": "Бележник",
|
||||
"tools.builtins.lobe-page-agent.description": "Създаване, четене, актуализиране и изтриване на възли в XML-структурирани документи",
|
||||
"tools.builtins.lobe-page-agent.readme": "Създавайте и редактирайте структурирани документи с прецизен контрол на ниво възел. Инициализирайте от Markdown, извършвайте групово вмъкване/промяна/премахване и търсене и замяна на текст.",
|
||||
"tools.builtins.lobe-page-agent.title": "Документ",
|
||||
"tools.builtins.lobe-remote-device.description": "Откриване и управление на връзки към отдалечени настолни устройства",
|
||||
"tools.builtins.lobe-remote-device.readme": "Управлявайте връзки към настолните си устройства. Преглеждайте онлайн устройства, активирайте устройство за дистанционни операции и проверявайте състоянието на връзката.",
|
||||
"tools.builtins.lobe-remote-device.title": "Отдалечено устройство",
|
||||
"tools.builtins.lobe-skill-store.description": "Разглеждайте и инсталирайте умения за агенти от LobeHub Marketplace. Използвайте, когато имате нужда от разширени възможности или искате да инсталирате конкретно умение.",
|
||||
"tools.builtins.lobe-skill-store.title": "Магазин за умения",
|
||||
"tools.builtins.lobe-skills.description": "Активирайте и използвайте многократни пакети с умения",
|
||||
"tools.builtins.lobe-skills.title": "Умения",
|
||||
"tools.builtins.lobe-task.description": "Създаване, изброяване, редактиране и изтриване на задачи с зависимости и настройки за преглед",
|
||||
"tools.builtins.lobe-task.title": "Инструменти за задачи",
|
||||
"tools.builtins.lobe-topic-reference.description": "Извличане на контекст от свързани тематични разговори",
|
||||
"tools.builtins.lobe-topic-reference.title": "Тематична препратка",
|
||||
"tools.builtins.lobe-user-interaction.description": "Задаване на въпроси на потребителите чрез UI взаимодействия и проследяване на техните резултати",
|
||||
"tools.builtins.lobe-user-interaction.title": "Взаимодействие с потребителя",
|
||||
"tools.builtins.lobe-user-memory.description": "Изградете персонализирана база знания за вас. Запомняйте предпочитания, следете дейности и преживявания, съхранявайте информация за идентичност и извличайте релевантен контекст в бъдещи разговори.",
|
||||
"tools.builtins.lobe-user-memory.readme": "Изградете персонализирана база знания за себе си. Запомняйте предпочитания, следете дейности и преживявания, съхранявайте информация за идентичност и извличайте релевантен контекст в бъдещи разговори.",
|
||||
"tools.builtins.lobe-user-memory.title": "Памет",
|
||||
"tools.builtins.lobe-web-browsing.description": "Търсене в уеб пространството за актуална информация и обхождане на страници за извличане на съдържание. Поддържа множество търсачки, категории и времеви диапазони.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "Търсете актуална информация в мрежата и обхождайте уеб страници за извличане на съдържание. Поддръжка на множество търсачки, категории и времеви диапазони за цялостно изследване.",
|
||||
"tools.builtins.lobe-web-browsing.title": "Уеб търсене",
|
||||
"tools.builtins.lobe-web-onboarding.description": "Управлявайте процеса на уеб onboarding с контролиран агентски runtime",
|
||||
"tools.builtins.lobe-web-onboarding.title": "Уеб въведение",
|
||||
"tools.builtins.lobehub.description": "Управление на платформата LobeHub чрез CLI — бази знания, памет, агенти, файлове, търсене, генериране и други.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "Не е инсталирано",
|
||||
"tools.builtins.task.description": "Управление и изпълнение на задачи — създаване, проследяване, преглед и завършване на задачи чрез CLI.",
|
||||
"tools.builtins.task.title": "Задача",
|
||||
"tools.builtins.uninstall": "Деинсталирай",
|
||||
"tools.builtins.uninstallConfirm.desc": "Сигурни ли сте, че искате да деинсталирате {{name}}? Това умение ще бъде премахнато от текущия агент.",
|
||||
"tools.builtins.uninstallConfirm.title": "Деинсталиране на {{name}}",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "Прекъсване на връзката с {{name}}?",
|
||||
"tools.lobehubSkill.disconnected": "Изключено",
|
||||
"tools.lobehubSkill.error": "Грешка",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub е платформа за контрол на версиите и сътрудничество, позволяваща на разработчиците да хостват, преглеждат и управляват кодови хранилища.",
|
||||
"tools.lobehubSkill.providers.github.readme": "Свържете се с GitHub, за да имате достъп до хранилищата си, да създавате и управлявате задачи (issues), да преглеждате pull заявки и да си сътрудничите по код — всичко това чрез естествен разговор с вашия AI асистент.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear е модерен инструмент за проследяване на проблеми и управление на проекти, създаден за високоефективни екипи, които искат да създават по-добър софтуер по-бързо",
|
||||
"tools.lobehubSkill.providers.linear.readme": "Използвайте възможностите на Linear директно чрез вашия AI асистент. Създавайте и актуализирайте задачи, управлявайте спринтове, следете напредъка на проекти и оптимизирайте работния си процес чрез естествен разговор.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar е интегриран инструмент за планиране в Microsoft Outlook, който позволява на потребителите да създават срещи, организират събития и управляват времето си ефективно.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "Интегрирайте се с Outlook Calendar за лесно преглеждане, създаване и управление на събития. Насрочвайте срещи, проверявайте наличност, задавайте напомняния и координирайте времето си чрез естествени езикови команди.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) е социална медийна платформа за споделяне на актуални новини, ангажиране с аудиторията чрез публикации, отговори и директни съобщения.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "Свържете се с X (Twitter), за да публикувате туитове, управлявате времевата си линия и взаимодействате с аудиторията си. Създавайте съдържание, планирайте публикации, следете споменавания и изграждайте присъствие в социалните мрежи чрез разговорен AI.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel е облачна платформа за фронтенд разработчици, предоставяща хостинг и serverless функции за лесно разгръщане на уеб приложения.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "Свържете се с Vercel, за да управлявате разгръщанията си, да наблюдавате състоянието на проектите и да контролирате инфраструктурата си. Разгръщайте приложения, преглеждайте build логове, управлявайте променливи на средата и мащабирайте проекти чрез разговорен AI.",
|
||||
"tools.notInstalled": "Не е инсталирано",
|
||||
"tools.notInstalledWarning": "Това умение не е инсталирано в момента, което може да повлияе на функционалността на агента.",
|
||||
"tools.plugins.enabled": "Активирани: {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "Начална рамка",
|
||||
"config.prompt.placeholder": "Опишете видеото, което искате да генерирате",
|
||||
"config.prompt.placeholderWithRef": "Опишете сцената, която искате да създадете с изображението",
|
||||
"config.promptExtend.label": "Разширяване на подканата",
|
||||
"config.referenceImage.label": "Референтно изображение",
|
||||
"config.resolution.label": "Резолюция",
|
||||
"config.seed.label": "Сийд",
|
||||
"config.seed.random": "Случаен",
|
||||
"config.size.label": "Размер",
|
||||
"config.watermark.label": "Воден знак",
|
||||
"config.webSearch.label": "Уеб търсене",
|
||||
"generation.actions.copyError": "Копирай съобщението за грешка",
|
||||
"generation.actions.errorCopied": "Съобщението за грешка е копирано в клипборда",
|
||||
"generation.actions.errorCopyFailed": "Неуспешно копиране на съобщението за грешка",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "Bot erfolgreich verbunden",
|
||||
"channel.connecting": "Verbinden...",
|
||||
"channel.connectionConfig": "Verbindungskonfiguration",
|
||||
"channel.connectionMode": "Verbindungsmodus",
|
||||
"channel.connectionModeHint": "Für neue Bots wird WebSocket empfohlen. Verwenden Sie Webhook, wenn Ihr Bot bereits über eine konfigurierte Callback-URL auf der QQ Open Platform verfügt.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "In die Zwischenablage kopiert",
|
||||
"channel.copy": "Kopieren",
|
||||
"channel.credentials": "Anmeldedaten",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "Bitte kopieren Sie diese URL und fügen Sie sie in das Feld <bold>{{fieldName}}</bold> im {{name}} Entwicklerportal ein.",
|
||||
"channel.exportConfig": "Konfiguration exportieren",
|
||||
"channel.feishu.description": "Verbinden Sie diesen Assistenten mit Feishu für private und Gruppenchats.",
|
||||
"channel.feishu.webhookMigrationDesc": "Der WebSocket-Modus bietet die Zustellung von Ereignissen in Echtzeit, ohne dass eine öffentliche Callback-URL erforderlich ist. Um zu migrieren, wechseln Sie den Verbindungsmodus in den erweiterten Einstellungen zu WebSocket. Es ist keine zusätzliche Konfiguration auf der Feishu/Lark Open Platform erforderlich.",
|
||||
"channel.feishu.webhookMigrationTitle": "Erwägen Sie die Migration zum WebSocket-Modus",
|
||||
"channel.historyLimit": "Begrenzung der Nachrichtenhistorie",
|
||||
"channel.historyLimitHint": "Standardanzahl von Nachrichten, die beim Lesen der Kanäle-Historie abgerufen werden",
|
||||
"channel.importConfig": "Konfiguration importieren",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "Erforderlich für Interaktionsüberprüfung",
|
||||
"channel.qq.appIdHint": "Ihre QQ-Bot-App-ID von der QQ Open Platform",
|
||||
"channel.qq.description": "Verbinden Sie diesen Assistenten mit QQ für Gruppenchats und Direktnachrichten.",
|
||||
"channel.qq.webhookMigrationDesc": "Der WebSocket-Modus bietet die Zustellung von Ereignissen in Echtzeit und automatische Wiederverbindung, ohne dass eine Callback-URL benötigt wird. Um zu migrieren, erstellen Sie einen neuen Bot auf der QQ Open Platform, ohne eine Callback-URL zu konfigurieren, und wechseln Sie dann in den erweiterten Einstellungen den Verbindungsmodus zu WebSocket.",
|
||||
"channel.qq.webhookMigrationTitle": "Erwägen Sie die Migration zum WebSocket-Modus",
|
||||
"channel.removeChannel": "Kanal entfernen",
|
||||
"channel.removeFailed": "Kanal konnte nicht entfernt werden",
|
||||
"channel.removed": "Kanal entfernt",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "Signatur-Geheimnis",
|
||||
"channel.signingSecretHint": "Wird verwendet, um Webhook-Anfragen zu verifizieren.",
|
||||
"channel.slack.appIdHint": "Ihre Slack-App-ID aus dem Slack-API-Dashboard (beginnt mit A).",
|
||||
"channel.slack.appToken": "App-Level-Token",
|
||||
"channel.slack.appTokenHint": "Erforderlich für den Socket-Modus (WebSocket). Generieren Sie ein App-Level-Token (xapp-...) unter \"Basic Information\" in den Einstellungen Ihrer Slack-App.",
|
||||
"channel.slack.description": "Verbinden Sie diesen Assistenten mit Slack für Kanalgespräche und Direktnachrichten.",
|
||||
"channel.slack.webhookMigrationDesc": "Der Socket-Modus bietet die Zustellung von Ereignissen in Echtzeit über WebSocket, ohne dass ein öffentlicher HTTP-Endpunkt erforderlich ist. Um zu migrieren, aktivieren Sie den Socket-Modus in den Einstellungen Ihrer Slack-App, generieren Sie ein App-Level-Token und wechseln Sie anschließend den Verbindungsmodus in den erweiterten Einstellungen zu WebSocket.",
|
||||
"channel.slack.webhookMigrationTitle": "Erwägen Sie die Migration zum Socket-Modus (WebSocket)",
|
||||
"channel.telegram.description": "Verbinden Sie diesen Assistenten mit Telegram für private und Gruppenchats.",
|
||||
"channel.testConnection": "Verbindung testen",
|
||||
"channel.testFailed": "Verbindungstest fehlgeschlagen",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "Gruppe erfolgreich gelöscht",
|
||||
"confirmRemoveSessionItemAlert": "Sie sind dabei, diesen Agenten zu löschen. Nach dem Löschen kann er nicht wiederhergestellt werden. Bitte bestätigen Sie Ihre Aktion.",
|
||||
"confirmRemoveSessionSuccess": "Agent erfolgreich entfernt",
|
||||
"createModal.createBlank": "Leere erstellen",
|
||||
"createModal.groupPlaceholder": "Beschreiben Sie, was diese Gruppe tun soll...",
|
||||
"createModal.groupTitle": "Was soll Ihre Gruppe tun?",
|
||||
"createModal.placeholder": "Beschreiben Sie, was Ihr Agent tun soll...",
|
||||
"createModal.title": "Was soll Ihr Agent tun?",
|
||||
"defaultAgent": "Standardagent",
|
||||
"defaultGroupChat": "Gruppe",
|
||||
"defaultList": "Standardliste",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "Kontext zu lang, komprimiere Verlauf...",
|
||||
"operation.execAgentRuntime": "Antwort wird vorbereitet",
|
||||
"operation.execClientTask": "Aufgabe wird ausgeführt",
|
||||
"operation.execServerAgentRuntime": "Wird ausgeführt… Sie können die Aufgabe wechseln oder die Seite schließen — die Aufgabe läuft weiter.",
|
||||
"operation.sendMessage": "Nachricht wird gesendet",
|
||||
"owner": "Gruppeninhaber",
|
||||
"pageCopilot.title": "Seitenagent",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "Details werden abgerufen...",
|
||||
"task.status.initializing": "Aufgabe wird initialisiert...",
|
||||
"task.subtask": "Teilaufgabe",
|
||||
"task.title": "Aufgaben",
|
||||
"thread.divider": "Unterthema",
|
||||
"thread.threadMessageCount": "{{messageCount}} Nachrichten",
|
||||
"thread.title": "Unterthema",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "Skills für diesen Agenten autorisieren",
|
||||
"topic.checkOpenNewTopic": "Neues Thema starten?",
|
||||
"topic.checkSaveCurrentMessages": "Möchtest du die aktuelle Unterhaltung als Thema speichern?",
|
||||
"topic.defaultTitle": "Unbenanntes Thema",
|
||||
"topic.openNewTopic": "Neues Thema öffnen",
|
||||
"topic.recent": "Letzte Themen",
|
||||
"topic.saveCurrentMessages": "Aktuelle Sitzung als Thema speichern",
|
||||
"topic.viewAll": "Alle Themen anzeigen",
|
||||
"translate.action": "Übersetzen",
|
||||
"translate.clear": "Übersetzung löschen",
|
||||
"tts.action": "Text-zu-Sprache",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "E-Mail-Support",
|
||||
"more": "Mehr",
|
||||
"navPanel.agent": "Agent",
|
||||
"navPanel.customizeSidebar": "Seitenleiste anpassen",
|
||||
"navPanel.displayItems": "Anzuzeigende Elemente",
|
||||
"navPanel.hidden": "Ausgeblendet",
|
||||
"navPanel.hideSection": "Abschnitt ausblenden",
|
||||
"navPanel.library": "Bibliothek",
|
||||
"navPanel.moveDown": "Nach unten verschieben",
|
||||
"navPanel.moveUp": "Nach oben verschieben",
|
||||
"navPanel.pinned": "Angeheftet",
|
||||
"navPanel.searchAgent": "Agent suchen...",
|
||||
"navPanel.searchRecent": "Zuletzt gesucht...",
|
||||
"navPanel.searchResultEmpty": "Keine Suchergebnisse gefunden",
|
||||
"navPanel.show": "Anzeigen",
|
||||
"navPanel.visible": "Sichtbar",
|
||||
"new": "Neu",
|
||||
"noContent": "Kein Inhalt",
|
||||
"oauth": "SSO-Anmeldung",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "Unterstütze uns",
|
||||
"productHunt.description": "Unterstütze uns auf Product Hunt. Deine Unterstützung bedeutet uns viel!",
|
||||
"productHunt.title": "Wir sind auf Product Hunt!",
|
||||
"promptTransform.action": "Idee verfeinern",
|
||||
"promptTransform.actions.rewrite": "Details ausweiten",
|
||||
"promptTransform.actions.translate": "Übersetzen",
|
||||
"promptTransform.status.rewrite": "Details werden ausgeweitet...",
|
||||
"promptTransform.status.translate": "Wird übersetzt...",
|
||||
"recents": "Kürzlich",
|
||||
"regenerate": "Neu generieren",
|
||||
"releaseNotes": "Versionshinweise",
|
||||
"rename": "Umbenennen",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "Audio",
|
||||
"tab.chat": "Chat",
|
||||
"tab.community": "Community",
|
||||
"tab.create": "Erstellen",
|
||||
"tab.discover": "Entdecken",
|
||||
"tab.eval": "Bewertungslabor",
|
||||
"tab.files": "Dateien",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "Modell",
|
||||
"config.prompt.placeholder": "Beschreiben Sie, was Sie generieren möchten",
|
||||
"config.prompt.placeholderWithRef": "Beschreiben Sie, wie Sie das Bild anpassen möchten",
|
||||
"config.promptExtend.label": "Prompt-Erweiterung",
|
||||
"config.quality.label": "Bildqualität",
|
||||
"config.quality.options.hd": "Hohe Auflösung",
|
||||
"config.quality.options.standard": "Standard",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "Größe",
|
||||
"config.steps.label": "Schritte",
|
||||
"config.title": "Konfiguration",
|
||||
"config.watermark.label": "Wasserzeichen",
|
||||
"config.webSearch.label": "Websuche",
|
||||
"config.width.label": "Breite",
|
||||
"generation.actions.applySeed": "Seed anwenden",
|
||||
"generation.actions.copyError": "Fehlermeldung kopieren",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "Agenten-Nachrichten und deren Tool-Ergebnisse gemeinsam anzeigen",
|
||||
"features.assistantMessageGroup.title": "Agenten-Nachrichten gruppieren",
|
||||
"features.gatewayMode.desc": "Führt Agentenaufgaben über die Gateway-WebSocket-Verbindung auf dem Server aus, statt sie lokal auszuführen. Ermöglicht eine schnellere Ausführung und verringert die Client-Ressourcennutzung.",
|
||||
"features.gatewayMode.title": "Serverseitige Agentenausführung (Gateway)",
|
||||
"features.groupChat.desc": "Koordination von Gruppenchats mit mehreren Agenten aktivieren.",
|
||||
"features.groupChat.title": "Gruppenchat (Multi-Agenten)",
|
||||
"features.inputMarkdown.desc": "Markdown in Echtzeit im Eingabebereich rendern (fetter Text, Codeblöcke, Tabellen usw.).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "Ein Spitzenmodell in China, das führende internationale Modelle bei chinesischen Aufgaben wie Wissen, Langtextverarbeitung und kreativer Generierung übertrifft. Es bietet zudem branchenführende multimodale Fähigkeiten mit starken Ergebnissen in anerkannten Benchmarks.",
|
||||
"Baichuan4.description": "Hervorragende nationale Leistung, übertrifft führende internationale Modelle bei chinesischen Aufgaben wie enzyklopädischem Wissen, langen Texten und kreativer Generierung. Bietet zudem branchenführende multimodale Fähigkeiten und starke Benchmark-Ergebnisse.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS ist eine Familie quelloffener LLMs von ByteDance Seed, entwickelt für starke Langkontextverarbeitung, logisches Denken, Agentenfunktionen und allgemeine Fähigkeiten. Seed-OSS-36B-Instruct ist ein 36B-Modell, das auf Anweisungen abgestimmt ist und nativ ultralangen Kontext unterstützt – ideal für große Dokumente oder Codebasen. Es ist für logisches Denken, Codegenerierung und Agentenaufgaben (Toolnutzung) optimiert und behält dabei starke allgemeine Fähigkeiten. Ein zentrales Merkmal ist das „Thinking Budget“, das eine flexible Denklänge zur Effizienzsteigerung ermöglicht.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR ist ein Vision-Language-Modell von DeepSeek AI, das sich auf OCR und „Context Optical Compression“ konzentriert. Es erforscht die Komprimierung von Kontext aus Bildern, verarbeitet Dokumente effizient und wandelt sie in strukturierten Text (z. B. Markdown) um. Es erkennt Text in Bildern präzise und eignet sich für die Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, das größere und intelligentere Modell der DeepSeek-Reihe, wurde in die Llama-70B-Architektur destilliert. Benchmarks und menschliche Bewertungen zeigen, dass es intelligenter ist als das ursprüngliche Llama-70B, insbesondere bei Mathematik- und Faktenaufgaben.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Ein aus Qwen2.5-Math-1.5B destilliertes DeepSeek-R1-Modell. Verstärkendes Lernen und Cold-Start-Daten optimieren die Denkleistung und setzen neue Maßstäbe für offene Multitasking-Modelle.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill-Modelle sind feinabgestimmte Versionen quelloffener Modelle, die mit von DeepSeek-R1 generierten Beispieldaten trainiert wurden.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "Anbieter: sophnet. DeepSeek V3 Fast ist die Hoch-TPS-Version von DeepSeek V3 0324, in voller Präzision (nicht quantisiert) mit stärkerer Leistung bei Code und Mathematik sowie schnelleren Antworten.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast ist die Hoch-TPS-Variante von DeepSeek V3.1. Hybrid-Denkmodus: Über Chatvorlagen unterstützt ein Modell sowohl Denk- als auch Nicht-Denk-Modi. Intelligente Toolnutzung: Nachtrainingsoptimierungen verbessern die Leistung bei Tool- und Agentenaufgaben.",
|
||||
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 Denkmodus: Ein neues hybrides Denkmodell mit Denk- und Nicht-Denk-Modi, effizienter als DeepSeek-R1-0528. Nachtrainingsoptimierungen verbessern die Toolnutzung und Agentenleistung erheblich.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 führt einen Sparse-Attention-Mechanismus ein, um die Trainings- und Inferenzeffizienz bei der Verarbeitung langer Texte zu verbessern und bietet gleichzeitig geringere Kosten als deepseek-v3.1.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell, das von DeepSeek entwickelt wurde. Es übertrifft andere offene Modelle wie Qwen2.5-72B und Llama-3.1-405B in vielen Benchmarks und ist konkurrenzfähig mit führenden geschlossenen Modellen wie GPT-4o und Claude 3.5 Sonnet.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite bietet ultraschnelle Antworten und ein hervorragendes Preis-Leistungs-Verhältnis mit flexiblen Optionen für verschiedene Szenarien. Unterstützt 128K Kontext für Inferenz und Feinabstimmung.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite bietet ultraschnelle Antworten und ein hervorragendes Preis-Leistungs-Verhältnis mit flexiblen Optionen für verschiedene Szenarien. Unterstützt 32K Kontext für Inferenz und Feinabstimmung.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: Hochleistungsmodell für logisches Denken, Programmierung und Agentenaufgaben.",
|
||||
"GLM-4.6.description": "GLM-4.6: Modell der vorherigen Generation.",
|
||||
"GLM-4.7.description": "GLM-4.7 ist Zhipus neuestes Flaggschiffmodell, optimiert für agentenbasierte Codierungsszenarien mit verbesserten Programmierfähigkeiten, langfristiger Aufgabenplanung und Werkzeugzusammenarbeit.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: Optimierte Version von GLM-5 mit schnellerer Inferenz für Programmieraufgaben.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo ist ein Foundation-Modell, das speziell für agentische Szenarien optimiert wurde. Es wurde bereits in der Trainingsphase auf die Kernanforderungen von Agent-Aufgaben ausgerichtet und verbessert wichtige Fähigkeiten wie Tool-Aufrufe, Befehlsausführung und langkettige Abläufe. Ideal für den Aufbau leistungsstarker Agent-Assistenten.",
|
||||
"GLM-5.1.description": "GLM-5.1 ist Zhipus neuestes Flaggschiffmodell, eine verbesserte Version von GLM-5 mit erweiterten agentischen Ingenieursfähigkeiten für komplexe Systementwicklung und langfristige Aufgaben.",
|
||||
"GLM-5.description": "GLM-5 ist Zhipus Flaggschiffmodell der nächsten Generation, speziell entwickelt für agentenbasierte Ingenieursaufgaben. Es bietet zuverlässige Produktivität in komplexen Systemingenieurprojekten und langfristigen agentenbasierten Aufgaben. In den Bereichen Programmierung und Agentenfähigkeiten erreicht GLM-5 Spitzenleistungen unter Open-Source-Modellen.",
|
||||
"GLM-5.description": "GLM-5 ist Zhipus nächste Generation des Flaggschiff-Foundation-Modells, das speziell für Agentic Engineering entwickelt wurde. Es liefert zuverlässige Produktivität in komplexen Systemingenieuraufgaben und langfristigen Agent-Prozessen. In den Bereichen Codierung und agentische Fähigkeiten erreicht GLM-5 Spitzenleistungen unter Open-Source-Modellen. In realen Programmierumgebungen nähert sich die Nutzungserfahrung der von Claude Opus 4.5 an. Es überzeugt besonders in komplexen Systementwicklungen und langlaufenden Agent-Aufgaben und ist damit ein ideales Foundation-Modell für vielseitige Agent-Assistenten.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) ist ein innovatives Modell für vielfältige Anwendungsbereiche und komplexe Aufgaben.",
|
||||
"HY-Image-V3.0.description": "Leistungsstarke Funktionen zur Extraktion von Originalbildern und zur Detailerhaltung, die eine reichere visuelle Textur liefern und hochpräzise, gut komponierte, produktionsreife Bilder erzeugen.",
|
||||
"HelloMeme.description": "HelloMeme ist ein KI-Tool zur Erstellung von Memes, GIFs oder Kurzvideos aus bereitgestellten Bildern oder Bewegungen. Es erfordert keine Zeichen- oder Programmierkenntnisse – ein Referenzbild genügt, um unterhaltsame, ansprechende und stilistisch konsistente Inhalte zu erzeugen.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter ist ein personalisiertes Charaktergenerierungsmodell ohne Feintuning, veröffentlicht von Tencent AI im Jahr 2025. Es ermöglicht hochrealistische, szenenübergreifend konsistente Charaktere. Ein einzelnes Referenzbild genügt, um den Charakter flexibel in verschiedene Stile, Aktionen und Hintergründe zu übertragen.",
|
||||
"InternVL2-8B.description": "InternVL2-8B ist ein leistungsstarkes Vision-Language-Modell für multimodale Bild-Text-Verarbeitung. Es erkennt Bildinhalte präzise und generiert passende Beschreibungen oder Antworten.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B ist ein leistungsstarkes Vision-Language-Modell für multimodale Bild-Text-Verarbeitung. Es erkennt Bildinhalte präzise und generiert passende Beschreibungen oder Antworten.",
|
||||
"KAT-Coder-Air-V1.description": "Eine leichte Version der KAT-Coder-Serie. Speziell für Agentic Coding entwickelt und deckt Programmieraufgaben und -szenarien umfassend ab. Durch großskaliges, agentenbasiertes Reinforcement Learning ermöglicht es emergentes intelligentes Verhalten und übertrifft vergleichbare Modelle deutlich in der Codeleistung.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B ist die experimentelle RL-Innovationsversion der KAT-Coder-Serie und erreicht eine bemerkenswerte Leistung von 74,6 % im SWE-Bench-Verified-Benchmark – ein neuer Rekord für Open-Source-Modelle. Es konzentriert sich auf Agentic Coding und unterstützt derzeit ausschließlich das SWE-Agent-Gerüst, kann jedoch auch für einfache Gespräche genutzt werden.",
|
||||
"KAT-Coder-Pro-V1.description": "Für Agentic Coding entwickelt und umfassend auf Programmieraufgaben und -szenarien ausgelegt. Durch großskaliges Reinforcement Learning entstehen intelligente Verhaltensweisen, wodurch es vergleichbare Modelle in der Codegenerierung deutlich übertrifft.",
|
||||
"KAT-Coder-Pro-V2.description": "Das neueste Hochleistungsmodell des Kuaishou-Kwaipilot-Teams, entwickelt für komplexe Unternehmensprojekte und SaaS-Integration. Es überzeugt in codebezogenen Szenarien und ist mit verschiedenen Agent-Frameworks (Claude Code, OpenCode, KiloCode) kompatibel, unterstützt OpenClaw nativ und ist speziell für die Ästhetik von Frontend-Seiten optimiert.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 ist das leistungsfähigste Kimi-Modell und liefert Open-Source‑SOTA in Agent-Aufgaben, Codierung und visuellem Verständnis. Es unterstützt multimodale Eingaben sowie Thinking- und Non-Thinking-Modi.",
|
||||
"Kolors.description": "Kolors ist ein Text-zu-Bild-Modell, entwickelt vom Kuaishou-Kolors-Team. Mit Milliarden von Parametern trainiert, bietet es herausragende visuelle Qualität, starkes Verständnis chinesischer Semantik und präzise Textdarstellung.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors ist ein großskaliges Latent-Diffusion-Text-zu-Bild-Modell des Kuaishou-Kolors-Teams. Trainiert auf Milliarden Text-Bild-Paaren, überzeugt es durch visuelle Qualität, semantische Präzision und Textdarstellung in Chinesisch und Englisch. Es bietet starkes Verständnis und Generierung chinesischer Inhalte.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) ist ein Open-Source-Modell für Softwareentwicklung. Es erreicht eine Lösungsrate von 62,4 % auf SWE-Bench Verified und belegt Platz 5 unter Open-Source-Modellen. Optimiert durch Mid-Training, SFT und RL für Codevervollständigung, Fehlerbehebung und Code-Review.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "Modernes kompaktes Sprachmodell mit starkem Sprachverständnis, exzellenter Argumentation und Textgenerierung.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Modell der Llama-Reihe. Es bietet nahezu 405B-Leistung zu sehr niedrigen Kosten. Basierend auf Transformer-Architektur, verbessert durch SFT und RLHF für Nützlichkeit und Sicherheit. Die instruktionstaugliche Version ist für mehrsprachige Konversation optimiert und übertrifft viele offene und geschlossene Modelle in Benchmarks. Wissensstand: Dezember 2023.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick ist ein großes MoE-Modell mit effizienter Expertenaktivierung für starke Argumentationsleistung.",
|
||||
"MiMo-V2-Pro.description": "MiMo‑V2‑Pro wurde speziell für hochintensive Agent-Workflows in realen Anwendungsszenarien entwickelt. Es verfügt über mehr als 1 Billion Gesamtparameter (42B aktivierte Parameter), nutzt eine innovative Hybrid-Attention-Architektur und unterstützt eine ultralange Kontextlänge von bis zu 1 Million Tokens. Basierend auf einem leistungsstarken Foundation-Modell skalieren wir kontinuierlich die Rechenressourcen für ein breites Spektrum agentischer Szenarien, erweitern den Handlungsspielraum künstlicher Intelligenz und erreichen starke Generalisierung – von Codierung bis hin zur physischen Ausführung realer Aufgaben („claw“).",
|
||||
"MiniMax-Hailuo-02.description": "Das nächste Generation Videoerzeugungsmodell, MiniMax Hailuo 02, wurde offiziell veröffentlicht und unterstützt 1080P-Auflösung sowie die Erzeugung von 10-Sekunden-Videos.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "Brandneues Videoerzeugungsmodell mit umfassenden Verbesserungen in Körperbewegung, physikalischem Realismus und Befolgung von Anweisungen.",
|
||||
"MiniMax-Hailuo-2.3.description": "Brandneues Videoerzeugungsmodell mit umfassenden Verbesserungen in Körperbewegung, physikalischem Realismus und Befolgung von Anweisungen.",
|
||||
"MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
|
||||
"MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
|
||||
"MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten mit schnellerer und effizienterer Inferenz.",
|
||||
"MiniMax-M2.1-highspeed.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten, umfassend verbesserte Programmiererfahrung. Schneller und effizienter.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 ist das Flaggschiff unter den Open-Source-Großmodellen von MiniMax und konzentriert sich auf die Lösung komplexer Aufgaben aus der realen Welt. Seine zentralen Stärken liegen in der mehrsprachigen Programmierfähigkeit und der Fähigkeit, als Agent komplexe Aufgaben zu bewältigen.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Gleiche Leistung wie M2.5 mit schnellerer Inferenz.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5 ist ein Flaggschiff-Open-Source-Großmodell von MiniMax, das sich auf die Lösung komplexer realer Aufgaben konzentriert. Seine Kernstärken sind mehrsprachige Programmierfähigkeiten und die Fähigkeit, komplexe Aufgaben als Agent zu lösen.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Gleiche Leistung wie M2.7 mit deutlich schnellerer Inferenz.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: Beginn der Reise zur rekursiven Selbstverbesserung, erstklassige reale Ingenieursfähigkeiten.",
|
||||
"MiniMax-M2.7.description": "Das erste selbst-evolvierende Modell mit erstklassiger Code- und Agent-Leistung (~60 tps).",
|
||||
"MiniMax-M2.description": "MiniMax M2: Modell der vorherigen Generation.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 ist ein großskaliges Hybrid-Attention-Reasoning-Modell mit offenen Gewichten, 456 Milliarden Gesamtparametern und ~45,9 Milliarden aktiven Parametern pro Token. Es unterstützt nativ 1 Million Kontext und verwendet Flash Attention, um FLOPs bei der Generierung von 100.000 Tokens im Vergleich zu DeepSeek R1 um 75 % zu reduzieren. Mit einer MoE-Architektur sowie CISPO und Hybrid-Attention-RL-Training erreicht es führende Leistungen bei langem Input-Reasoning und realen Software-Engineering-Aufgaben.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 ist ein Open-Source-natives multimodales Agentenmodell, basierend auf Kimi-K2-Base, trainiert mit etwa 1,5 Billionen gemischten Bild- und Text-Tokens. Das Modell verwendet eine MoE-Architektur mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern, unterstützt ein Kontextfenster von 256K und integriert nahtlos visuelle und sprachliche Verständnisfähigkeiten.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 ist ein Next-Generation-Flaggschiffmodell für Agent Engineering und nutzt eine Mixture-of-Experts-(MoE)-Architektur mit 754B Parametern. Es verbessert die Programmierfähigkeiten erheblich, erzielt Spitzenwerte auf SWE-Bench Pro und übertrifft seinen Vorgänger deutlich bei Benchmarks wie NL2Repo und Terminal-Bench 2.0. Für langanhaltende Agent-Aufgaben konzipiert, verarbeitet es mehrdeutige Fragen mit besserem Urteilsvermögen, zerlegt komplexe Aufgaben, führt Experimente aus, analysiert Ergebnisse und optimiert kontinuierlich über hunderte Iterationen und tausende Tool-Aufrufe.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 ist Zhipus neues Flaggschiffmodell der Generation mit 355 Milliarden Gesamt- und 32 Milliarden aktiven Parametern, vollständig aktualisiert in allgemeinem Dialog, logischem Denken und Agentenfähigkeiten. GLM-4.7 verbessert Interleaved Thinking und führt Preserved Thinking sowie Turn-level Thinking ein.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 ist Zhipus nächste Generation eines großen Sprachmodells, das sich auf komplexe Systementwicklung und lang andauernde Agentenaufgaben konzentriert. Die Modellparameter wurden auf 744 Milliarden (40 Milliarden aktiv) erweitert und integrieren DeepSeek Sparse Attention.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 ist für fortgeschrittenes logisches Denken und Befolgen von Anweisungen optimiert. Es nutzt MoE, um effizientes Denken im großen Maßstab zu ermöglichen.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B ist ein MoE-Modell mit einem hybriden Denkmodus, der es Nutzern ermöglicht, nahtlos zwischen Denk- und Nicht-Denk-Modus zu wechseln. Es unterstützt Verständnis und logisches Denken in 119 Sprachen und Dialekten und verfügt über starke Tool-Calling-Fähigkeiten. Es konkurriert mit führenden Modellen wie DeepSeek R1, OpenAI o1, o3-mini, Grok 3 und Google Gemini 2.5 Pro in Benchmarks zu allgemeinen Fähigkeiten, Programmierung, Mathematik, Mehrsprachigkeit und Wissensverarbeitung.",
|
||||
"Qwen3-32B.description": "Qwen3-32B ist ein dichtes Modell mit einem hybriden Denkmodus, der Nutzern erlaubt, zwischen Denk- und Nicht-Denk-Modus zu wechseln. Durch Verbesserungen in der Architektur, mehr Trainingsdaten und besseres Training erreicht es eine Leistung auf dem Niveau von Qwen2.5-72B.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus unterstützt Text-, Bild- und Videoeingaben. Die Leistung bei reinen Textaufgaben ist vergleichbar mit Qwen3 Max, jedoch mit besseren Ergebnissen und niedrigeren Kosten. Seine multimodalen Fähigkeiten sind deutlich verbessert gegenüber der Qwen3-VL-Serie.",
|
||||
"S2V-01.description": "Das grundlegende Referenz-zu-Video-Modell der 01-Serie.",
|
||||
"SenseChat-128K.description": "Basisversion V4 mit 128K Kontext, stark im Verständnis und der Generierung von Langtexten.",
|
||||
"SenseChat-32K.description": "Basisversion V4 mit 32K Kontext, flexibel einsetzbar in vielen Szenarien.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweitertem Denken.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – blitzschnell und mit erweitertem Denkvermögen.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweiterten Denkfähigkeiten.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist Anthropics neuestes und leistungsfähigstes Modell für hochkomplexe Aufgaben und überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 ist Anthropics leistungsstärkstes Modell für besonders komplexe Aufgaben und überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Erstellung von Agenten und Programmierung.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 ist Anthropics intelligentestes Modell für die Entwicklung von Agenten und Codierung.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 ist das Flaggschiff-Modell von Anthropic, das erstklassige Intelligenz mit skalierbarer Leistung für komplexe, hochwertige Denkaufgaben kombiniert.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic, das nahezu sofortige Antworten oder erweitertes schrittweises Denken mit fein abgestimmter Kontrolle für API-Benutzer bietet.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche schrittweise Denkprozesse mit sichtbarer Herleitung erzeugen.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 bietet die beste Kombination aus Geschwindigkeit und Intelligenz.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche schrittweise Überlegungen liefern, die Benutzer sehen können. API-Benutzer können fein steuern, wie lange das Modell nachdenkt.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Next-Gen-Modell für logisches Denken mit stärkeren Fähigkeiten für komplexes Denken und Kettenlogik.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 balanciert Argumentation und Ausgabelänge für tägliche QA- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau, und es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führende Open-Source-Agentenbewertungen erzielt.",
|
||||
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Coding-Fähigkeiten kombiniert. Es behält die dialogorientierten Eigenschaften des Chat-Modells und die starke Codierleistung des Coder-Modells bei – mit besserer Präferenzabstimmung. DeepSeek‑V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
|
||||
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
|
||||
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein tiefes Argumentationsmodell, das vor der Ausgabe eine Gedankenverkettung erzeugt, um höhere Genauigkeit zu erzielen, mit Spitzenwettbewerbsergebnissen und Argumentation vergleichbar mit Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "Der Thinking-Modus von DeepSeek V3.2 erzeugt vor der finalen Antwort eine Chain-of-Thought, um die Genauigkeit zu erhöhen.",
|
||||
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 ist ein Vorschau-Denkmodell für Evaluierung und Tests.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom ByteDance Seed-Team, unterstützt Multi-Bild-Bearbeitung und Komposition. Es bietet verbesserte Konsistenz des Subjekts, präzise Befolgung von Anweisungen, Verständnis räumlicher Logik, ästhetischen Ausdruck, Posterlayout und Logodesign mit hochpräziser Text-Bild-Wiedergabe.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochkontrollierbare, qualitativ hochwertige Bildgenerierung aus Aufforderungen.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed und unterstützt Text- sowie Bildeingaben mit hochgradig steuerbarer, hochwertiger Bildgenerierung. Es erzeugt Bilder auf Basis von Texteingaben.",
|
||||
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
|
||||
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
|
||||
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell vom Qwen-Team, das semantische und Erscheinungsbearbeitungen, präzise chinesische/englische Textbearbeitung, Stilübertragung, Rotation und mehr unterstützt.",
|
||||
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell vom Qwen-Team mit starker chinesischer Textwiedergabe und vielfältigen visuellen Stilen.",
|
||||
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und optische Anpassungen unterstützt, chinesischen und englischen Text präzise bearbeiten kann und hochwertige Bearbeitungen wie Stiltransfer und Objektrotation ermöglicht.",
|
||||
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textdarstellung und vielfältigen visuellen Stilen.",
|
||||
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
|
||||
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
|
||||
"flux-dev.description": "Open-Source‑Bildgenerierungsmodell für Forschung und Entwicklung, effizient optimiert für nichtkommerzielle Innovationsforschung.",
|
||||
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
||||
"flux-kontext-pro.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
||||
"flux-merged.description": "FLUX.1 [merged] kombiniert die tiefen Features, die in \"DEV\" erforscht wurden, mit den Hochgeschwindigkeitsvorteilen von \"Schnell\", erweitert die Leistungsgrenzen und erweitert die Anwendungsbereiche.",
|
||||
"flux-pro-1.1-ultra.description": "Bildgenerierung in Ultra-HD mit 4MP-Ausgabe, erzeugt gestochen scharfe Bilder in 10 Sekunden.",
|
||||
"flux-pro-1.1.description": "Verbessertes professionelles Bildgenerierungsmodell mit exzellenter Bildqualität und präziser Prompt-Umsetzung.",
|
||||
"flux-pro.description": "Hochwertiges kommerzielles Bildgenerierungsmodell mit unübertroffener Bildqualität und vielfältigen Ausgaben.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] ist das fortschrittlichste Open-Source-Modell mit wenigen Schritten, übertrifft vergleichbare Konkurrenten und sogar starke nicht-destillierte Modelle wie Midjourney v6.0 und DALL-E 3 (HD). Feinabgestimmt zur Erhaltung der Vielfalt aus dem Pretraining, verbessert es visuelle Qualität, Anweisungsbefolgung, Größen-/Seitenverhältnisvariation, Schriftverarbeitung und Ausgabediversität erheblich.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell ist ein leistungsstarkes Bildgenerierungsmodell für schnelle Ausgaben in mehreren Stilen.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile, anpassbare Leistung für komplexe Aufgaben.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) bietet starke multimodale Unterstützung für komplexe Aufgaben.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist – es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell, das auch multimodale Dialoge unterstützt.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodalen Chat.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt zudem multimodale Chats.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Denkunterstützung, konversationaler Bildgenerierung und -bearbeitung.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Pro-Level-Bildqualität mit Flash-Geschwindigkeit und unterstützt multimodalen Chat.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Thinking-Unterstützung sowie dialogorientierter Bildgenerierung und -bearbeitung.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview ist Googles kosteneffizientestes multimodales Modell, optimiert für hochvolumige agentische Aufgaben, Übersetzung und Datenverarbeitung.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbessert Gemini 3 Pro mit erweiterten Fähigkeiten für logisches Denken und unterstützt mittleres Denklevel.",
|
||||
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "Unser leistungsstärkstes und fortschrittlichstes Modell, entwickelt für komplexe Unternehmensaufgaben mit herausragender Leistung.",
|
||||
"jamba-mini.description": "Das effizienteste Modell seiner Klasse – vereint Geschwindigkeit und Qualität bei geringem Ressourcenverbrauch.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch kombiniert Websuche, Leseverständnis und logisches Denken für gründliche Recherchen. Stellen Sie sich einen Agenten vor, der Ihre Rechercheaufgabe übernimmt, breit gefächerte Suchen in mehreren Iterationen durchführt und erst dann eine Antwort liefert. Der Prozess umfasst kontinuierliche Recherche, Schlussfolgerungen und Problemlösungen aus verschiedenen Blickwinkeln – grundlegend anders als herkömmliche LLMs, die auf vortrainierten Daten basieren, oder klassische RAG-Systeme mit einmaliger Oberflächensuche.",
|
||||
"k2p5.description": "Kimi K2.5 ist Kimi's vielseitigstes Modell bis heute, mit einer nativen multimodalen Architektur, die sowohl visuelle als auch textuelle Eingaben unterstützt, 'denkenden' und 'nicht-denkenden' Modi sowie sowohl konversationelle als auch agentenbasierte Aufgaben.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 ist ein MoE-Grundlagenmodell mit starken Fähigkeiten in den Bereichen Programmierung und Agentenfunktionen (1T Gesamtparameter, 32B aktiv) und übertrifft andere gängige Open-Source-Modelle in den Bereichen logisches Denken, Programmierung, Mathematik und Agenten-Benchmarks.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview bietet ein 256k-Kontextfenster, verbesserte agentenbasierte Programmierung, höhere Codequalität im Frontend und ein besseres Kontextverständnis.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct ist das offizielle Modell von Kimi für logisches Denken mit erweitertem Kontext für Code, Fragenbeantwortung und mehr.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ ist ein Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen bietet es überlegene Denk- und Schlussfolgerungsfähigkeiten, die die Leistung bei nachgelagerten Aufgaben deutlich verbessern – insbesondere bei schwierigen Problemen. QwQ-32B ist ein mittelgroßes Modell, das mit führenden Schlussfolgerungsmodellen wie DeepSeek-R1 und o1-mini mithalten kann.",
|
||||
"qwq_32b.description": "Mittelgroßes Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen steigern QwQs Denk- und Schlussfolgerungsfähigkeiten die Leistung bei nachgelagerten Aufgaben deutlich – insbesondere bei schwierigen Problemen.",
|
||||
"r1-1776.description": "R1-1776 ist eine nachtrainierte Variante von DeepSeek R1, die darauf ausgelegt ist, unzensierte, objektive und faktenbasierte Informationen bereitzustellen.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro von ByteDance unterstützt Text-zu-Video, Bild-zu-Video (erstes Bild, erstes+letztes Bild) und Audioerzeugung synchronisiert mit visuellen Inhalten.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite von BytePlus bietet webabfrage-unterstützte Erzeugung für Echtzeitinformationen, verbesserte Interpretation komplexer Aufforderungen und verbesserte Referenzkonsistenz für professionelle visuelle Erstellung.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja) erweitert Solar Mini mit einem Fokus auf Japanisch und behält dabei eine effiziente und starke Leistung in Englisch und Koreanisch bei.",
|
||||
"solar-mini.description": "Solar Mini ist ein kompaktes LLM, das GPT-3.5 übertrifft. Es bietet starke mehrsprachige Fähigkeiten in Englisch und Koreanisch und ist eine effiziente Lösung mit kleinem Ressourcenbedarf.",
|
||||
"solar-pro.description": "Solar Pro ist ein hochintelligentes LLM von Upstage, das auf Befolgen von Anweisungen auf einer einzelnen GPU ausgelegt ist und IFEval-Werte über 80 erreicht. Derzeit wird Englisch unterstützt; die vollständige Veröffentlichung mit erweitertem Sprachsupport und längeren Kontexten war für November 2024 geplant.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 ist unser neues leistungsstarkes Medienerzeugungsmodell, das Videos mit synchronisiertem Audio erzeugt. Es kann reich detaillierte, dynamische Clips aus natürlicher Sprache oder Bildern erstellen.",
|
||||
"spark-x.description": "X2-Fähigkeiten-Übersicht: 1. Führt dynamische Anpassung des Denkmodus ein, gesteuert über das `thinking`-Feld. 2. Erweiterte Kontextlänge: 64K Eingabetokens und 128K Ausgabetokens. 3. Unterstützt Funktionaufruf-Funktionalität.",
|
||||
"stable-diffusion-3-medium.description": "Das neueste Text-zu-Bild-Modell von Stability AI. Diese Version verbessert die Bildqualität, das Textverständnis und die Stilvielfalt erheblich, interpretiert komplexe Spracheingaben präziser und erzeugt genauere, vielfältigere Bilder.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo nutzt Adversarial Diffusion Distillation (ADD) auf stable-diffusion-3.5-large für höhere Geschwindigkeit.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large ist ein MMDiT Text-zu-Bild-Modell mit 800 Millionen Parametern, das hervorragende Qualität und präzise Prompt-Umsetzung bietet. Es unterstützt 1-Megapixel-Bilder und läuft effizient auf Consumer-Hardware.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 basiert auf dem v1.2-Checkpoint und wurde 595.000 Schritte lang auf „laion-aesthetics v2 5+“ bei 512x512 Auflösung feinjustiert. Die Textkonditionierung wurde um 10 % reduziert, um das classifier-free guidance sampling zu verbessern.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo konzentriert sich auf hochwertige Bildgenerierung mit starker Detaildarstellung und hoher Szenentreue.",
|
||||
"stable-diffusion-xl-base-1.0.description": "Ein Open-Source-Text-zu-Bild-Modell von Stability AI mit branchenführender kreativer Bildgenerierung. Es versteht Anweisungen sehr gut und unterstützt umgekehrte Prompt-Definitionen für präzise Generierung.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl bringt große Verbesserungen gegenüber v1.5 und erreicht Ergebnisse auf dem Niveau der besten offenen Text-zu-Bild-Modelle. Zu den Verbesserungen gehören ein dreimal größerer UNet-Backbone, ein Verfeinerungsmodul für bessere Bildqualität und effizientere Trainingstechniken.",
|
||||
"step-1-128k.description": "Ausgewogenes Verhältnis von Leistung und Kosten für allgemeine Anwendungsfälle.",
|
||||
"step-1-256k.description": "Verarbeitung extralanger Kontexte – ideal für die Analyse langer Dokumente.",
|
||||
"step-1-32k.description": "Unterstützt mittellange Konversationen für vielfältige Szenarien.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "{{count}} Parameter insgesamt",
|
||||
"arguments.title": "Argumente",
|
||||
"builtins.lobe-activator.apiName.activateTools": "Werkzeuge aktivieren",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} nicht gefunden",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Verfügbare Modelle abrufen",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Verfügbare Skills abrufen",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "Konfiguration abrufen",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
|
||||
"kimicodingplan.description": "Kimi Code von Moonshot AI bietet Zugriff auf Kimi-Modelle, darunter K2.5, für Coding-Aufgaben.",
|
||||
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
|
||||
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung mit Credits, die an Modell-Token gebunden sind.",
|
||||
"longcat.description": "LongCat ist eine Reihe von generativen KI-Großmodellen, die unabhängig von Meituan entwickelt wurden. Sie sind darauf ausgelegt, die Produktivität innerhalb des Unternehmens zu steigern und innovative Anwendungen durch eine effiziente Rechenarchitektur und starke multimodale Fähigkeiten zu ermöglichen.",
|
||||
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
|
||||
"minimaxcodingplan.description": "Der MiniMax Token Plan bietet Zugriff auf MiniMax-Modelle, darunter M2.7, für Coding-Aufgaben im Rahmen eines Festpreis-Abonnements.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Spark bietet leistungsstarke mehrsprachige KI für verschiedene Branchen – von Smart Hardware über Gesundheitswesen bis hin zu Finanzen.",
|
||||
"stepfun.description": "Stepfun-Modelle bieten führende multimodale und komplexe Denkfähigkeiten – mit Langkontextverständnis und leistungsstarker autonomer Suchorchestrierung.",
|
||||
"straico.description": "Straico vereinfacht die Integration von KI, indem es einen einheitlichen Arbeitsbereich bietet, der führende text-, bild- und audiogenerative KI-Modelle zusammenführt. So erhalten Marketer, Unternehmer und Enthusiasten nahtlosen Zugang zu vielfältigen KI-Tools.",
|
||||
"streamlake.description": "StreamLake ist eine Unternehmensplattform für Modellservices und Cloud-Computing im Bereich KI. Sie vereint leistungsstarke Modellinferenz, kostengünstige Modellanpassung und vollständig verwaltete Services, sodass Unternehmen sich auf die Entwicklung innovativer KI-Anwendungen konzentrieren können, ohne sich um die Komplexität und die Kosten der zugrunde liegenden Computing‑Ressourcen sorgen zu müssen.",
|
||||
"taichu.description": "Ein multimodales Next-Gen-Modell von CASIA und dem Wuhan Institute of AI – unterstützt mehrstufige Q&A, Schreiben, Bildgenerierung, 3D-Verständnis und Signalanalyse mit starker Kognition und Kreativität.",
|
||||
"tencentcloud.description": "LLM Knowledge Engine Atomic Power bietet End-to-End-Wissens-Q&A für Unternehmen und Entwickler – mit modularen Diensten wie Dokumentenparsing, Chunking, Embeddings und mehrstufigem Rewriting für individuelle KI-Lösungen.",
|
||||
"togetherai.description": "Together AI liefert führende Leistung mit innovativen Modellen, breiter Anpassbarkeit, schneller Skalierung und einfacher Bereitstellung für Unternehmensanforderungen.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "Systemwerkzeuge",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher – schnelles Tool zur Codesuche",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-Browser - headless Browser-Automatisierungs-CLI für KI-Agenten",
|
||||
"settingSystemTools.tools.bun.desc": "Bun – schnelle JavaScript-Laufzeitumgebung und Paketmanager",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx – Bun-Paketausführer zum Ausführen von npm-Paketen",
|
||||
"settingSystemTools.tools.fd.desc": "fd – schnelle und benutzerfreundliche Alternative zu find",
|
||||
"settingSystemTools.tools.find.desc": "Unix find – Standardbefehl zur Dateisuche",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep – Standardwerkzeug zur Textsuche",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI – LobeHub-Dienste verwalten und verbinden",
|
||||
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight-Suche (schnelle indizierte Suche)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - JavaScript-Laufzeitumgebung für JS/TS",
|
||||
"settingSystemTools.tools.npm.desc": "npm - Node.js-Paketmanager für die Installation von Abhängigkeiten",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm – schneller, platzsparender Paketmanager",
|
||||
"settingSystemTools.tools.python.desc": "Python - Laufzeitumgebung für die Programmiersprache",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep – extrem schnelles Tool zur Textsuche",
|
||||
"settingSystemTools.tools.uv.desc": "uv – extrem schneller Python-Paketmanager",
|
||||
"settingTTS.openai.sttModel": "OpenAI Sprach-zu-Text-Modell",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "OpenAI Text-zu-Sprache-Modell",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "Modell",
|
||||
"systemAgent.inputCompletion.modelDesc": "Modell, das für Eingabevorschläge zur automatischen Vervollständigung verwendet wird (wie GitHub Copilot-Geistertext)",
|
||||
"systemAgent.inputCompletion.title": "Agent für automatische Eingabevervollständigung",
|
||||
"systemAgent.promptRewrite.label": "Modell",
|
||||
"systemAgent.promptRewrite.modelDesc": "Geben Sie das Modell an, das zum Umschreiben von Prompts verwendet wird",
|
||||
"systemAgent.promptRewrite.title": "Prompt-Umschreibagent",
|
||||
"systemAgent.queryRewrite.label": "Modell",
|
||||
"systemAgent.queryRewrite.modelDesc": "Modell zur Optimierung von Benutzeranfragen",
|
||||
"systemAgent.queryRewrite.title": "Agent zur Umschreibung von Bibliotheksanfragen",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "Laden Sie eine lokale .zip- oder .skill-Datei hoch",
|
||||
"tab.usage": "Nutzungsstatistik",
|
||||
"tools.add": "Fähigkeit hinzufügen",
|
||||
"tools.builtins.find-skills.description": "Hilft Nutzern, Agenten‑Fähigkeiten zu entdecken und zu installieren, wenn sie fragen „Wie mache ich X?“, „Finde eine Fähigkeit für X“ oder Funktionen erweitern möchten",
|
||||
"tools.builtins.find-skills.title": "Fähigkeiten finden",
|
||||
"tools.builtins.groupName": "Integriert",
|
||||
"tools.builtins.install": "Installieren",
|
||||
"tools.builtins.installed": "Installiert",
|
||||
"tools.builtins.lobe-activator.description": "Werkzeuge und Fähigkeiten entdecken und aktivieren",
|
||||
"tools.builtins.lobe-activator.title": "Tools & Skills Aktivator",
|
||||
"tools.builtins.lobe-agent-browser.description": "Browser‑Automatisierungs‑CLI für KI-Agenten. Nutzen Sie sie bei Aufgaben mit Webseiten- oder Electron‑Interaktion wie Navigation, Formularausfüllung, Klicken, Screenshot-Erfassung, Datenscraping, Login‑Abläufen und End‑to‑End‑App‑Tests.",
|
||||
"tools.builtins.lobe-agent-browser.title": "Agent Browser",
|
||||
"tools.builtins.lobe-agent-builder.description": "Metadaten, Modelleinstellungen, Plugins und den System-Prompt des Agents konfigurieren",
|
||||
"tools.builtins.lobe-agent-builder.title": "Agent Builder",
|
||||
"tools.builtins.lobe-agent-documents.description": "Agentenbezogene Dokumente verwalten (auflisten, erstellen, lesen, bearbeiten, löschen, umbenennen) und Lade‑Regeln steuern",
|
||||
"tools.builtins.lobe-agent-documents.title": "Dokumente",
|
||||
"tools.builtins.lobe-agent-management.description": "KI‑Agenten erstellen, verwalten und orchestrieren",
|
||||
"tools.builtins.lobe-agent-management.title": "Agentenverwaltung",
|
||||
"tools.builtins.lobe-artifacts.description": "Interaktive UI-Komponenten, Datenvisualisierungen, Diagramme, SVG-Grafiken und Webanwendungen generieren und in Echtzeit anzeigen. Erstellen Sie reichhaltige visuelle Inhalte, mit denen Nutzer direkt interagieren können.",
|
||||
"tools.builtins.lobe-artifacts.readme": "Erstellen und live-vorschauen interaktive UI-Komponenten, Datenvisualisierungen, Diagramme, SVG-Grafiken und Webanwendungen. Erzeugen Sie reichhaltige visuelle Inhalte, mit denen Nutzer direkt interagieren können.",
|
||||
"tools.builtins.lobe-artifacts.title": "Artefakte",
|
||||
"tools.builtins.lobe-brief.description": "Fortschritte melden, Ergebnisse liefern und Benutzerentscheidungen einholen",
|
||||
"tools.builtins.lobe-brief.title": "Brief Tools",
|
||||
"tools.builtins.lobe-calculator.description": "Mathematische Berechnungen durchführen, Gleichungen lösen und mit symbolischen Ausdrücken arbeiten",
|
||||
"tools.builtins.lobe-calculator.readme": "Erweiterter mathematischer Rechner, der grundlegende Arithmetik, algebraische Gleichungen, Kalkulationsoperationen und symbolische Mathematik unterstützt. Beinhaltet Basisumrechnung, Gleichungslösung, Differentiation, Integration und mehr.",
|
||||
"tools.builtins.lobe-calculator.title": "Rechner",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "Python-, JavaScript- und TypeScript-Code in einer isolierten Cloud-Umgebung ausführen. Shell-Befehle ausführen, Dateien verwalten, Inhalte mit Regex durchsuchen und Ergebnisse sicher exportieren.",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "Führen Sie Python-, JavaScript- und TypeScript-Code in einer isolierten Cloud-Umgebung aus. Führen Sie Shell-Befehle aus, verwalten Sie Dateien, durchsuchen Sie Inhalte mit regulären Ausdrücken und exportieren Sie Ergebnisse sicher.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "Cloud-Sandbox",
|
||||
"tools.builtins.lobe-creds.description": "Benutzeranmeldedaten für Authentifizierung, Umgebungsvariablen und API‑Verifikation verwalten – API‑Schlüssel, OAuth‑Tokens und Secrets für Integrationen Dritter handhaben.",
|
||||
"tools.builtins.lobe-creds.title": "Zugangsdaten",
|
||||
"tools.builtins.lobe-cron.description": "Geplante Aufgaben verwalten, die automatisch zu bestimmten Zeiten ausgeführt werden. Wiederkehrende Aufgaben für Ihre Agenten erstellen, aktualisieren, aktivieren/deaktivieren und überwachen.",
|
||||
"tools.builtins.lobe-cron.title": "Geplante Aufgaben",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "Metadaten, Mitglieder und gemeinsame Inhalte für Multi‑Agenten‑Gruppen konfigurieren",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "Gruppen‑Agent‑Builder",
|
||||
"tools.builtins.lobe-group-management.description": "Unterhaltungen von Multi‑Agenten‑Gruppen orchestrieren und verwalten",
|
||||
"tools.builtins.lobe-group-management.title": "Gruppenverwaltung",
|
||||
"tools.builtins.lobe-gtd.description": "Ziele planen und Fortschritte mit der GTD-Methode verfolgen. Strategische Pläne erstellen, Aufgabenlisten mit Statusverfolgung verwalten und lang laufende asynchrone Aufgaben ausführen.",
|
||||
"tools.builtins.lobe-gtd.readme": "Planen Sie Ziele und verfolgen Sie Fortschritte mit der GTD-Methodik. Erstellen Sie strategische Pläne, verwalten Sie Aufgabenlisten mit Statusverfolgung und führen Sie lang laufende asynchrone Aufgaben aus.",
|
||||
"tools.builtins.lobe-gtd.title": "GTD-Werkzeuge",
|
||||
"tools.builtins.lobe-knowledge-base.description": "Hochgeladene Dokumente und Domainwissen per semantischer Vektorsuche durchsuchen – für persistente, wiederverwendbare Referenzen",
|
||||
"tools.builtins.lobe-knowledge-base.title": "Wissensdatenbank",
|
||||
"tools.builtins.lobe-local-system.description": "Zugriff auf Ihr lokales Dateisystem auf dem Desktop. Dateien lesen, schreiben, durchsuchen und organisieren. Shell-Befehle mit Unterstützung für Hintergrundaufgaben ausführen und Inhalte mit Regex-Mustern durchsuchen.",
|
||||
"tools.builtins.lobe-local-system.readme": "Greifen Sie auf Ihr lokales Dateisystem auf dem Desktop zu. Lesen, schreiben, durchsuchen und organisieren Sie Dateien. Führen Sie Shell-Befehle mit Unterstützung für Hintergrundaufgaben aus und durchsuchen Sie Inhalte mit regulären Ausdrücken.",
|
||||
"tools.builtins.lobe-local-system.title": "Lokales System",
|
||||
"tools.builtins.lobe-message.description": "Nachrichten über mehrere Messaging‑Plattformen hinweg senden, lesen, bearbeiten und verwalten – über eine einheitliche Schnittstelle",
|
||||
"tools.builtins.lobe-message.readme": "Plattformübergreifendes Messaging‑Tool mit Unterstützung für Discord, Telegram, Slack, Google Chat und IRC. Bietet einheitliche APIs für Nachrichtenoperationen, Reaktionen, Pins, Threads, Kanalverwaltung und plattformspezifische Funktionen wie Umfragen.",
|
||||
"tools.builtins.lobe-message.title": "Nachricht",
|
||||
"tools.builtins.lobe-notebook.description": "Erstellen und verwalten Sie persistente Dokumente innerhalb von Konversationsthemen. Notizen, Berichte, Artikel und Markdown-Inhalte speichern, die über Sitzungen hinweg zugänglich bleiben.",
|
||||
"tools.builtins.lobe-notebook.readme": "Erstellen und verwalten Sie persistente Dokumente innerhalb von Konversationsthemen. Speichern Sie Notizen, Berichte, Artikel und Markdown-Inhalte, die über Sitzungen hinweg zugänglich bleiben.",
|
||||
"tools.builtins.lobe-notebook.title": "Notizbuch",
|
||||
"tools.builtins.lobe-page-agent.description": "Knoten in XML‑strukturierten Dokumenten erstellen, lesen, aktualisieren und löschen",
|
||||
"tools.builtins.lobe-page-agent.readme": "Strukturierte Dokumente mit präziser Kontrolle auf Knotenebene erstellen und bearbeiten. Aus Markdown initialisieren, Batch‑Operationen durchführen und Suchen‑und‑Ersetzen über Dokumente hinweg anwenden.",
|
||||
"tools.builtins.lobe-page-agent.title": "Dokument",
|
||||
"tools.builtins.lobe-remote-device.description": "Remote‑Desktop‑Geräteverbindungen entdecken und verwalten",
|
||||
"tools.builtins.lobe-remote-device.readme": "Verbindungen zu Ihren Desktop‑Geräten verwalten. Online‑Geräte auflisten, ein Gerät für Remote‑Operationen aktivieren und den Verbindungsstatus prüfen.",
|
||||
"tools.builtins.lobe-remote-device.title": "Remote‑Gerät",
|
||||
"tools.builtins.lobe-skill-store.description": "Agenten‑Fähigkeiten aus dem LobeHub‑Marktplatz durchsuchen und installieren. Nutzen Sie dies, wenn Sie Funktionen erweitern oder eine bestimmte Fähigkeit installieren möchten.",
|
||||
"tools.builtins.lobe-skill-store.title": "Fähigkeiten‑Store",
|
||||
"tools.builtins.lobe-skills.description": "Wiederverwendbare Fähigkeitenpakete aktivieren und nutzen",
|
||||
"tools.builtins.lobe-skills.title": "Fähigkeiten",
|
||||
"tools.builtins.lobe-task.description": "Aufgaben mit Abhängigkeiten und Review‑Konfiguration erstellen, auflisten, bearbeiten und löschen",
|
||||
"tools.builtins.lobe-task.title": "Aufgabentools",
|
||||
"tools.builtins.lobe-topic-reference.description": "Kontext aus referenzierten Themenunterhaltungen abrufen",
|
||||
"tools.builtins.lobe-topic-reference.title": "Themenreferenz",
|
||||
"tools.builtins.lobe-user-interaction.description": "Benutzern über UI‑Interaktionen Fragen stellen und deren Ergebnisverläufe beobachten",
|
||||
"tools.builtins.lobe-user-interaction.title": "Benutzerinteraktion",
|
||||
"tools.builtins.lobe-user-memory.description": "Erstellen Sie eine personalisierte Wissensdatenbank über sich selbst. Präferenzen merken, Aktivitäten und Erfahrungen verfolgen, Identitätsinformationen speichern und relevanten Kontext in zukünftigen Gesprächen abrufen.",
|
||||
"tools.builtins.lobe-user-memory.readme": "Erstellen Sie eine personalisierte Wissensdatenbank über sich selbst. Merken Sie sich Vorlieben, verfolgen Sie Aktivitäten und Erfahrungen, speichern Sie Identitätsinformationen und erinnern Sie sich an relevante Kontexte in zukünftigen Gesprächen.",
|
||||
"tools.builtins.lobe-user-memory.title": "Gedächtnis",
|
||||
"tools.builtins.lobe-web-browsing.description": "Web durchsuchen, um aktuelle Informationen zu finden, und Webseiten crawlen, um Inhalte zu extrahieren. Unterstützt mehrere Suchmaschinen, Kategorien und Zeiträume.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "Web nach aktuellen Informationen durchsuchen und Webseiten crawlen, um Inhalte zu extrahieren. Unterstützt mehrere Suchmaschinen, Kategorien und Zeiträume für umfassende Recherche.",
|
||||
"tools.builtins.lobe-web-browsing.title": "Web‑Browsing",
|
||||
"tools.builtins.lobe-web-onboarding.description": "Den Web‑Onboarding‑Prozess mit einer kontrollierten Agenten‑Laufzeit steuern",
|
||||
"tools.builtins.lobe-web-onboarding.title": "Web‑Onboarding",
|
||||
"tools.builtins.lobehub.description": "Die LobeHub‑Plattform per CLI verwalten – Wissensdatenbanken, Speicher, Agenten, Dateien, Suche, Generierung und mehr.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "Nicht installiert",
|
||||
"tools.builtins.task.description": "Aufgabenverwaltung und ‑ausführung – Aufgaben per CLI erstellen, verfolgen, überprüfen und abschließen.",
|
||||
"tools.builtins.task.title": "Aufgabe",
|
||||
"tools.builtins.uninstall": "Deinstallieren",
|
||||
"tools.builtins.uninstallConfirm.desc": "Möchten Sie {{name}} wirklich deinstallieren? Diese Fähigkeit wird vom aktuellen Agenten entfernt.",
|
||||
"tools.builtins.uninstallConfirm.title": "{{name}} deinstallieren",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "{{name}} trennen?",
|
||||
"tools.lobehubSkill.disconnected": "Getrennt",
|
||||
"tools.lobehubSkill.error": "Fehler",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub ist eine Plattform für Versionskontrolle und Zusammenarbeit, die es Entwicklern ermöglicht, Code-Repositories zu hosten, zu prüfen und zu verwalten.",
|
||||
"tools.lobehubSkill.providers.github.readme": "Mit GitHub verbinden, um auf Ihre Repositories zuzugreifen, Issues zu erstellen und zu verwalten, Pull Requests zu prüfen und an Code zusammenzuarbeiten – alles in natürlicher Sprache mit Ihrem KI‑Assistenten.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear ist ein modernes Tool zur Aufgabenverfolgung und Projektverwaltung, das für leistungsstarke Teams entwickelt wurde, um bessere Software schneller zu entwickeln.",
|
||||
"tools.lobehubSkill.providers.linear.readme": "Nutzen Sie die Funktionen von Linear direkt in Ihrem KI-Assistenten. Issues erstellen und aktualisieren, Sprints verwalten, Projektfortschritte verfolgen und Ihren Entwicklungsworkflow per Konversation optimieren.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "Outlook Kalender ist ein integriertes Planungstool in Microsoft Outlook, mit dem Nutzer Termine erstellen, Meetings organisieren und ihre Zeit effektiv verwalten können.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "Integrieren Sie Outlook Kalender, um Ihre Termine nahtlos anzuzeigen, zu erstellen und zu verwalten. Meetings planen, Verfügbarkeiten prüfen, Erinnerungen setzen und Ihre Zeit per natürlicher Sprache koordinieren.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (ehemals Twitter) ist eine Social-Media-Plattform für Echtzeit-Updates, Nachrichten und Interaktion mit Ihrem Publikum über Beiträge, Antworten und Direktnachrichten.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "Verbinden Sie sich mit X (Twitter), um Tweets zu posten, Ihre Timeline zu verwalten und mit Ihrem Publikum zu interagieren. Inhalte erstellen, Beiträge planen, Erwähnungen überwachen und Ihre Social-Media-Präsenz per Konversation ausbauen.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel ist eine Cloud‑Plattform für Frontend‑Entwickler und bietet Hosting sowie serverlose Funktionen, um Webanwendungen mühelos bereitzustellen.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "Mit Vercel verbinden, um Bereitstellungen zu verwalten, Projektstatus zu überwachen und Ihre Infrastruktur zu steuern. Anwendungen deployen, Build‑Logs prüfen, Umgebungsvariablen verwalten und Projekte per Konversations‑KI skalieren.",
|
||||
"tools.notInstalled": "Nicht installiert",
|
||||
"tools.notInstalledWarning": "Diese Fähigkeit ist derzeit nicht installiert, was die Funktionalität des Agenten beeinträchtigen kann.",
|
||||
"tools.plugins.enabled": "Aktiviert: {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "Startbild",
|
||||
"config.prompt.placeholder": "Beschreiben Sie das Video, das Sie erstellen möchten",
|
||||
"config.prompt.placeholderWithRef": "Beschreiben Sie die Szene, die Sie mit dem Bild erstellen möchten",
|
||||
"config.promptExtend.label": "Prompt-Erweiterung",
|
||||
"config.referenceImage.label": "Referenzbild",
|
||||
"config.resolution.label": "Auflösung",
|
||||
"config.seed.label": "Seed",
|
||||
"config.seed.random": "Zufällig",
|
||||
"config.size.label": "Größe",
|
||||
"config.watermark.label": "Wasserzeichen",
|
||||
"config.webSearch.label": "Websuche",
|
||||
"generation.actions.copyError": "Fehlermeldung kopieren",
|
||||
"generation.actions.errorCopied": "Fehlermeldung in die Zwischenablage kopiert",
|
||||
"generation.actions.errorCopyFailed": "Fehlermeldung konnte nicht kopiert werden",
|
||||
|
|
|
|||
|
|
@ -77,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "Required for interaction verification",
|
||||
"channel.qq.appIdHint": "Your QQ Bot App ID from QQ Open Platform",
|
||||
"channel.qq.description": "Connect this assistant to QQ for group chats and direct messages.",
|
||||
"channel.qq.webhookMigrationDesc": "WebSocket mode provides real-time event delivery and automatic reconnection without needing a callback URL. To migrate, create a new bot on QQ Open Platform without configuring a callback URL, then switch the Connection Mode to WebSocket in Advanced Settings.",
|
||||
"channel.qq.webhookMigrationTitle": "Consider migrating to WebSocket mode",
|
||||
"channel.removeChannel": "Remove Channel",
|
||||
"channel.removeFailed": "Failed to remove channel",
|
||||
"channel.removed": "Channel removed",
|
||||
|
|
|
|||
|
|
@ -134,7 +134,7 @@
|
|||
"input.addUser": "Add a user message",
|
||||
"input.disclaimer": "Agents can make mistakes. Use your judgment for critical info.",
|
||||
"input.errorMsg": "Send failed: {{errorMsg}}. Retry, or send again later.",
|
||||
"input.more": "more",
|
||||
"input.more": "More",
|
||||
"input.send": "Send",
|
||||
"input.sendWithCmdEnter": "Press <key/> to send",
|
||||
"input.sendWithEnter": "Press <key/> to send",
|
||||
|
|
@ -234,7 +234,7 @@
|
|||
"operation.contextCompression": "Context too long, compressing history...",
|
||||
"operation.execAgentRuntime": "Preparing response",
|
||||
"operation.execClientTask": "Executing task",
|
||||
"operation.execServerAgentRuntime": "Preparing response (switching tasks or closing the page won't stop)",
|
||||
"operation.execServerAgentRuntime": "Running… You can switch tasks or close the page — the task will keep going.",
|
||||
"operation.sendMessage": "Sending message",
|
||||
"owner": "Group owner",
|
||||
"pageCopilot.title": "Page Agent",
|
||||
|
|
@ -388,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "Fetching details...",
|
||||
"task.status.initializing": "Initializing task...",
|
||||
"task.subtask": "Subtask",
|
||||
"task.title": "Tasks",
|
||||
"thread.divider": "Subtopic",
|
||||
"thread.threadMessageCount": "{{messageCount}} messages",
|
||||
"thread.title": "Subtopic",
|
||||
|
|
@ -435,9 +436,11 @@
|
|||
"toolAuth.title": "Authorize Skills for this Agent",
|
||||
"topic.checkOpenNewTopic": "Start a new topic?",
|
||||
"topic.checkSaveCurrentMessages": "Do you want to save the current conversation as a topic?",
|
||||
"topic.defaultTitle": "Untitled Topic",
|
||||
"topic.openNewTopic": "Open New Topic",
|
||||
"topic.recent": "Recent Topics",
|
||||
"topic.saveCurrentMessages": "Save current session as topic",
|
||||
"topic.viewAll": "View All Topics",
|
||||
"translate.action": "Translate",
|
||||
"translate.clear": "Clear Translation",
|
||||
"tts.action": "Text-to-Speech",
|
||||
|
|
|
|||
|
|
@ -415,6 +415,7 @@
|
|||
"tab.audio": "Audio",
|
||||
"tab.chat": "Chat",
|
||||
"tab.community": "Community",
|
||||
"tab.create": "Create",
|
||||
"tab.discover": "Discover",
|
||||
"tab.eval": "Eval Lab",
|
||||
"tab.files": "Files",
|
||||
|
|
|
|||
|
|
@ -12,7 +12,7 @@
|
|||
"config.model.label": "Model",
|
||||
"config.prompt.placeholder": "Describe what you want to generate",
|
||||
"config.prompt.placeholderWithRef": "Describe how you want to adjust the image",
|
||||
"config.promptExtend.label": "Extended Prompt",
|
||||
"config.promptExtend.label": "Prompt Extend",
|
||||
"config.quality.label": "Image Quality",
|
||||
"config.quality.options.hd": "High Definition",
|
||||
"config.quality.options.standard": "Standard",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "A top-performing model in China, surpassing major overseas models on Chinese tasks like knowledge, long-form text, and creative generation. It also features industry-leading multimodal capabilities with strong results on authoritative benchmarks.",
|
||||
"Baichuan4.description": "Top domestic performance, surpassing leading overseas models on Chinese tasks like encyclopedic knowledge, long text, and creative generation. Also offers industry-leading multimodal capabilities and strong benchmark results.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS is a family of open-source LLMs from ByteDance Seed, designed for strong long-context handling, reasoning, agent, and general abilities. Seed-OSS-36B-Instruct is a 36B instruction-tuned model with native ultra-long context for processing large documents or codebases. It is optimized for reasoning, code generation, and agent tasks (tool use) while retaining strong general ability. A key feature is \"Thinking Budget,\" allowing flexible reasoning length to improve efficiency.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR is a vision-language model from DeepSeek AI focused on OCR and \"context optical compression.\" It explores compressing context from images, efficiently processes documents, and converts them to structured text (e.g., Markdown). It accurately recognizes text in images, suited for document digitization, text extraction, and structured processing.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, the larger and smarter model in the DeepSeek suite, is distilled into the Llama 70B architecture. Benchmarks and human evals show it is smarter than the base Llama 70B, especially on math and fact-precision tasks.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "A DeepSeek-R1 distilled model based on Qwen2.5-Math-1.5B. Reinforcement learning and cold-start data optimize reasoning performance, setting new multi-task benchmarks for open models.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill models are fine-tuned from open-source models using sample data generated by DeepSeek-R1.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "Provider: sophnet. DeepSeek V3 Fast is the high-TPS version of DeepSeek V3 0324, full-precision (non-quantized) with stronger code and math and faster responses.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast is the high-TPS fast variant of DeepSeek V3.1. Hybrid thinking mode: via chat templates, one model supports both thinking and non-thinking. Smarter tool use: post-training boosts tool and agent task performance.",
|
||||
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 thinking mode: a new hybrid reasoning model with thinking and non-thinking modes, more efficient than DeepSeek-R1-0528. Post-training optimizations significantly improve agent tool use and agent task performance.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 introduces sparse attention mechanism, aiming to improve training and inference efficiency when processing long texts, priced lower than deepseek-v3.1.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 is a MoE model developed by DeepSeek. It surpasses other open models like Qwen2.5-72B and Llama-3.1-405B on many benchmarks and is competitive with leading closed models such as GPT-4o and Claude 3.5 Sonnet.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite offers ultra-fast responses and better value, with flexible options across scenarios. Supports 128K context for inference and fine-tuning.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite offers ultra-fast responses and better value, with flexible options across scenarios. Supports 32K context for inference and fine-tuning.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: High-performance model for reasoning, coding, and agent tasks.",
|
||||
"GLM-4.6.description": "GLM-4.6: Previous generation model.",
|
||||
"GLM-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, enhanced for Agentic Coding scenarios with improved coding capabilities, long-term task planning, and tool collaboration.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: Optimized version of GLM-5 with faster inference for coding tasks.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo is a foundation model deeply optimized for agentic scenarios. It has been specifically optimized for core requirements of agent tasks from the training phase, enhancing key capabilities such as tool invocation, command following, and long-chain execution. It is ideal for building high-performance agent assistants.",
|
||||
"GLM-5.1.description": "GLM-5.1 is Zhipu's latest flagship model, an enhanced iteration of GLM-5 with improved agentic engineering capabilities for complex systems engineering and long-horizon tasks.",
|
||||
"GLM-5.description": "GLM-5 is Zhipu's next-generation flagship foundation model, purpose-built for Agentic Engineering. It delivers reliable productivity in complex systems engineering and long-horizon agentic tasks. In coding and agent capabilities, GLM-5 achieves state-of-the-art performance among open-source models.",
|
||||
"GLM-5.description": "GLM-5 is Zhipu’s next-generation flagship foundation model, purpose-built for Agentic Engineering. It delivers reliable productivity in complex systems engineering and long-horizon agentic tasks. In coding and agent capabilities, GLM-5 achieves state-of-the-art performance among open-source models. In real-world programming scenarios, its user experience approaches that of Claude Opus 4.5. It excels at complex systems engineering and long-horizon agent tasks, making it an ideal foundation model for general-purpose agent assistants.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) is an innovative model for diverse domains and complex tasks.",
|
||||
"HY-Image-V3.0.description": "Powerful original-image feature extraction and detail preservation capabilities, delivering richer visual texture and producing high-accuracy, well-composed, production-grade visuals.",
|
||||
"HelloMeme.description": "HelloMeme is an AI tool that generates memes, GIFs, or short videos from the images or motions you provide. It requires no drawing or coding skills—just a reference image—to produce fun, attractive, and stylistically consistent content.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter is a tuning-free personalized character generation model released by Tencent AI in 2025, aiming for high-fidelity, cross-scenario consistent character generation. It can model a character from a single reference image and flexibly transfer it across styles, actions, and backgrounds.",
|
||||
"InternVL2-8B.description": "InternVL2-8B is a powerful vision-language model supporting multimodal image-text processing, accurately recognizing image content and generating relevant descriptions or answers.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B is a powerful vision-language model supporting multimodal image-text processing, accurately recognizing image content and generating relevant descriptions or answers.",
|
||||
"KAT-Coder-Air-V1.description": "A lightweight version within the KAT-Coder series. Specifically designed for Agentic Coding, it comprehensively covers programming tasks and scenarios. Leveraging large-scale agent-based reinforcement learning, it enables emergent intelligent behaviors and significantly outperforms comparable models in coding performance.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B is the RL innovation experimental version in the KAT-Coder series, achieving a remarkable performance of 74.6% on the SWE-Bench verified benchmark, setting a new record for open-source models. It focuses on Agentic Coding and currently only supports the SWE-Agent scaffold, but can also be used for simple conversations.",
|
||||
"KAT-Coder-Pro-V1.description": "Designed for Agentic Coding, it comprehensively covers programming tasks and scenarios, achieving intelligent behavior emergence through large-scale reinforcement learning, significantly outperforming similar models in code writing performance.",
|
||||
"KAT-Coder-Pro-V2.description": "The latest high-performance model from the Kuaishou Kwaipilot team, designed for complex enterprise projects and SaaS integration. It excels in code-related scenarios and is compatible with various types of agent frameworks (Claude Code, OpenCode, KiloCode), natively supports OpenClaw, and is optimized specifically for front-end page aesthetics.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 is the most capable Kimi model, delivering open-source SOTA in agent tasks, coding, and vision understanding. It supports multimodal inputs and both thinking and non-thinking modes.",
|
||||
"Kolors.description": "Kolors is a text-to-image model developed by the Kuaishou Kolors team. Trained with billions of parameters, it has notable advantages in visual quality, Chinese semantic understanding, and text rendering.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors is a large-scale latent-diffusion text-to-image model by the Kuaishou Kolors team. Trained on billions of text-image pairs, it excels in visual quality, complex semantic accuracy, and Chinese/English text rendering, with strong Chinese content understanding and generation.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) is an open-source 32B model for software engineering tasks. It achieves a 62.4% solve rate on SWE-Bench Verified, ranking 5th among open models. It is optimized through mid-training, SFT, and RL for code completion, bug fixing, and code review.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "Cutting-edge small language model with strong language understanding, excellent reasoning, and text generation.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 is the most advanced multilingual open-source Llama model, delivering near-405B performance at very low cost. It is Transformer-based and improved with SFT and RLHF for usefulness and safety. The instruction-tuned version is optimized for multilingual chat and beats many open and closed chat models on industry benchmarks. Knowledge cutoff: Dec 2023.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is a large MoE model with efficient expert activation for strong reasoning performance.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro is specifically designed for high-intensity agent workflows in real-world scenarios. It features over 1 trillion total parameters (42B activated parameters), adopts an innovative hybrid attention architecture, and supports an ultra-long context length of up to 1 million tokens. Built on a powerful foundational model, we continuously scale computational resources across a broader range of agent scenarios, further expanding the action space of intelligence and achieving significant generalization—from coding to real-world task execution (“claw”).",
|
||||
"MiniMax-Hailuo-02.description": "The next-generation video generation model, MiniMax Hailuo 02, has been officially released, supporting 1080P resolution and 10-second video generation.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "Brand-new video generation model with comprehensive upgrades in body motion, physical realism, and instruction following.",
|
||||
"MiniMax-Hailuo-2.3.description": "Brand-new video generation model with comprehensive upgrades in body motion, physical realism, and instruction following.",
|
||||
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
|
||||
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
|
||||
"MiniMax-M2.1-Lightning.description": "Powerful multilingual programming capabilities with faster and more efficient inference.",
|
||||
"MiniMax-M2.1-highspeed.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience. Faster and more efficient.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Same performance as M2.5 with faster inference.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Same performance as M2.7 with significantly faster inference.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: Beginning the journey of recursive self-improvement, top real-world engineering capabilities.",
|
||||
"MiniMax-M2.7.description": "First self-evolving model with top-tier coding and agentic performance (~60 tps).",
|
||||
"MiniMax-M2.description": "MiniMax M2: Previous generation model.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is an open-weights large-scale hybrid-attention reasoning model with 456B total parameters and ~45.9B active per token. It natively supports 1M context and uses Flash Attention to cut FLOPs by 75% on 100K-token generation vs DeepSeek R1. With an MoE architecture plus CISPO and hybrid-attention RL training, it achieves leading performance on long-input reasoning and real software engineering tasks.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is the newest and most powerful Kimi K2. It is a top-tier MoE model with 1T total and 32B active parameters. Key features include stronger agentic coding intelligence with significant gains on benchmarks and real-world agent tasks, plus improved frontend coding aesthetics and usability.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is the Turbo variant optimized for reasoning speed and throughput while retaining K2 Thinking’s multi-step reasoning and tool use. It is an MoE model with ~1T total parameters, native 256K context, and stable large-scale tool calling for production scenarios with stricter latency and concurrency needs.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 is an open-source native multimodal agent model, built on Kimi-K2-Base, trained on approximately 1.5 trillion mixed vision and text tokens. The model adopts an MoE architecture with 1T total parameters and 32B active parameters, supporting a 256K context window, seamlessly integrating vision and language understanding capabilities.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 is a next-generation flagship model designed for agent engineering, using a Mixture of Experts (MoE) architecture with 754B parameters. It significantly enhances programming capabilities, achieving leading results on SWE-Bench Pro, and substantially outperforms its predecessor on benchmarks like NL2Repo and Terminal-Bench 2.0. Designed for long-duration agent tasks, it handles ambiguous questions with better judgment, decomposes complex tasks, executes experiments, analyzes results, and continuously optimizes through hundreds of iterations and thousands of tool calls.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 is Zhipu's new generation flagship model with 355B total parameters and 32B active parameters, fully upgraded in general dialogue, reasoning, and agent capabilities. GLM-4.7 enhances Interleaved Thinking and introduces Preserved Thinking and Turn-level Thinking.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 is Zhipu's next-generation large language model, focusing on complex system engineering and long-duration Agent tasks. The model parameters have been expanded to 744B (40B active) and integrate DeepSeek Sparse Attention.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improving reasoning.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 is optimized for advanced reasoning and instruction-following, using MoE to keep reasoning efficient at scale.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B is a MoE model that introduces a hybrid reasoning mode, letting users switch seamlessly between thinking and non-thinking. It supports understanding and reasoning across 119 languages and dialects and has strong tool-calling capabilities, competing with mainstream models like DeepSeek R1, OpenAI o1, o3-mini, Grok 3, and Google Gemini 2.5 Pro across benchmarks in general ability, code and math, multilingual capability, and knowledge reasoning.",
|
||||
"Qwen3-32B.description": "Qwen3-32B is a dense model that introduces a hybrid reasoning mode, letting users switch between thinking and non-thinking. With architecture improvements, more data, and better training, it performs on par with Qwen2.5-72B.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus supports text, image, and video input. Its performance on pure text tasks is comparable to Qwen3 Max, with better performance and lower cost. Its multimodal capabilities are significantly improved compared to the Qwen3 VL series.",
|
||||
"S2V-01.description": "The foundational reference-to-video model of the 01 series.",
|
||||
"SenseChat-128K.description": "Base V4 with 128K context, strong in long-text understanding and generation.",
|
||||
"SenseChat-32K.description": "Base V4 with 32K context, flexible for many scenarios.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's most intelligent model for building agents and coding.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic’s most intelligent model for building agents and coding.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining top-tier intelligence with scalable performance for complex, high-quality reasoning tasks.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 is Anthropic’s most intelligent model for building agents and coding.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 is Anthropic’s most intelligent model for building agents and coding.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic's most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic's best combination of speed and intelligence.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic’s best combination of speed and intelligence.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 is Anthropic’s best combination of speed and intelligence.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step reasoning that users can see. API users can finely control how long the model thinks.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought capabilities.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
|
||||
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
|
||||
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
|
||||
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
|
||||
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 is a thinking-model preview for evaluation and testing.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
|
||||
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
|
||||
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
|
||||
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
|
||||
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
|
||||
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
|
||||
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
|
||||
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
|
||||
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
|
||||
"flux-dev.description": "Open-source R&D image generation model, efficiently optimized for non-commercial innovation research.",
|
||||
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
||||
"flux-kontext-pro.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
||||
"flux-merged.description": "FLUX.1 [merged] combines the deep features explored in \"DEV\" with the high-speed advantages of \"Schnell\", extending performance limits and broadening applications.",
|
||||
"flux-pro-1.1-ultra.description": "Ultra-high-resolution image generation with 4MP output, producing crisp images in 10 seconds.",
|
||||
"flux-pro-1.1.description": "Upgraded professional-grade image generation model with excellent image quality and precise prompt adherence.",
|
||||
"flux-pro.description": "Top-tier commercial image generation model with unmatched image quality and diverse outputs.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] is the most advanced open-source few-step model, surpassing similar competitors and even strong non-distilled models like Midjourney v6.0 and DALL-E 3 (HD). It is finely tuned to preserve pretraining diversity, significantly improving visual quality, instruction following, size/aspect variation, font handling, and output diversity.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell is a high-performance image generation model for fast multi-style outputs.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) provides stable, tunable performance for complex tasks.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) provides strong multimodal support for complex tasks.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model that also supports multimodal dialogue.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s image generation model and also supports multimodal chat.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview is Google's most cost-efficient multimodal model, optimized for high-volume agentic tasks, translation, and data processing.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview improves on Gemini 3 Pro with enhanced reasoning capabilities and adds medium thinking level support.",
|
||||
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "Our most powerful, advanced model, designed for complex enterprise tasks with outstanding performance.",
|
||||
"jamba-mini.description": "The most efficient model in its class, balancing speed and quality with a smaller footprint.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch combines web search, reading, and reasoning for thorough investigations. Think of it as an agent that takes your research task, performs broad searches with multiple iterations, and only then produces an answer. The process involves continuous research, reasoning, and multi-angle problem solving, fundamentally different from standard LLMs that answer from pretraining data or traditional RAG systems that rely on one-shot surface search.",
|
||||
"k2p5.description": "Kimi K2.5 is Kimi's most versatile model to date, featuring a native multimodal architecture that supports both vision and text inputs, 'thinking' and 'non-thinking' modes, and both conversational and agent tasks.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 is an MoE foundation model with strong coding and agent capabilities (1T total params, 32B active), outperforming other mainstream open models across reasoning, programming, math, and agent benchmarks.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offers a 256k context window, stronger agentic coding, better front-end code quality, and improved context understanding.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct is Kimi’s official reasoning model with long context for code, QA, and more.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ is a reasoning model in the Qwen family. Compared with standard instruction-tuned models, it brings thinking and reasoning abilities that significantly improve downstream performance, especially on hard problems. QwQ-32B is a mid-sized reasoning model that competes well with top reasoning models like DeepSeek-R1 and o1-mini.",
|
||||
"qwq_32b.description": "Mid-sized reasoning model in the Qwen family. Compared with standard instruction-tuned models, QwQ’s thinking and reasoning abilities significantly boost downstream performance, especially on hard problems.",
|
||||
"r1-1776.description": "R1-1776 is a post-trained variant of DeepSeek R1 designed to provide uncensored, unbiased factual information.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance supports text-to-video, image-to-video (first frame, first+last frame), and audio generation synchronized with visuals.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus features web-retrieval-augmented generation for real-time information, enhanced complex prompt interpretation, and improved reference consistency for professional visual creation.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja) extends Solar Mini with a focus on Japanese while maintaining efficient, strong performance in English and Korean.",
|
||||
"solar-mini.description": "Solar Mini is a compact LLM that outperforms GPT-3.5, with strong multilingual capability supporting English and Korean, offering an efficient small-footprint solution.",
|
||||
"solar-pro.description": "Solar Pro is a high-intelligence LLM from Upstage, focused on instruction following on a single GPU, with IFEval scores above 80. It currently supports English; the full release was planned for November 2024 with expanded language support and longer context.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 is our new powerful media generation model, generating videos with synced audio. It can create richly detailed, dynamic clips from natural language or images.",
|
||||
"spark-x.description": "X2 Capabilities Overview: 1. Introduces dynamic adjustment of reasoning mode, controlled via the `thinking` field. 2. Expanded context length: 64K input tokens and 128K output tokens. 3. Supports Function Call functionality.",
|
||||
"stable-diffusion-3-medium.description": "The latest text-to-image model from Stability AI. This version significantly improves image quality, text understanding, and style diversity, interpreting complex natural-language prompts more accurately and generating more precise, diverse images.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applies adversarial diffusion distillation (ADD) to stable-diffusion-3.5-large for faster speed.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is an 800M-parameter MMDiT text-to-image model with excellent quality and prompt alignment, supporting 1-megapixel images and efficient runs on consumer hardware.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 is initialized from the v1.2 checkpoint and fine-tuned for 595k steps on \"laion-aesthetics v2 5+\" at 512x512 resolution, reducing text conditioning by 10% to improve classifier-free guidance sampling.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo focuses on high-quality image generation with strong detail rendering and scene fidelity.",
|
||||
"stable-diffusion-xl-base-1.0.description": "An open-source text-to-image model from Stability AI with industry-leading creative image generation. It has strong instruction understanding and supports reverse prompt definitions for precise generation.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl brings major improvements over v1.5 and matches top open text-to-image results. Improvements include a 3x larger UNet backbone, a refinement module for better image quality, and more efficient training techniques.",
|
||||
"step-1-128k.description": "Balances performance and cost for general scenarios.",
|
||||
"step-1-256k.description": "Extra-long context handling, ideal for long-document analysis.",
|
||||
"step-1-32k.description": "Supports mid-length conversations for a wide range of scenarios.",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
||||
"kimicodingplan.description": "Kimi Code from Moonshot AI provides access to Kimi models including K2.5 for coding tasks.",
|
||||
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
||||
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
||||
"longcat.description": "LongCat is a series of generative AI large models independently developed by Meituan. It is designed to enhance internal enterprise productivity and enable innovative applications through an efficient computational architecture and strong multimodal capabilities.",
|
||||
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
||||
"minimaxcodingplan.description": "MiniMax Token Plan provides access to MiniMax models including M2.7 for coding tasks via a fixed-fee subscription.",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "Bot conectado exitosamente",
|
||||
"channel.connecting": "Conectando...",
|
||||
"channel.connectionConfig": "Configuración de Conexión",
|
||||
"channel.connectionMode": "Modo de conexión",
|
||||
"channel.connectionModeHint": "Se recomienda WebSocket para los bots nuevos. Use Webhook si su bot ya tiene una URL de callback configurada en la Plataforma Abierta de QQ.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "Copiado al portapapeles",
|
||||
"channel.copy": "Copiar",
|
||||
"channel.credentials": "Credenciales",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "Por favor, copia esta URL y pégala en el campo <bold>{{fieldName}}</bold> en el Portal de Desarrolladores de {{name}}.",
|
||||
"channel.exportConfig": "Exportar configuración",
|
||||
"channel.feishu.description": "Conecta este asistente a Feishu para chats privados y grupales.",
|
||||
"channel.feishu.webhookMigrationDesc": "El modo WebSocket ofrece entrega de eventos en tiempo real sin necesidad de una URL de callback pública. Para migrar, cambie el Modo de Conexión a WebSocket en Configuración Avanzada. No se necesita ninguna configuración adicional en la Plataforma Abierta de Feishu/Lark.",
|
||||
"channel.feishu.webhookMigrationTitle": "Considere migrar al modo WebSocket",
|
||||
"channel.historyLimit": "Límite de Mensajes en el Historial",
|
||||
"channel.historyLimitHint": "Número predeterminado de mensajes para recuperar al leer el historial del canal",
|
||||
"channel.importConfig": "Importar configuración",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "Requerida para la verificación de interacciones",
|
||||
"channel.qq.appIdHint": "Tu ID de aplicación de bot de QQ desde la Plataforma Abierta de QQ",
|
||||
"channel.qq.description": "Conecta este asistente a QQ para chats grupales y mensajes directos.",
|
||||
"channel.qq.webhookMigrationDesc": "El modo WebSocket ofrece entrega de eventos en tiempo real y reconexión automática sin necesidad de una URL de callback. Para migrar, cree un nuevo bot en la Plataforma Abierta de QQ sin configurar una URL de callback y luego cambie el Modo de Conexión a WebSocket en Configuración Avanzada.",
|
||||
"channel.qq.webhookMigrationTitle": "Considere migrar al modo WebSocket",
|
||||
"channel.removeChannel": "Eliminar Canal",
|
||||
"channel.removeFailed": "Error al eliminar el canal",
|
||||
"channel.removed": "Canal eliminado",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "Secreto de firma",
|
||||
"channel.signingSecretHint": "Usado para verificar solicitudes de webhook.",
|
||||
"channel.slack.appIdHint": "Tu ID de aplicación de Slack desde el panel de API de Slack (comienza con A).",
|
||||
"channel.slack.appToken": "Token a nivel de aplicación",
|
||||
"channel.slack.appTokenHint": "Requerido para el Socket Mode (WebSocket). Genere un token a nivel de aplicación (xapp-...) en Información Básica dentro de la configuración de su aplicación de Slack.",
|
||||
"channel.slack.description": "Conecta este asistente a Slack para conversaciones en canales y mensajes directos.",
|
||||
"channel.slack.webhookMigrationDesc": "El Socket Mode ofrece entrega de eventos en tiempo real mediante WebSocket sin exponer un endpoint HTTP público. Para migrar, active el Socket Mode en la configuración de su aplicación de Slack, genere un Token a nivel de aplicación y luego cambie el Modo de Conexión a WebSocket en Configuración Avanzada.",
|
||||
"channel.slack.webhookMigrationTitle": "Considere migrar al Socket Mode (WebSocket)",
|
||||
"channel.telegram.description": "Conecta este asistente a Telegram para chats privados y grupales.",
|
||||
"channel.testConnection": "Probar Conexión",
|
||||
"channel.testFailed": "Prueba de conexión fallida",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "Grupo eliminado con éxito",
|
||||
"confirmRemoveSessionItemAlert": "Estás a punto de eliminar este agente. Una vez eliminado, no se podrá recuperar. Por favor, confirma tu acción.",
|
||||
"confirmRemoveSessionSuccess": "Agente eliminado con éxito",
|
||||
"createModal.createBlank": "Crear en blanco",
|
||||
"createModal.groupPlaceholder": "Describe lo que debería hacer este grupo...",
|
||||
"createModal.groupTitle": "¿Qué debería hacer tu grupo?",
|
||||
"createModal.placeholder": "Describe lo que debería hacer tu agente...",
|
||||
"createModal.title": "¿Qué debería hacer tu agente?",
|
||||
"defaultAgent": "Agente predeterminado",
|
||||
"defaultGroupChat": "Grupo",
|
||||
"defaultList": "Lista predeterminada",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "Contexto demasiado largo, comprimiendo historial...",
|
||||
"operation.execAgentRuntime": "Preparando respuesta",
|
||||
"operation.execClientTask": "Ejecutando tarea",
|
||||
"operation.execServerAgentRuntime": "Ejecutando… Puedes cambiar de tarea o cerrar la página: la tarea seguirá en marcha.",
|
||||
"operation.sendMessage": "Enviando mensaje",
|
||||
"owner": "Propietario del grupo",
|
||||
"pageCopilot.title": "Agente de página",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "Obteniendo detalles...",
|
||||
"task.status.initializing": "Inicializando tarea...",
|
||||
"task.subtask": "Subtarea",
|
||||
"task.title": "Tareas",
|
||||
"thread.divider": "Subtema",
|
||||
"thread.threadMessageCount": "{{messageCount}} mensajes",
|
||||
"thread.title": "Subtema",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "Autorizar habilidades para este agente",
|
||||
"topic.checkOpenNewTopic": "¿Iniciar un nuevo tema?",
|
||||
"topic.checkSaveCurrentMessages": "¿Deseas guardar la conversación actual como un tema?",
|
||||
"topic.defaultTitle": "Tema sin título",
|
||||
"topic.openNewTopic": "Abrir nuevo tema",
|
||||
"topic.recent": "Temas recientes",
|
||||
"topic.saveCurrentMessages": "Guardar sesión actual como tema",
|
||||
"topic.viewAll": "Ver todos los temas",
|
||||
"translate.action": "Traducir",
|
||||
"translate.clear": "Borrar traducción",
|
||||
"tts.action": "Texto a voz",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "Soporte por correo",
|
||||
"more": "Más",
|
||||
"navPanel.agent": "Agente",
|
||||
"navPanel.customizeSidebar": "Personalizar barra lateral",
|
||||
"navPanel.displayItems": "Elementos visibles",
|
||||
"navPanel.hidden": "Oculto",
|
||||
"navPanel.hideSection": "Ocultar sección",
|
||||
"navPanel.library": "Biblioteca",
|
||||
"navPanel.moveDown": "Mover hacia abajo",
|
||||
"navPanel.moveUp": "Mover hacia arriba",
|
||||
"navPanel.pinned": "Fijado",
|
||||
"navPanel.searchAgent": "Buscar agente...",
|
||||
"navPanel.searchRecent": "Buscar recientes...",
|
||||
"navPanel.searchResultEmpty": "No se encontraron resultados",
|
||||
"navPanel.show": "Mostrar",
|
||||
"navPanel.visible": "Visible",
|
||||
"new": "Nuevo",
|
||||
"noContent": "Sin contenido",
|
||||
"oauth": "Inicio de sesión SSO",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "Apóyanos",
|
||||
"productHunt.description": "Apóyanos en Product Hunt. ¡Tu apoyo significa mucho para nosotros!",
|
||||
"productHunt.title": "¡Estamos en Product Hunt!",
|
||||
"promptTransform.action": "Refinar idea",
|
||||
"promptTransform.actions.rewrite": "Ampliar detalles",
|
||||
"promptTransform.actions.translate": "Traducir",
|
||||
"promptTransform.status.rewrite": "Ampliando detalles...",
|
||||
"promptTransform.status.translate": "Traduciendo...",
|
||||
"recents": "Recientes",
|
||||
"regenerate": "Regenerar",
|
||||
"releaseNotes": "Detalles de la versión",
|
||||
"rename": "Renombrar",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "Audio",
|
||||
"tab.chat": "Chat",
|
||||
"tab.community": "Comunidad",
|
||||
"tab.create": "Crear",
|
||||
"tab.discover": "Descubrir",
|
||||
"tab.eval": "Laboratorio de Evaluación",
|
||||
"tab.files": "Archivos",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "Modelo",
|
||||
"config.prompt.placeholder": "Describe lo que deseas generar",
|
||||
"config.prompt.placeholderWithRef": "Describe cómo quieres ajustar la imagen",
|
||||
"config.promptExtend.label": "Extensión de indicaciones",
|
||||
"config.quality.label": "Calidad de imagen",
|
||||
"config.quality.options.hd": "Alta definición",
|
||||
"config.quality.options.standard": "Estándar",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "Tamaño",
|
||||
"config.steps.label": "Pasos",
|
||||
"config.title": "Configuración",
|
||||
"config.watermark.label": "Marca de agua",
|
||||
"config.webSearch.label": "Búsqueda web",
|
||||
"config.width.label": "Anchura",
|
||||
"generation.actions.applySeed": "Aplicar semilla",
|
||||
"generation.actions.copyError": "Copiar mensaje de error",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "Agrupa los mensajes del agente y los resultados de sus herramientas para mostrarlos juntos",
|
||||
"features.assistantMessageGroup.title": "Agrupación de Mensajes del Agente",
|
||||
"features.gatewayMode.desc": "Ejecuta las tareas del agente en el servidor a través del WebSocket de Gateway en lugar de hacerlo localmente. Permite una ejecución más rápida y reduce el uso de recursos del cliente.",
|
||||
"features.gatewayMode.title": "Ejecución del agente del lado del servidor (Gateway)",
|
||||
"features.groupChat.desc": "Activa la coordinación de chat grupal con múltiples agentes.",
|
||||
"features.groupChat.title": "Chat Grupal (Multiagente)",
|
||||
"features.inputMarkdown.desc": "Renderiza Markdown en el área de entrada en tiempo real (texto en negrita, bloques de código, tablas, etc.).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "Modelo de alto rendimiento en China, que supera a modelos internacionales en tareas en chino como conocimiento, texto largo y generación creativa. También cuenta con capacidades multimodales líderes en la industria con resultados sólidos en pruebas de referencia autorizadas.",
|
||||
"Baichuan4.description": "Rendimiento nacional líder, superando a modelos internacionales en tareas en chino como conocimiento enciclopédico, texto largo y generación creativa. También ofrece capacidades multimodales líderes en la industria y resultados sólidos en pruebas de referencia.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS es una familia de modelos LLM de código abierto de ByteDance Seed, diseñados para manejar contextos largos, razonamiento, agentes y habilidades generales. Seed-OSS-36B-Instruct es un modelo de 36B ajustado por instrucciones con contexto ultra largo nativo para procesar documentos o bases de código extensas. Está optimizado para razonamiento, generación de código y tareas de agente (uso de herramientas), manteniendo una gran capacidad general. Una característica clave es el \"Presupuesto de Pensamiento\", que permite una longitud de razonamiento flexible para mejorar la eficiencia.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR es un modelo visión‑lenguaje de DeepSeek AI centrado en OCR y en la “compresión óptica de contexto”. Explora la compresión de contexto a partir de imágenes, procesa documentos de forma eficiente y los convierte en texto estructurado (por ejemplo, Markdown). Reconoce texto en imágenes con alta precisión, ideal para la digitalización de documentos, extracción de texto y procesamiento estructurado.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, el modelo más grande e inteligente de la suite DeepSeek, ha sido destilado en la arquitectura Llama 70B. Las pruebas de referencia y evaluaciones humanas muestran que es más inteligente que el Llama 70B base, especialmente en tareas de matemáticas y precisión factual.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Modelo destilado de DeepSeek-R1 basado en Qwen2.5-Math-1.5B. El aprendizaje por refuerzo y los datos de arranque en frío optimizan el rendimiento en razonamiento, estableciendo nuevos estándares de referencia multitarea para modelos abiertos.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "Los modelos DeepSeek-R1-Distill están ajustados a partir de modelos de código abierto utilizando datos de muestra generados por DeepSeek-R1.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "Proveedor: sophnet. DeepSeek V3 Fast es la versión de alta velocidad de DeepSeek V3 0324, de precisión completa (sin cuantización), con mejor rendimiento en código y matemáticas y respuestas más rápidas.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast es la variante rápida de alta velocidad de DeepSeek V3.1. Modo de pensamiento híbrido: mediante plantillas de chat, un solo modelo admite modos de pensamiento y no pensamiento. Uso de herramientas más inteligente: el postentrenamiento mejora el rendimiento en tareas de herramientas y agentes.",
|
||||
"DeepSeek-V3.1-Think.description": "Modo de pensamiento de DeepSeek-V3.1: un nuevo modelo de razonamiento híbrido con modos de pensamiento y no pensamiento, más eficiente que DeepSeek-R1-0528. Las optimizaciones posteriores al entrenamiento mejoran significativamente el uso de herramientas de agente y el rendimiento en tareas de agente.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 incorpora un mecanismo de atención dispersa para mejorar la eficiencia de entrenamiento e inferencia al procesar textos largos, con un precio inferior al de deepseek-v3.1.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE desarrollado por DeepSeek. Supera a otros modelos abiertos como Qwen2.5-72B y Llama-3.1-405B en muchas pruebas de referencia y compite con modelos cerrados líderes como GPT-4o y Claude 3.5 Sonnet.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite ofrece respuestas ultra rápidas y mejor relación calidad-precio, con opciones flexibles para distintos escenarios. Admite contexto de 128K para inferencia y ajuste fino.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite ofrece respuestas ultra rápidas y mejor relación calidad-precio, con opciones flexibles para distintos escenarios. Admite contexto de 32K para inferencia y ajuste fino.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: Modelo de alto rendimiento para razonamiento, programación y tareas de agentes.",
|
||||
"GLM-4.6.description": "GLM-4.6: Modelo de la generación anterior.",
|
||||
"GLM-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, mejorado para escenarios de codificación agentiva con capacidades de programación avanzadas, planificación de tareas a largo plazo y colaboración con herramientas.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: Versión optimizada de GLM-5 con inferencia más rápida para tareas de programación.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo es un modelo base profundamente optimizado para escenarios agentivos. Ha sido específicamente ajustado desde la fase de entrenamiento para cubrir los requisitos fundamentales de las tareas de agentes, mejorando capacidades clave como la invocación de herramientas, el seguimiento de instrucciones y la ejecución de cadenas largas. Es ideal para construir asistentes agentivos de alto rendimiento.",
|
||||
"GLM-5.1.description": "GLM-5.1 es el último modelo insignia de Zhipu, una iteración mejorada del GLM-5 con capacidades avanzadas de ingeniería agéntica para sistemas complejos y tareas de largo alcance.",
|
||||
"GLM-5.description": "GLM-5 es el modelo base insignia de próxima generación de Zhipu, diseñado específicamente para Ingeniería Agentiva. Ofrece productividad confiable en sistemas de ingeniería complejos y tareas agentivas de largo alcance. En capacidades de programación y agentes, GLM-5 logra un rendimiento de vanguardia entre los modelos de código abierto.",
|
||||
"GLM-5.description": "GLM-5 es el modelo base insignia de nueva generación de Zhipu, diseñado específicamente para la Ingeniería Agentiva. Ofrece productividad fiable en ingeniería de sistemas complejos y tareas agentivas de largo horizonte. En capacidades de programación y agentes, GLM-5 alcanza un rendimiento líder entre los modelos de código abierto. En escenarios reales de programación, su experiencia de uso se acerca a la de Claude Opus 4.5. Destaca en ingeniería de sistemas avanzados y tareas agentivas prolongadas, siendo un modelo base ideal para asistentes agentivos de propósito general.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) es un modelo innovador para dominios diversos y tareas complejas.",
|
||||
"HY-Image-V3.0.description": "Potentes capacidades de extracción de características de la imagen original y preservación de detalles, ofreciendo una textura visual más rica y produciendo imágenes de alta precisión, bien compuestas y de calidad profesional.",
|
||||
"HelloMeme.description": "HelloMeme es una herramienta de IA que genera memes, GIFs o videos cortos a partir de imágenes o movimientos proporcionados. No requiere habilidades de dibujo ni programación: solo una imagen de referencia para crear contenido divertido, atractivo y estilísticamente coherente.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter es un modelo de generación de personajes personalizados sin necesidad de ajuste, lanzado por Tencent AI en 2025. Permite generar personajes con alta fidelidad y consistencia entre escenarios. Puede modelar un personaje a partir de una sola imagen de referencia y transferirlo con flexibilidad entre estilos, acciones y fondos.",
|
||||
"InternVL2-8B.description": "InternVL2-8B es un potente modelo visión-lenguaje que admite procesamiento multimodal imagen-texto, reconociendo con precisión el contenido visual y generando descripciones o respuestas relevantes.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B es un potente modelo visión-lenguaje que admite procesamiento multimodal imagen-texto, reconociendo con precisión el contenido visual y generando descripciones o respuestas relevantes.",
|
||||
"KAT-Coder-Air-V1.description": "Una versión ligera dentro de la serie KAT-Coder. Diseñada específicamente para Agentic Coding, cubre de forma completa tareas y escenarios de programación. Aprovecha el aprendizaje por refuerzo a gran escala basado en agentes, permitiendo comportamientos inteligentes emergentes y superando ampliamente a modelos comparables en rendimiento de programación.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B es la versión experimental con innovaciones de aprendizaje por refuerzo dentro de la serie KAT-Coder, logrando un rendimiento sobresaliente del 74.6% en el benchmark verificado SWE-Bench, estableciendo un nuevo récord para modelos de código abierto. Está centrado en Agentic Coding y actualmente solo es compatible con el andamiaje SWE-Agent, aunque también puede usarse para conversaciones simples.",
|
||||
"KAT-Coder-Pro-V1.description": "Diseñado para Agentic Coding, cubre de forma completa tareas y escenarios de programación, logrando comportamientos inteligentes emergentes mediante aprendizaje por refuerzo a gran escala, superando notablemente a modelos similares en rendimiento de escritura de código.",
|
||||
"KAT-Coder-Pro-V2.description": "El modelo de alto rendimiento más reciente del equipo Kuaishou Kwaipilot, diseñado para proyectos empresariales complejos e integración SaaS. Destaca en escenarios relacionados con programación y es compatible con varios tipos de marcos agentivos (Claude Code, OpenCode, KiloCode), con soporte nativo para OpenClaw y optimización específica para estética de interfaces front‑end.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 es el modelo más potente de Kimi, con rendimiento SOTA de código abierto en tareas agentivas, programación y comprensión visual. Soporta entradas multimodales y modos con y sin razonamiento.",
|
||||
"Kolors.description": "Kolors es un modelo de texto a imagen desarrollado por el equipo Kolors de Kuaishou. Entrenado con miles de millones de parámetros, destaca por su calidad visual, comprensión semántica en chino y renderizado de texto.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors es un modelo de difusión latente a gran escala de texto a imagen del equipo Kolors de Kuaishou. Entrenado con miles de millones de pares texto-imagen, sobresale en calidad visual, precisión semántica compleja y renderizado de texto en chino/inglés, con sólida comprensión y generación de contenido en chino.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) es un modelo de código abierto de 32B para tareas de ingeniería de software. Logra una tasa de resolución del 62.4% en SWE-Bench Verified, ocupando el 5.º lugar entre los modelos abiertos. Está optimizado mediante entrenamiento intermedio, SFT y RL para completar código, corregir errores y revisar código.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "Modelo de lenguaje pequeño de última generación con sólida comprensión del lenguaje, excelente razonamiento y generación de texto.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 es el modelo Llama multilingüe de código abierto más avanzado, con rendimiento cercano al de modelos de 405B a un costo muy bajo. Basado en Transformer y mejorado con SFT y RLHF para utilidad y seguridad. La versión ajustada por instrucciones está optimizada para chat multilingüe y supera a muchos modelos abiertos y cerrados en benchmarks de la industria. Fecha de corte de conocimiento: diciembre de 2023.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick es un modelo MoE grande con activación eficiente de expertos para un rendimiento sólido en razonamiento.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro está diseñado específicamente para flujos de trabajo agentivos de alta intensidad en escenarios reales. Cuenta con más de 1 billón de parámetros totales (42B activados), adopta una arquitectura híbrida de atención innovadora y soporta una longitud de contexto extremadamente larga de hasta 1 millón de tokens. Construido sobre un potente modelo base, ampliamos continuamente los recursos computacionales para un rango más amplio de escenarios agentivos, expandiendo el espacio de acción de la inteligencia y logrando una fuerte generalización—desde programación hasta ejecución de tareas reales (“claw”).",
|
||||
"MiniMax-Hailuo-02.description": "El modelo de generación de video de próxima generación, MiniMax Hailuo 02, ha sido lanzado oficialmente, soportando resolución 1080P y generación de videos de 10 segundos.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "Nuevo modelo de generación de video con mejoras integrales en movimiento corporal, realismo físico y seguimiento de instrucciones.",
|
||||
"MiniMax-Hailuo-2.3.description": "Nuevo modelo de generación de video con mejoras integrales en movimiento corporal, realismo físico y seguimiento de instrucciones.",
|
||||
"MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
|
||||
"MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
|
||||
"MiniMax-M2.1-Lightning.description": "Potentes capacidades de programación multilingüe con inferencia más rápida y eficiente.",
|
||||
"MiniMax-M2.1-highspeed.description": "Potentes capacidades de programación multilingüe, con una experiencia de programación completamente mejorada. Más rápido y eficiente.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 es un modelo insignia de código abierto de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son sus capacidades de programación multilingüe y su habilidad para resolver tareas complejas como un Agente.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Mismo rendimiento que M2.5 con inferencia más rápida.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5 es un modelo insignia de código abierto de gran tamaño de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son las capacidades de programación multilingüe y la habilidad para resolver tareas complejas como un Agente.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Mismo rendimiento que M2.7 con inferencia significativamente más rápida.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: Comenzando el camino hacia la mejora recursiva, capacidades de ingeniería de primer nivel en el mundo real.",
|
||||
"MiniMax-M2.7.description": "Primer modelo autoevolutivo con rendimiento de primer nivel en programación y tareas agentivas (~60 tps).",
|
||||
"MiniMax-M2.description": "MiniMax M2: Modelo de la generación anterior.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 es un modelo de razonamiento híbrido de atención a gran escala con pesos abiertos, con un total de 456 mil millones de parámetros y ~45.9 mil millones activos por token. Admite de forma nativa un contexto de 1 millón y utiliza Flash Attention para reducir los FLOPs en un 75% en generación de 100K tokens frente a DeepSeek R1. Con una arquitectura MoE más CISPO y entrenamiento RL de atención híbrida, logra un rendimiento líder en razonamiento de entradas largas y tareas reales de ingeniería de software.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo MoE de primer nivel con 1 billón de parámetros totales y 32 mil millones activos. Sus características clave incluyen mayor inteligencia en programación con agentes, mejoras significativas en pruebas de referencia y tareas reales de agentes, además de una estética y usabilidad mejoradas en programación frontend.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo es la variante Turbo optimizada para velocidad de razonamiento y rendimiento, manteniendo el razonamiento de múltiples pasos y uso de herramientas de K2 Thinking. Es un modelo MoE con aproximadamente 1 billón de parámetros totales, contexto nativo de 256K y llamadas a herramientas estables a gran escala para escenarios de producción con necesidades estrictas de latencia y concurrencia.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 es un modelo agente multimodal nativo de código abierto, basado en Kimi-K2-Base, entrenado con aproximadamente 1.5 billones de tokens mixtos de visión y texto. El modelo adopta una arquitectura MoE con 1T de parámetros totales y 32B de parámetros activos, soportando una ventana de contexto de 256K, integrando de forma fluida capacidades de comprensión visual y lingüística.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 es un modelo insignia de nueva generación diseñado para ingeniería agentiva, utilizando una arquitectura Mixture of Experts (MoE) con 754B parámetros. Mejora significativamente las capacidades de programación, logrando resultados líderes en SWE-Bench Pro y superando ampliamente a su predecesor en benchmarks como NL2Repo y Terminal-Bench 2.0. Diseñado para tareas agentivas de larga duración, maneja preguntas ambiguas con mejor criterio, descompone tareas complejas, ejecuta experimentos, analiza resultados y optimiza continuamente a través de cientos de iteraciones y miles de llamadas a herramientas.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu con un total de 355 mil millones de parámetros y 32 mil millones de parámetros activos, completamente mejorado en diálogo general, razonamiento y capacidades de agentes. GLM-4.7 mejora el Pensamiento Intercalado e introduce Pensamiento Preservado y Pensamiento a Nivel de Turno.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 es el modelo de lenguaje grande de próxima generación de Zhipu, enfocado en ingeniería de sistemas complejos y tareas de Agente de larga duración. Los parámetros del modelo se han ampliado a 744 mil millones (40 mil millones activos) e integran DeepSeek Sparse Attention.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 está optimizado para razonamiento avanzado y seguimiento de instrucciones, utilizando MoE para mantener la eficiencia del razonamiento a gran escala.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B es un modelo MoE que introduce un modo de razonamiento híbrido, permitiendo a los usuarios cambiar sin problemas entre pensamiento y no pensamiento. Admite comprensión y razonamiento en 119 idiomas y dialectos, y tiene sólidas capacidades de llamada a herramientas, compitiendo con modelos como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 y Google Gemini 2.5 Pro en benchmarks de capacidad general, código y matemáticas, capacidad multilingüe y razonamiento de conocimiento.",
|
||||
"Qwen3-32B.description": "Qwen3-32B es un modelo denso que introduce un modo de razonamiento híbrido, permitiendo a los usuarios cambiar entre pensamiento y no pensamiento. Con mejoras en la arquitectura, más datos y mejor entrenamiento, su rendimiento es comparable al de Qwen2.5-72B.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus soporta entrada de texto, imagen y video. Su rendimiento en tareas de solo texto es comparable al de Qwen3 Max, con mejor rendimiento y menor costo. Sus capacidades multimodales mejoran significativamente frente a la serie Qwen3 VL.",
|
||||
"S2V-01.description": "El modelo base de referencia a video de la serie 01.",
|
||||
"SenseChat-128K.description": "Base V4 con contexto de 128K, excelente en comprensión y generación de textos largos.",
|
||||
"SenseChat-32K.description": "Base V4 con contexto de 32K, flexible para múltiples escenarios.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad extraordinaria y razonamiento ampliado.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y capaz de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más poderoso de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, con excelencia en rendimiento, inteligencia, fluidez y comprensión.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y codificación.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para crear agentes y programar.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia de primer nivel con un rendimiento escalable para tareas complejas de razonamiento de alta calidad.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento extendido paso a paso con control detallado para usuarios de API.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede producir respuestas casi instantáneas o razonamientos extendidos paso a paso con proceso visible.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 ofrece la mejor combinación de velocidad e inteligencia de Anthropic.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 puede producir respuestas casi instantáneas o razonamientos detallados paso a paso que los usuarios pueden observar. Los usuarios de la API pueden controlar con precisión cuánto tiempo piensa el modelo.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo de razonamiento de próxima generación con capacidades mejoradas de razonamiento complejo y cadenas de pensamiento.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. Los puntos de referencia públicos alcanzan niveles de GPT-5, y es el primero en integrar el pensamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
|
||||
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo de chat y la sólida capacidad de codificación del modelo coder, con mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
|
||||
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
|
||||
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las salidas para mayor precisión, con resultados de competencia superiores y razonamiento comparable a Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
|
||||
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 es un modelo de pensamiento en vista previa para evaluación y pruebas.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, soporta edición y composición de múltiples imágenes. Presenta consistencia mejorada de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado de texto-imagen de alta precisión.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, soporta entradas de texto e imagen para generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed, compatible con entrada de texto e imagen y con generación de imágenes de alta calidad y alto nivel de control. Genera imágenes a partir de indicaciones textuales.",
|
||||
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
|
||||
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
|
||||
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen, que soporta ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
|
||||
"fal-ai/qwen-image.description": "Un modelo poderoso de generación de imágenes del equipo Qwen con fuerte renderizado de texto en chino y estilos visuales diversos.",
|
||||
"fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen que admite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
|
||||
"fal-ai/qwen-image.description": "Modelo de generación de imágenes potente del equipo Qwen, con excelente renderizado de texto en chino y diversos estilos visuales.",
|
||||
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
|
||||
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
|
||||
"flux-dev.description": "Modelo de generación de imágenes de I+D de código abierto, optimizado de forma eficiente para investigación innovadora no comercial.",
|
||||
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
||||
"flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
||||
"flux-merged.description": "FLUX.1 [merged] combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
|
||||
"flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
|
||||
"flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
|
||||
"flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) ofrece un rendimiento estable y ajustable para tareas complejas.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) proporciona un sólido soporte multimodal para tareas complejas.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash es el modelo más inteligente diseñado para la velocidad, combinando inteligencia de vanguardia con una excelente fundamentación en búsquedas.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google que también admite diálogo multimodal.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también soporta chat multimodal.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también admite chat multimodal.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo de generación de imágenes más rápido de Google con soporte de pensamiento, generación conversacional de imágenes y edición.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte de chat multimodal.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo más rápido de Google para generación de imágenes, con soporte de razonamiento, generación conversacional de imágenes y edición.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview es el modelo multimodal más rentable de Google, optimizado para tareas agentivas de alto volumen, traducción y procesamiento de datos.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview mejora las capacidades de razonamiento de Gemini 3 Pro y añade soporte para un nivel de pensamiento medio.",
|
||||
"gemini-flash-latest.description": "Última versión de Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "Nuestro modelo más potente y avanzado, diseñado para tareas empresariales complejas con un rendimiento sobresaliente.",
|
||||
"jamba-mini.description": "El modelo más eficiente de su clase, equilibrando velocidad y calidad con un tamaño reducido.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch combina búsqueda web, lectura y razonamiento para investigaciones exhaustivas. Funciona como un agente que toma tu tarea de investigación, realiza búsquedas amplias con múltiples iteraciones y luego produce una respuesta. El proceso implica investigación continua, razonamiento y resolución de problemas desde múltiples ángulos, diferenciándose fundamentalmente de los LLM estándar que responden desde datos preentrenados o sistemas RAG tradicionales que dependen de búsquedas superficiales de una sola vez.",
|
||||
"k2p5.description": "Kimi K2.5 es el modelo más versátil de Kimi hasta la fecha, con una arquitectura multimodal nativa que admite tanto entradas de visión como de texto, modos de 'pensamiento' y 'no pensamiento', y tareas tanto conversacionales como de agente.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 es un modelo base MoE con sólidas capacidades de programación y agentes (1T de parámetros totales, 32B activos), superando a otros modelos abiertos en razonamiento, programación, matemáticas y benchmarks de agentes.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview ofrece una ventana de contexto de 256k, codificación agente más sólida, mejor calidad de código frontend y comprensión de contexto mejorada.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct es el modelo oficial de razonamiento de Kimi con contexto largo para código, preguntas y respuestas, y más.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas difíciles. QwQ-32B es un modelo de razonamiento de tamaño medio que compite con los mejores modelos como DeepSeek-R1 y o1-mini.",
|
||||
"qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.",
|
||||
"r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance soporta texto a video, imagen a video (primer fotograma, primer+último fotograma) y generación de audio sincronizado con visuales.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus presenta generación aumentada con recuperación web para información en tiempo real, interpretación mejorada de indicaciones complejas y consistencia de referencia mejorada para creación visual profesional.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.",
|
||||
"solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.",
|
||||
"solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 es nuestro nuevo modelo poderoso de generación de medios, generando videos con audio sincronizado. Puede crear clips dinámicos y detallados a partir de lenguaje natural o imágenes.",
|
||||
"spark-x.description": "Resumen de capacidades de X2: 1. Introduce ajuste dinámico del modo de razonamiento, controlado a través del campo `thinking`. 2. Longitud de contexto expandida: 64K tokens de entrada y 128K tokens de salida. 3. Admite funcionalidad de llamada de funciones (Function Call).",
|
||||
"stable-diffusion-3-medium.description": "El último modelo de texto a imagen de Stability AI. Esta versión mejora significativamente la calidad de imagen, la comprensión del texto y la diversidad de estilos, interpretando indicaciones en lenguaje natural complejas con mayor precisión y generando imágenes más precisas y variadas.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica destilación de difusión adversarial (ADD) a stable-diffusion-3.5-large para mayor velocidad.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large es un modelo de texto a imagen MMDiT con 800 millones de parámetros que ofrece una excelente calidad y alineación con los prompts, compatible con imágenes de 1 megapíxel y ejecución eficiente en hardware de consumo.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 se inicializa desde el checkpoint v1.2 y se afina durante 595k pasos en \"laion-aesthetics v2 5+\" a una resolución de 512x512, reduciendo el condicionamiento de texto en un 10% para mejorar el muestreo sin clasificador.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo se centra en la generación de imágenes de alta calidad con un fuerte nivel de detalle y fidelidad de escena.",
|
||||
"stable-diffusion-xl-base-1.0.description": "Un modelo de texto a imagen de código abierto de Stability AI con generación creativa de imágenes líder en la industria. Posee una sólida comprensión de instrucciones y admite definiciones inversas de prompts para una generación precisa.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl presenta mejoras significativas respecto a la versión v1.5 y alcanza resultados comparables con los mejores modelos de texto a imagen de código abierto. Las mejoras incluyen una red UNet 3 veces más grande, un módulo de refinamiento para mayor calidad de imagen y técnicas de entrenamiento más eficientes.",
|
||||
"step-1-128k.description": "Equilibra rendimiento y costo para escenarios generales.",
|
||||
"step-1-256k.description": "Manejo de contexto extra largo, ideal para análisis de documentos extensos.",
|
||||
"step-1-32k.description": "Admite conversaciones de longitud media para una amplia gama de escenarios.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "{{count}} parámetros en total",
|
||||
"arguments.title": "Argumentos",
|
||||
"builtins.lobe-activator.apiName.activateTools": "Activar Herramientas",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} no encontrado",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtener modelos disponibles",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtener habilidades disponibles",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "Obtener configuración",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
|
||||
"kimicodingplan.description": "Kimi Code de Moonshot AI proporciona acceso a los modelos Kimi, incluidos K2.5, para tareas de codificación.",
|
||||
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
|
||||
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso con Créditos vinculados a los tokens del modelo.",
|
||||
"longcat.description": "LongCat es una serie de modelos grandes de inteligencia artificial generativa desarrollados de manera independiente por Meituan. Está diseñado para mejorar la productividad interna de la empresa y permitir aplicaciones innovadoras mediante una arquitectura computacional eficiente y sólidas capacidades multimodales.",
|
||||
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
|
||||
"minimaxcodingplan.description": "El Plan de Tokens MiniMax proporciona acceso a los modelos MiniMax, incluidos M2.7, para tareas de codificación mediante una suscripción de tarifa fija.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Spark ofrece IA multilingüe potente en múltiples dominios, habilitando innovaciones en hardware inteligente, salud, finanzas y otros sectores.",
|
||||
"stepfun.description": "Los modelos Stepfun ofrecen capacidades líderes en razonamiento multimodal y complejo, con comprensión de contexto largo y potente orquestación de búsqueda autónoma.",
|
||||
"straico.description": "Straico simplifica la integración de la IA al proporcionar un espacio de trabajo unificado que reúne los mejores modelos generativos de texto, imagen y audio, empoderando a los mercadólogos, emprendedores y entusiastas con acceso fluido a diversas herramientas de IA.",
|
||||
"streamlake.description": "StreamLake es una plataforma empresarial de servicios de modelos y computación en la nube de IA que integra inferencia de modelos de alto rendimiento, personalización de modelos de bajo costo y servicios completamente gestionados, para ayudar a las empresas a centrarse en la innovación de aplicaciones de IA sin preocuparse por la complejidad y el costo de los recursos de computación subyacentes.",
|
||||
"taichu.description": "Un modelo multimodal de nueva generación de CASIA y el Instituto de IA de Wuhan, que admite preguntas y respuestas multivuelta, redacción, generación de imágenes, comprensión 3D y análisis de señales con mayor cognición y creatividad.",
|
||||
"tencentcloud.description": "LLM Knowledge Engine Atomic Power proporciona preguntas y respuestas de conocimiento de extremo a extremo para empresas y desarrolladores, con servicios modulares como análisis de documentos, segmentación, embeddings y reescritura multivuelta para crear soluciones de IA personalizadas.",
|
||||
"togetherai.description": "Together AI ofrece rendimiento líder con modelos innovadores, amplia personalización, escalado rápido y despliegue sencillo para necesidades empresariales.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "Herramientas del sistema",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - herramienta rápida para buscar código",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI de automatización de navegadores sin cabeza para agentes de IA",
|
||||
"settingSystemTools.tools.bun.desc": "Bun: un entorno de ejecución de JavaScript y gestor de paquetes rápido",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx: ejecutor de paquetes de Bun para ejecutar paquetes de npm",
|
||||
"settingSystemTools.tools.fd.desc": "fd - alternativa rápida y fácil de usar a find",
|
||||
"settingSystemTools.tools.find.desc": "find de Unix - comando estándar para búsqueda de archivos",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - herramienta estándar para búsqueda de texto",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI: gestiona y conecta con los servicios de LobeHub",
|
||||
"settingSystemTools.tools.mdfind.desc": "Búsqueda Spotlight de macOS (búsqueda indexada rápida)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - entorno de ejecución JavaScript para JS/TS",
|
||||
"settingSystemTools.tools.npm.desc": "npm - gestor de paquetes Node.js para instalar dependencias",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm: un gestor de paquetes rápido y eficiente en el uso de espacio en disco",
|
||||
"settingSystemTools.tools.python.desc": "Python - entorno de ejecución del lenguaje de programación",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - herramienta de búsqueda de texto extremadamente rápida",
|
||||
"settingSystemTools.tools.uv.desc": "uv: un gestor de paquetes de Python extremadamente rápido",
|
||||
"settingTTS.openai.sttModel": "Modelo de Reconocimiento de Voz de OpenAI",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "Modelo de Texto a Voz de OpenAI",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "Modelo",
|
||||
"systemAgent.inputCompletion.modelDesc": "Modelo utilizado para sugerencias de autocompletado de entrada (como el texto fantasma de GitHub Copilot)",
|
||||
"systemAgent.inputCompletion.title": "Agente de Autocompletado de Entrada",
|
||||
"systemAgent.promptRewrite.label": "Modelo",
|
||||
"systemAgent.promptRewrite.modelDesc": "Especifica el modelo utilizado para reescribir indicaciones",
|
||||
"systemAgent.promptRewrite.title": "Agente de Reescritura de Indicaciones",
|
||||
"systemAgent.queryRewrite.label": "Modelo",
|
||||
"systemAgent.queryRewrite.modelDesc": "Especifica el modelo usado para optimizar las consultas del usuario",
|
||||
"systemAgent.queryRewrite.title": "Agente de Reescritura de Consultas",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "Sube un archivo local .zip o .skill",
|
||||
"tab.usage": "Estadísticas de Uso",
|
||||
"tools.add": "Agregar Habilidad",
|
||||
"tools.builtins.find-skills.description": "Ayuda a los usuarios a descubrir e instalar habilidades de agentes cuando preguntan \"¿cómo hago X?\", \"encuentra una habilidad para X\" o quieren ampliar capacidades",
|
||||
"tools.builtins.find-skills.title": "Buscar Habilidades",
|
||||
"tools.builtins.groupName": "Integradas",
|
||||
"tools.builtins.install": "Instalar",
|
||||
"tools.builtins.installed": "Instalado",
|
||||
"tools.builtins.lobe-activator.description": "Descubre y activa herramientas y habilidades",
|
||||
"tools.builtins.lobe-activator.title": "Activador de Herramientas y Habilidades",
|
||||
"tools.builtins.lobe-agent-browser.description": "CLI de automatización del navegador para agentes de IA. Úsalo cuando las tareas involucren interacción con sitios web o Electron, como navegación, relleno de formularios, clics, capturas de pantalla, extracción de datos, flujos de inicio de sesión y pruebas completas de aplicaciones.",
|
||||
"tools.builtins.lobe-agent-browser.title": "Navegador de Agente",
|
||||
"tools.builtins.lobe-agent-builder.description": "Configura los metadatos del agente, los ajustes del modelo, los plugins y la indicación del sistema",
|
||||
"tools.builtins.lobe-agent-builder.title": "Constructor de Agentes",
|
||||
"tools.builtins.lobe-agent-documents.description": "Gestiona documentos asociados al agente (listar, crear, leer, editar, eliminar, renombrar) y reglas de carga",
|
||||
"tools.builtins.lobe-agent-documents.title": "Documentos",
|
||||
"tools.builtins.lobe-agent-management.description": "Crea, gestiona y orquesta agentes de IA",
|
||||
"tools.builtins.lobe-agent-management.title": "Gestión de Agentes",
|
||||
"tools.builtins.lobe-artifacts.description": "Genera y previsualiza en vivo componentes de interfaz interactivos, visualizaciones de datos, gráficos, imágenes SVG y aplicaciones web. Crea contenido visual enriquecido con el que los usuarios pueden interactuar directamente.",
|
||||
"tools.builtins.lobe-artifacts.readme": "Genera y previsualiza en vivo componentes de interfaz interactivos, visualizaciones de datos, gráficos, SVG y aplicaciones web. Crea contenido visual enriquecido con el que los usuarios pueden interactuar directamente.",
|
||||
"tools.builtins.lobe-artifacts.title": "Artefactos",
|
||||
"tools.builtins.lobe-brief.description": "Reporta progreso, entrega resultados y solicita decisiones del usuario",
|
||||
"tools.builtins.lobe-brief.title": "Herramientas de Informe",
|
||||
"tools.builtins.lobe-calculator.description": "Realiza cálculos matemáticos, resuelve ecuaciones y trabaja con expresiones simbólicas",
|
||||
"tools.builtins.lobe-calculator.readme": "Calculadora matemática avanzada que admite aritmética básica, ecuaciones algebraicas, operaciones de cálculo y matemáticas simbólicas. Incluye conversión de bases, resolución de ecuaciones, diferenciación, integración y más.",
|
||||
"tools.builtins.lobe-calculator.title": "Calculadora",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "Ejecuta código en Python, JavaScript y TypeScript en un entorno aislado en la nube. Ejecuta comandos de terminal, gestiona archivos, busca contenido con expresiones regulares y exporta resultados de forma segura.",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "Ejecuta código en Python, JavaScript y TypeScript en un entorno aislado en la nube. Ejecuta comandos de terminal, gestiona archivos, busca contenido con expresiones regulares y exporta resultados de forma segura.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "Sandbox en la Nube",
|
||||
"tools.builtins.lobe-creds.description": "Gestiona credenciales de usuario para autenticación, inyección de variables de entorno y verificación de API — administra claves API, tokens OAuth y secretos para integraciones de terceros.",
|
||||
"tools.builtins.lobe-creds.title": "Credenciales",
|
||||
"tools.builtins.lobe-cron.description": "Gestiona tareas programadas que se ejecutan automáticamente en horarios específicos. Crea, actualiza, habilita/deshabilita y supervisa tareas recurrentes para tus agentes.",
|
||||
"tools.builtins.lobe-cron.title": "Tareas Programadas",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "Configura metadatos del grupo, miembros y contenido compartido para grupos multiagente",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "Constructor de Agentes de Grupo",
|
||||
"tools.builtins.lobe-group-management.description": "Orquesta y gestiona conversaciones de grupos multiagente",
|
||||
"tools.builtins.lobe-group-management.title": "Gestión de Grupos",
|
||||
"tools.builtins.lobe-gtd.description": "Planifica objetivos y haz seguimiento del progreso utilizando la metodología GTD. Crea planes estratégicos, gestiona listas de tareas con seguimiento de estado y ejecuta tareas asincrónicas de larga duración.",
|
||||
"tools.builtins.lobe-gtd.readme": "Planifica objetivos y haz seguimiento del progreso utilizando la metodología GTD. Crea planes estratégicos, gestiona listas de tareas con seguimiento de estado y ejecuta tareas asíncronas de larga duración.",
|
||||
"tools.builtins.lobe-gtd.title": "Herramientas GTD",
|
||||
"tools.builtins.lobe-knowledge-base.description": "Busca documentos cargados y conocimiento de dominio mediante búsqueda semántica vectorial — para referencia persistente y reutilizable",
|
||||
"tools.builtins.lobe-knowledge-base.title": "Base de Conocimiento",
|
||||
"tools.builtins.lobe-local-system.description": "Accede a tu sistema de archivos local en el escritorio. Lee, escribe, busca y organiza archivos. Ejecuta comandos de terminal con soporte para tareas en segundo plano y busca contenido con patrones regex.",
|
||||
"tools.builtins.lobe-local-system.readme": "Accede a tu sistema de archivos local desde el escritorio. Lee, escribe, busca y organiza archivos. Ejecuta comandos de terminal con soporte para tareas en segundo plano y busca contenido con patrones regex.",
|
||||
"tools.builtins.lobe-local-system.title": "Sistema Local",
|
||||
"tools.builtins.lobe-message.description": "Envía, lee, edita y gestiona mensajes a través de múltiples plataformas de mensajería con una interfaz unificada",
|
||||
"tools.builtins.lobe-message.readme": "Herramienta de mensajería multiplataforma compatible con Discord, Telegram, Slack, Google Chat e IRC. Proporciona APIs unificadas para operaciones de mensajes, reacciones, fijados, hilos, gestión de canales y funciones específicas de cada plataforma como encuestas.",
|
||||
"tools.builtins.lobe-message.title": "Mensaje",
|
||||
"tools.builtins.lobe-notebook.description": "Crea y gestiona documentos persistentes dentro de temas de conversación. Guarda notas, informes, artículos y contenido en markdown accesible entre sesiones.",
|
||||
"tools.builtins.lobe-notebook.readme": "Crea y gestiona documentos persistentes dentro de temas de conversación. Guarda notas, informes, artículos y contenido en markdown accesible entre sesiones.",
|
||||
"tools.builtins.lobe-notebook.title": "Cuaderno",
|
||||
"tools.builtins.lobe-page-agent.description": "Crea, lee, actualiza y elimina nodos en documentos estructurados en XML",
|
||||
"tools.builtins.lobe-page-agent.readme": "Crea y edita documentos estructurados con control preciso a nivel de nodo. Inicializa desde Markdown, realiza operaciones masivas de inserción/modificación/eliminación y busca y reemplaza texto en documentos.",
|
||||
"tools.builtins.lobe-page-agent.title": "Documento",
|
||||
"tools.builtins.lobe-remote-device.description": "Descubre y gestiona conexiones de dispositivos de escritorio remotos",
|
||||
"tools.builtins.lobe-remote-device.readme": "Gestiona conexiones con tus dispositivos de escritorio. Lista dispositivos en línea, activa un dispositivo para operaciones remotas y verifica el estado de la conexión.",
|
||||
"tools.builtins.lobe-remote-device.title": "Dispositivo Remoto",
|
||||
"tools.builtins.lobe-skill-store.description": "Explora e instala habilidades de agentes desde el marketplace de LobeHub. Úsalo cuando necesites capacidades ampliadas o quieras instalar una habilidad específica.",
|
||||
"tools.builtins.lobe-skill-store.title": "Tienda de Habilidades",
|
||||
"tools.builtins.lobe-skills.description": "Activa y utiliza paquetes de habilidades reutilizables",
|
||||
"tools.builtins.lobe-skills.title": "Habilidades",
|
||||
"tools.builtins.lobe-task.description": "Crea, lista, edita y elimina tareas con dependencias y configuración de revisión",
|
||||
"tools.builtins.lobe-task.title": "Herramientas de Tareas",
|
||||
"tools.builtins.lobe-topic-reference.description": "Recupera contexto de conversaciones de temas referenciados",
|
||||
"tools.builtins.lobe-topic-reference.title": "Referencia de Temas",
|
||||
"tools.builtins.lobe-user-interaction.description": "Realiza preguntas a los usuarios mediante interacciones de la interfaz y observa los resultados de su ciclo de vida",
|
||||
"tools.builtins.lobe-user-interaction.title": "Interacción con el Usuario",
|
||||
"tools.builtins.lobe-user-memory.description": "Construye una base de conocimiento personalizada sobre ti. Recuerda preferencias, realiza seguimiento de actividades y experiencias, almacena información de identidad y recupera contexto relevante en futuras conversaciones.",
|
||||
"tools.builtins.lobe-user-memory.readme": "Construye una base de conocimiento personalizada sobre ti. Recuerda preferencias, registra actividades y experiencias, almacena información de identidad y recupera contexto relevante en futuras conversaciones.",
|
||||
"tools.builtins.lobe-user-memory.title": "Memoria",
|
||||
"tools.builtins.lobe-web-browsing.description": "Busca en la web información actual y rastrea páginas web para extraer contenido. Compatible con múltiples motores de búsqueda, categorías y rangos de tiempo.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "Busca en la web información actual y rastrea páginas web para extraer contenido. Admite múltiples motores de búsqueda, categorías y rangos de tiempo para una investigación completa.",
|
||||
"tools.builtins.lobe-web-browsing.title": "Navegación Web",
|
||||
"tools.builtins.lobe-web-onboarding.description": "Gestiona el flujo de incorporación web con un entorno de agente controlado",
|
||||
"tools.builtins.lobe-web-onboarding.title": "Incorporación Web",
|
||||
"tools.builtins.lobehub.description": "Gestiona la plataforma LobeHub mediante CLI: bases de conocimiento, memoria, agentes, archivos, búsqueda, generación y más.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "No instalado",
|
||||
"tools.builtins.task.description": "Gestión y ejecución de tareas: crea, supervisa, revisa y completa tareas mediante CLI.",
|
||||
"tools.builtins.task.title": "Tarea",
|
||||
"tools.builtins.uninstall": "Desinstalar",
|
||||
"tools.builtins.uninstallConfirm.desc": "¿Estás seguro de que deseas desinstalar {{name}}? Esta habilidad se eliminará del agente actual.",
|
||||
"tools.builtins.uninstallConfirm.title": "Desinstalar {{name}}",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "¿Desconectar {{name}}?",
|
||||
"tools.lobehubSkill.disconnected": "Desconectado",
|
||||
"tools.lobehubSkill.error": "Error",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub es una plataforma para control de versiones y colaboración que permite a los desarrolladores alojar, revisar y gestionar repositorios de código.",
|
||||
"tools.lobehubSkill.providers.github.readme": "Conéctate a GitHub para acceder a tus repositorios, crear y gestionar issues, revisar pull requests y colaborar en código, todo mediante conversación natural con tu asistente de IA.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear es una herramienta moderna de seguimiento de incidencias y gestión de proyectos diseñada para equipos de alto rendimiento que desean desarrollar software mejor y más rápido",
|
||||
"tools.lobehubSkill.providers.linear.readme": "Lleva el poder de Linear directamente a tu asistente de IA. Crea y actualiza incidencias, gestiona sprints, sigue el progreso de proyectos y optimiza tu flujo de desarrollo mediante conversación natural.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar es una herramienta de programación integrada en Microsoft Outlook que permite a los usuarios crear citas, organizar reuniones y gestionar su tiempo y eventos de forma eficaz.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "Integra con Outlook Calendar para ver, crear y gestionar tus eventos sin complicaciones. Programa reuniones, consulta disponibilidad, establece recordatorios y organiza tu tiempo mediante comandos en lenguaje natural.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) es una plataforma de redes sociales para compartir actualizaciones en tiempo real, noticias y conectar con tu audiencia mediante publicaciones, respuestas y mensajes directos.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "Conéctate con X (Twitter) para publicar tuits, gestionar tu cronología e interactuar con tu audiencia. Crea contenido, programa publicaciones, monitorea menciones y fortalece tu presencia en redes sociales mediante IA conversacional.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel es una plataforma en la nube para desarrolladores frontend que ofrece alojamiento y funciones serverless para desplegar aplicaciones web fácilmente.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "Conéctate a Vercel para gestionar tus implementaciones, supervisar el estado de tus proyectos y controlar tu infraestructura. Despliega aplicaciones, revisa registros de compilación, gestiona variables de entorno y escala tus proyectos mediante IA conversacional.",
|
||||
"tools.notInstalled": "No Instalado",
|
||||
"tools.notInstalledWarning": "Esta habilidad no está instalada actualmente, lo que puede afectar la funcionalidad del agente.",
|
||||
"tools.plugins.enabled": "Habilitadas: {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "Fotograma inicial",
|
||||
"config.prompt.placeholder": "Describe el vídeo que deseas generar",
|
||||
"config.prompt.placeholderWithRef": "Describe la escena que deseas generar con la imagen",
|
||||
"config.promptExtend.label": "Extensión de indicaciones",
|
||||
"config.referenceImage.label": "Imagen de referencia",
|
||||
"config.resolution.label": "Resolución",
|
||||
"config.seed.label": "Semilla",
|
||||
"config.seed.random": "Aleatorio",
|
||||
"config.size.label": "Tamaño",
|
||||
"config.watermark.label": "Marca de agua",
|
||||
"config.webSearch.label": "Búsqueda web",
|
||||
"generation.actions.copyError": "Copiar mensaje de error",
|
||||
"generation.actions.errorCopied": "Mensaje de error copiado al portapapeles",
|
||||
"generation.actions.errorCopyFailed": "No se pudo copiar el mensaje de error",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "ربات با موفقیت متصل شد",
|
||||
"channel.connecting": "در حال اتصال...",
|
||||
"channel.connectionConfig": "پیکربندی اتصال",
|
||||
"channel.connectionMode": "حالت اتصال",
|
||||
"channel.connectionModeHint": "وبسوکت برای رباتهای جدید توصیه میشود. اگر ربات شما از قبل یک نشانی callback در پلتفرم QQ Open دارد، از وبهوک استفاده کنید.",
|
||||
"channel.connectionModeWebSocket": "وبسوکت",
|
||||
"channel.connectionModeWebhook": "وبهوک",
|
||||
"channel.copied": "به کلیپبورد کپی شد",
|
||||
"channel.copy": "کپی",
|
||||
"channel.credentials": "اعتبارنامهها",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "لطفاً این آدرس را کپی کرده و در قسمت <bold>{{fieldName}}</bold> در پورتال توسعهدهنده {{name}} وارد کنید.",
|
||||
"channel.exportConfig": "صادرات تنظیمات",
|
||||
"channel.feishu.description": "این دستیار را به Feishu برای چتهای خصوصی و گروهی متصل کنید.",
|
||||
"channel.feishu.webhookMigrationDesc": "حالت وبسوکت بدون نیاز به یک نشانی callback عمومی، تحویل آنی رویدادها را فراهم میکند. برای مهاجرت، در تنظیمات پیشرفته حالت اتصال را به وبسوکت تغییر دهید. هیچ تنظیم اضافهای در پلتفرم Feishu/Lark لازم نیست.",
|
||||
"channel.feishu.webhookMigrationTitle": "مهاجرت به حالت وبسوکت را در نظر بگیرید",
|
||||
"channel.historyLimit": "محدودیت پیامهای تاریخچه",
|
||||
"channel.historyLimitHint": "تعداد پیشفرض پیامهایی که هنگام خواندن تاریخچه کانال دریافت میشوند",
|
||||
"channel.importConfig": "وارد کردن تنظیمات",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "برای تأیید تعامل مورد نیاز است",
|
||||
"channel.qq.appIdHint": "شناسه برنامه ربات QQ شما از پلتفرم باز QQ",
|
||||
"channel.qq.description": "این دستیار را به QQ متصل کنید برای چتهای گروهی و پیامهای مستقیم.",
|
||||
"channel.qq.webhookMigrationDesc": "حالت وبسوکت بدون نیاز به نشانی callback، تحویل آنی رویدادها و اتصال مجدد خودکار را فراهم میکند. برای مهاجرت، یک ربات جدید در پلتفرم QQ Open بدون پیکربندی نشانی callback ایجاد کرده و سپس در تنظیمات پیشرفته حالت اتصال را به وبسوکت تغییر دهید.",
|
||||
"channel.qq.webhookMigrationTitle": "مهاجرت به حالت وبسوکت را در نظر بگیرید",
|
||||
"channel.removeChannel": "حذف کانال",
|
||||
"channel.removeFailed": "حذف کانال ناموفق بود",
|
||||
"channel.removed": "کانال حذف شد",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "رمز امضا",
|
||||
"channel.signingSecretHint": "برای تأیید درخواستهای وبهوک استفاده میشود.",
|
||||
"channel.slack.appIdHint": "شناسه برنامه Slack شما از داشبورد API Slack (با A شروع میشود).",
|
||||
"channel.slack.appToken": "توکن سطح برنامه",
|
||||
"channel.slack.appTokenHint": "برای حالت Socket (وبسوکت) الزامی است. یک توکن سطح برنامه (xapp-...) در بخش اطلاعات پایه در تنظیمات برنامه Slack خود ایجاد کنید.",
|
||||
"channel.slack.description": "این دستیار را به Slack متصل کنید برای مکالمات کانالی و پیامهای مستقیم.",
|
||||
"channel.slack.webhookMigrationDesc": "حالت Socket بدون نیاز به یک نقطه پایانی HTTP عمومی، تحویل آنی رویدادها را از طریق وبسوکت فراهم میکند. برای مهاجرت، حالت Socket را در تنظیمات برنامه Slack فعال کنید، یک توکن سطح برنامه ایجاد کنید، سپس در تنظیمات پیشرفته حالت اتصال را به وبسوکت تغییر دهید.",
|
||||
"channel.slack.webhookMigrationTitle": "مهاجرت به حالت Socket (وبسوکت) را در نظر بگیرید",
|
||||
"channel.telegram.description": "این دستیار را به Telegram برای چتهای خصوصی و گروهی متصل کنید.",
|
||||
"channel.testConnection": "آزمایش اتصال",
|
||||
"channel.testFailed": "آزمایش اتصال ناموفق بود",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "گروه با موفقیت حذف شد",
|
||||
"confirmRemoveSessionItemAlert": "در حال حذف این عامل هستید. پس از حذف، قابل بازیابی نیست. لطفاً اقدام خود را تأیید کنید.",
|
||||
"confirmRemoveSessionSuccess": "عامل با موفقیت حذف شد",
|
||||
"createModal.createBlank": "ایجاد مورد خالی",
|
||||
"createModal.groupPlaceholder": "توضیح دهید این گروه چه کاری باید انجام دهد...",
|
||||
"createModal.groupTitle": "گروه شما باید چه کاری انجام دهد؟",
|
||||
"createModal.placeholder": "توضیح دهید عامل شما چه کاری باید انجام دهد...",
|
||||
"createModal.title": "عامل شما باید چه کاری انجام دهد؟",
|
||||
"defaultAgent": "عامل پیشفرض",
|
||||
"defaultGroupChat": "گروه",
|
||||
"defaultList": "فهرست پیشفرض",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "متن بیش از حد طولانی است، در حال فشردهسازی تاریخچه...",
|
||||
"operation.execAgentRuntime": "در حال آمادهسازی پاسخ",
|
||||
"operation.execClientTask": "در حال اجرای وظیفه",
|
||||
"operation.execServerAgentRuntime": "در حال اجرا… میتوانید کار را عوض کنید یا صفحه را ببندید — وظیفه همچنان ادامه خواهد داشت.",
|
||||
"operation.sendMessage": "در حال ارسال پیام",
|
||||
"owner": "مالک گروه",
|
||||
"pageCopilot.title": "نماینده صفحه",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "در حال دریافت جزئیات...",
|
||||
"task.status.initializing": "در حال آغاز وظیفه...",
|
||||
"task.subtask": "زیرکار",
|
||||
"task.title": "وظایف",
|
||||
"thread.divider": "زیرموضوع",
|
||||
"thread.threadMessageCount": "{{messageCount}} پیام",
|
||||
"thread.title": "زیرموضوع",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "مجازسازی مهارتها برای این نماینده",
|
||||
"topic.checkOpenNewTopic": "موضوع جدیدی آغاز شود؟",
|
||||
"topic.checkSaveCurrentMessages": "آیا میخواهید گفتگوی فعلی را بهعنوان یک موضوع ذخیره کنید؟",
|
||||
"topic.defaultTitle": "موضوع بدون عنوان",
|
||||
"topic.openNewTopic": "باز کردن موضوع جدید",
|
||||
"topic.recent": "موضوعات اخیر",
|
||||
"topic.saveCurrentMessages": "ذخیره گفتگوی فعلی بهعنوان موضوع",
|
||||
"topic.viewAll": "نمایش همه موضوعات",
|
||||
"translate.action": "ترجمه",
|
||||
"translate.clear": "پاک کردن ترجمه",
|
||||
"tts.action": "تبدیل متن به گفتار",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "پشتیبانی ایمیلی",
|
||||
"more": "بیشتر",
|
||||
"navPanel.agent": "نماینده",
|
||||
"navPanel.customizeSidebar": "سفارشیسازی نوار کناری",
|
||||
"navPanel.displayItems": "موارد نمایشی",
|
||||
"navPanel.hidden": "پنهان",
|
||||
"navPanel.hideSection": "پنهان کردن بخش",
|
||||
"navPanel.library": "کتابخانه",
|
||||
"navPanel.moveDown": "انتقال به پایین",
|
||||
"navPanel.moveUp": "انتقال به بالا",
|
||||
"navPanel.pinned": "سنشده",
|
||||
"navPanel.searchAgent": "جستجوی نماینده...",
|
||||
"navPanel.searchRecent": "جستوجوی موارد اخیر...",
|
||||
"navPanel.searchResultEmpty": "نتیجهای یافت نشد",
|
||||
"navPanel.show": "نمایش",
|
||||
"navPanel.visible": "نمایان",
|
||||
"new": "جدید",
|
||||
"noContent": "محتوایی وجود ندارد",
|
||||
"oauth": "ورود با SSO",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "از ما حمایت کنید",
|
||||
"productHunt.description": "در Product Hunt از ما حمایت کنید. حمایت شما برای ما بسیار ارزشمند است!",
|
||||
"productHunt.title": "ما در Product Hunt هستیم!",
|
||||
"promptTransform.action": "بهبود ایده",
|
||||
"promptTransform.actions.rewrite": "گسترش جزئیات",
|
||||
"promptTransform.actions.translate": "ترجمه",
|
||||
"promptTransform.status.rewrite": "در حال گسترش جزئیات...",
|
||||
"promptTransform.status.translate": "در حال ترجمه...",
|
||||
"recents": "موارد اخیر",
|
||||
"regenerate": "تولید مجدد",
|
||||
"releaseNotes": "جزئیات نسخه",
|
||||
"rename": "تغییر نام",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "صوت",
|
||||
"tab.chat": "گفتوگو",
|
||||
"tab.community": "جامعه",
|
||||
"tab.create": "ایجاد",
|
||||
"tab.discover": "کشف",
|
||||
"tab.eval": "آزمایشگاه ارزیابی",
|
||||
"tab.files": "فایلها",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "مدل",
|
||||
"config.prompt.placeholder": "توصیف کنید که چه چیزی میخواهید تولید شود",
|
||||
"config.prompt.placeholderWithRef": "توضیح دهید که چگونه میخواهید تصویر را تنظیم کنید",
|
||||
"config.promptExtend.label": "گسترش پرامپت",
|
||||
"config.quality.label": "کیفیت تصویر",
|
||||
"config.quality.options.hd": "وضوح بالا",
|
||||
"config.quality.options.standard": "استاندارد",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "اندازه",
|
||||
"config.steps.label": "مراحل",
|
||||
"config.title": "پیکربندی",
|
||||
"config.watermark.label": "واترمارک",
|
||||
"config.webSearch.label": "جستجوی وب",
|
||||
"config.width.label": "عرض",
|
||||
"generation.actions.applySeed": "اعمال بذر",
|
||||
"generation.actions.copyError": "کپی پیام خطا",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "نمایش گروهی پیامهای عامل و نتایج ابزارهای فراخوانیشده بهصورت یکجا",
|
||||
"features.assistantMessageGroup.title": "گروهبندی پیامهای عامل",
|
||||
"features.gatewayMode.desc": "اجرای وظایف ایجنت روی سرور از طریق وبسوکت Gateway بهجای اجرای محلی. این کار سرعت اجرا را افزایش داده و مصرف منابع در دستگاه کاربر را کاهش میدهد.",
|
||||
"features.gatewayMode.title": "اجرای ایجنت در سمت سرور (Gateway)",
|
||||
"features.groupChat.desc": "فعالسازی هماهنگی گفتوگوی گروهی چندعاملی.",
|
||||
"features.groupChat.title": "گفتوگوی گروهی (چندعاملی)",
|
||||
"features.inputMarkdown.desc": "نمایش زنده Markdown در ناحیه ورودی (متن پررنگ، بلوکهای کد، جدولها و غیره).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "مدلی پیشرو در چین که در وظایف زبان چینی مانند دانش، متون بلند و تولید خلاقانه از مدلهای مطرح خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندوجهی پیشرفته با نتایج قوی در آزمونهای معتبر است.",
|
||||
"Baichuan4.description": "عملکرد برتر داخلی که در وظایف زبان چینی مانند دانش دایرهالمعارفی، متون بلند و تولید خلاقانه از مدلهای مطرح خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندوجهی پیشرفته و نتایج قوی در آزمونهای معیار است.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS مجموعهای از مدلهای متنباز LLM از ByteDance Seed است که برای مدیریت زمینههای بلند، استدلال، عاملها و تواناییهای عمومی طراحی شدهاند. Seed-OSS-36B-Instruct یک مدل ۳۶ میلیارد پارامتری با تنظیمات دستوری است که بهطور بومی از زمینههای بسیار بلند برای پردازش اسناد یا پایگاههای کد پشتیبانی میکند. این مدل برای استدلال، تولید کد و وظایف عامل (استفاده از ابزار) بهینهسازی شده و در عین حال توانایی عمومی قوی خود را حفظ کرده است. ویژگی کلیدی آن «بودجه تفکر» است که امکان تنظیم طول استدلال برای افزایش کارایی را فراهم میسازد.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR یک مدل زبان-بینایی از DeepSeek AI است که بر OCR و «فشردهسازی نوریِ بافت» تمرکز دارد. این مدل روشهایی را برای فشردهسازی محتوای تصویری بررسی کرده، اسناد را بهصورت کارآمد پردازش میکند و آنها را به متنی ساختیافته (مانند Markdown) تبدیل مینماید. این مدل در شناسایی متن داخل تصاویر دقت بالایی دارد و برای دیجیتالیسازی اسناد، استخراج متن و پردازش ساختیافته بسیار مناسب است.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "مدل DeepSeek R1 که بزرگتر و هوشمندتر است، در معماری Llama 70B تقطیر شده است. آزمونهای معیار و ارزیابیهای انسانی نشان میدهند که این مدل از نسخه پایه Llama 70B هوشمندتر است، بهویژه در وظایف ریاضی و دقت اطلاعات.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "مدلی تقطیرشده از DeepSeek-R1 بر پایه Qwen2.5-Math-1.5B. با استفاده از یادگیری تقویتی و دادههای شروع سرد، عملکرد استدلال را بهینه کرده و معیارهای جدیدی برای مدلهای متنباز در وظایف چندگانه تعیین کرده است.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "مدلهای DeepSeek-R1-Distill از مدلهای متنباز با استفاده از دادههای نمونه تولیدشده توسط DeepSeek-R1 بهصورت دقیق تنظیم شدهاند.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "ارائهدهنده: sophnet. DeepSeek V3 Fast نسخه با نرخ پردازش بالا از DeepSeek V3 0324 است که با دقت کامل (بدون کوانتیزهسازی) عملکرد قویتری در کدنویسی و ریاضی دارد و پاسخهای سریعتری ارائه میدهد.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast نسخه سریع با نرخ پردازش بالا از DeepSeek V3.1 است. حالت تفکر ترکیبی: از طریق قالبهای چت، یک مدل از هر دو حالت تفکر و غیرتفکر پشتیبانی میکند. استفاده هوشمندانهتر از ابزار: پسآموزش عملکرد وظایف ابزار و عامل را بهبود میبخشد.",
|
||||
"DeepSeek-V3.1-Think.description": "حالت تفکر DeepSeek-V3.1: یک مدل استدلال ترکیبی جدید با حالتهای تفکر و غیرتفکر که کارآمدتر از DeepSeek-R1-0528 است. بهینهسازیهای پسآموزش عملکرد استفاده از ابزار عامل و وظایف عامل را بهطور قابلتوجهی بهبود میبخشد.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 یک سازوکار توجه تنک معرفی میکند که با هدف بهبود کارایی آموزش و استنتاج در پردازش متون طولانی طراحی شده و نسبت به deepseek-v3.1 با قیمت پایینتری ارائه میشود.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE توسعهیافته توسط DeepSeek است. این مدل در بسیاری از آزمونهای معیار از مدلهای متنباز دیگر مانند Qwen2.5-72B و Llama-3.1-405B پیشی میگیرد و با مدلهای بسته پیشرو مانند GPT-4o و Claude 3.5 Sonnet رقابت میکند.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite پاسخهای فوقالعاده سریع و ارزش بالاتری ارائه میدهد و گزینههای انعطافپذیری را در سناریوهای مختلف فراهم میسازد. از زمینه ۱۲۸ هزار توکن برای استنتاج و تنظیم دقیق پشتیبانی میکند.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite پاسخهای فوقالعاده سریع و ارزش بالاتری ارائه میدهد و گزینههای انعطافپذیری را در سناریوهای مختلف فراهم میسازد. از زمینه ۳۲ هزار توکن برای استنتاج و تنظیم دقیق پشتیبانی میکند.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: مدل با عملکرد بالا برای استدلال، کدنویسی و وظایف عامل.",
|
||||
"GLM-4.6.description": "GLM-4.6: مدل نسل قبلی.",
|
||||
"GLM-4.7.description": "GLM-4.7 جدیدترین مدل پرچمدار Zhipu است که برای سناریوهای کدنویسی عامل بهبود یافته است و قابلیتهای کدنویسی، برنامهریزی وظایف بلندمدت و همکاری ابزار را ارتقا داده است.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: نسخه بهینهسازی شده GLM-5 با استنتاج سریعتر برای وظایف کدنویسی.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo یک مدل پایه است که برای سناریوهای عاملیتمحور بهینهسازی عمیق شده است. این مدل از مرحلهٔ آموزش برای نیازهای اصلی کارهای عاملها بهینه شده و قابلیتهایی مانند فراخوانی ابزار، پیروی از دستورات و اجرای زنجیرهای طولانی را تقویت کرده است. این مدل برای ساخت دستیارهای عامل با کارایی بالا ایدهآل است.",
|
||||
"GLM-5.1.description": "GLM-5.1 جدیدترین مدل پرچمدار Zhipu است، نسخهای پیشرفتهتر از GLM-5 با قابلیتهای مهندسی عامل بهبود یافته برای مهندسی سیستمهای پیچیده و وظایف بلندمدت.",
|
||||
"GLM-5.description": "GLM-5 مدل پرچمدار نسل بعدی Zhipu است که برای مهندسی عامل طراحی شده است. این مدل بهرهوری قابل اعتمادی را در مهندسی سیستمهای پیچیده و وظایف عامل بلندمدت ارائه میدهد. در قابلیتهای کدنویسی و عامل، GLM-5 عملکرد پیشرفتهای در میان مدلهای متنباز دارد.",
|
||||
"GLM-5.description": "GLM-5 مدل پرچمدار نسل بعدی Zhipu و ویژهٔ مهندسی Agentic است. این مدل بهرهوری قابلاعتمادی را در مهندسی سامانههای پیچیده و وظایف بلندمدت عاملانه ارائه میدهد. در حوزهٔ کدنویسی و قابلیتهای عاملی، GLM-5 عملکردی در سطح پیشرفتهترین مدلهای متنباز دارد. در سناریوهای واقعی برنامهنویسی، تجربهٔ کاربری آن به Claude Opus 4.5 نزدیک میشود. این مدل در مهندسی سامانههای پیچیده و وظایف عاملانهٔ بلندمدت برتری دارد و گزینهای مناسب برای ساخت دستیارهای عامل عمومی است.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) مدلی نوآورانه برای حوزههای متنوع و وظایف پیچیده است.",
|
||||
"HY-Image-V3.0.description": "قابلیتهای قدرتمند استخراج ویژگیهای تصویر اصلی و حفظ جزئیات، ارائه بافت بصری غنیتر و تولید تصاویر با دقت بالا، ترکیببندی مناسب و کیفیت تولید حرفهای.",
|
||||
"HelloMeme.description": "HelloMeme یک ابزار هوش مصنوعی برای تولید میم، گیف یا ویدیوهای کوتاه از تصاویر یا حرکاتی است که ارائه میدهید. بدون نیاز به مهارت طراحی یا کدنویسی، تنها با یک تصویر مرجع، محتوایی سرگرمکننده، جذاب و از نظر سبک هماهنگ تولید میکند.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter مدلی برای تولید شخصیت شخصیسازیشده بدون نیاز به تنظیم است که توسط Tencent AI در سال ۲۰۲۵ عرضه شده است. این مدل با هدف تولید شخصیتهایی با دقت بالا و سازگاری در سناریوهای مختلف طراحی شده و میتواند تنها با یک تصویر مرجع، شخصیت را مدلسازی کرده و آن را در سبکها، حرکات و پسزمینههای مختلف منتقل کند.",
|
||||
"InternVL2-8B.description": "InternVL2-8B یک مدل قدرتمند بینایی-زبان است که از پردازش چندوجهی تصویر-متن پشتیبانی میکند و محتوای تصویر را با دقت شناسایی کرده و توضیحات یا پاسخهای مرتبط تولید میکند.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B یک مدل قدرتمند بینایی-زبان است که از پردازش چندوجهی تصویر-متن پشتیبانی میکند و محتوای تصویر را با دقت شناسایی کرده و توضیحات یا پاسخهای مرتبط تولید میکند.",
|
||||
"KAT-Coder-Air-V1.description": "نسخهای سبک از سری KAT-Coder که بهطور ویژه برای Agentic Coding طراحی شده است. این مدل طیف کامل وظایف و سناریوهای برنامهنویسی را پوشش میدهد و با بهرهگیری از یادگیری تقویتی مبتنی بر عاملهای گسترده، رفتارهای هوشمند نوظهور را ممکن میسازد و عملکردی فراتر از مدلهای مشابه در کدنویسی ارائه میدهد.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B نسخهٔ تجربی نوآوری مبتنی بر RL در سری KAT-Coder است که عملکرد چشمگیر 74.6٪ را در بنچمارک SWE-Bench verified به دست آورده و رکورد جدیدی برای مدلهای متنباز ثبت کرده است. این مدل بر Agentic Coding متمرکز است و در حال حاضر تنها از چارچوب SWE-Agent پشتیبانی میکند، اما برای مکالمات ساده نیز قابل استفاده است.",
|
||||
"KAT-Coder-Pro-V1.description": "طراحیشده برای Agentic Coding، این مدل طیف کامل کارها و سناریوهای برنامهنویسی را پوشش میدهد و از طریق یادگیری تقویتی گسترده به ظهور رفتارهای هوشمند دست مییابد و نسبت به مدلهای مشابه در عملکرد کدنویسی بهطور قابلتوجهی بهتر عمل میکند.",
|
||||
"KAT-Coder-Pro-V2.description": "جدیدترین مدل پرفورمنسبالای تیم Kuaishou Kwaipilot که برای پروژههای پیچیدهٔ سازمانی و یکپارچهسازی SaaS طراحی شده است. این مدل در سناریوهای مرتبط با کدنویسی برتری دارد، با انواع چارچوبهای عامل (Claude Code، OpenCode، KiloCode) سازگار است، بهطور بومی از OpenClaw پشتیبانی میکند و برای زیباییشناسی صفحات فرانتاند بهینهسازی شده است.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 قدرتمندترین مدل Kimi است که در کارهای عاملی، کدنویسی و درک بصری عملکردی در سطح SOTA ارائه میدهد. این مدل از ورودی چندوجهی و حالتهای تفکری و غیرفتکری پشتیبانی میکند.",
|
||||
"Kolors.description": "Kolors یک مدل تبدیل متن به تصویر است که توسط تیم Kolors در Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی چینی و رندر متن عملکرد برجستهای دارد.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors یک مدل بزرگ تبدیل متن به تصویر با انتشار نهفته است که توسط تیم Kolors در Kuaishou توسعه یافته است. این مدل با میلیاردها جفت متن-تصویر آموزش دیده و در کیفیت بصری، دقت معنایی پیچیده و رندر متن چینی/انگلیسی عملکرد عالی دارد و در درک و تولید محتوای چینی بسیار قوی است.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) یک مدل متنباز برای وظایف مهندسی نرمافزار است. این مدل با نرخ حل ۶۲.۴٪ در SWE-Bench Verified، در میان مدلهای متنباز رتبه پنجم را دارد. با آموزش میانی، تنظیم با نظارت (SFT) و یادگیری تقویتی (RL) برای تکمیل کد، رفع اشکال و بازبینی کد بهینهسازی شده است.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "مدل زبان کوچک پیشرفته با درک زبانی قوی، استدلال عالی و تولید متن باکیفیت.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 پیشرفتهترین مدل چندزبانه متنباز Llama است که عملکردی نزدیک به مدلهای ۴۰۵B با هزینه بسیار پایین ارائه میدهد. این مدل بر پایه ترنسفورمر ساخته شده و با SFT و RLHF برای کاربردپذیری و ایمنی بهبود یافته است. نسخه تنظیمشده برای گفتگوهای چندزبانه بهینه شده و در ارزیابیهای صنعتی بسیاری از مدلهای باز و بسته را پشت سر گذاشته است. تاریخ قطع دانش: دسامبر ۲۰۲۳.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick یک مدل MoE بزرگ با فعالسازی کارآمد متخصصان برای عملکرد استدلالی قوی است.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro بهطور ویژه برای جریانهای کاری عاملی با شدت بالا در سناریوهای واقعی طراحی شده است. این مدل بیش از یک تریلیون پارامتر کل (۴۲ میلیارد پارامتر فعال) دارد، از معماری توجه ترکیبی نوآورانه بهره میبرد و از طول بافت فوقالعاده بلند تا یک میلیون توکن پشتیبانی میکند. با تکیه بر یک مدل پایهٔ قدرتمند، منابع محاسباتی در دامنهٔ وسیعتری از سناریوهای عاملی گسترش یافته و فضای عمل هوش افزایش یافته و توانایی تعمیم از کدنویسی تا اجرای وظایف واقعی («چنگال/claw») بهشکل چشمگیری بهبود یافته است.",
|
||||
"MiniMax-Hailuo-02.description": "مدل نسل بعدی تولید ویدئو، MiniMax Hailuo 02، به طور رسمی منتشر شده است، با پشتیبانی از وضوح 1080P و تولید ویدئو 10 ثانیهای.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "مدل جدید تولید ویدئو با ارتقاهای جامع در حرکت بدن، واقعگرایی فیزیکی و پیروی از دستورالعملها.",
|
||||
"MiniMax-Hailuo-2.3.description": "مدل جدید تولید ویدئو با ارتقاهای جامع در حرکت بدن، واقعگرایی فیزیکی و پیروی از دستورالعملها.",
|
||||
"MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدلهای برتر جهانی.",
|
||||
"MiniMax-M2-Stable.description": "طراحیشده برای کدنویسی کارآمد و جریانهای کاری عاملمحور، با همزمانی بالاتر برای استفاده تجاری.",
|
||||
"MiniMax-M2.1-Lightning.description": "قابلیتهای برنامهنویسی چندزبانه قدرتمند با استنتاج سریعتر و کارآمدتر.",
|
||||
"MiniMax-M2.1-highspeed.description": "قابلیتهای برنامهنویسی چندزبانه قدرتمند، تجربه برنامهنویسی کاملاً ارتقاء یافته. سریعتر و کارآمدتر.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل بزرگ متنباز پیشرفته از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن شامل توانایی برنامهنویسی چندزبانه و قابلیت عمل بهعنوان یک عامل هوشمند برای حل مسائل پیچیده است.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: همان عملکرد M2.5 با استنتاج سریعتر.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5 یک مدل بزرگ متنباز پرچمدار از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن توانایی برنامهنویسی چندزبانه و قابلیت حل وظایف پیچیده به عنوان یک عامل (Agent) است.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: همان عملکرد M2.7 با استنتاج بهطور قابل توجهی سریعتر.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: آغاز سفر بهبود خودبازگشتی، قابلیتهای مهندسی واقعی برتر.",
|
||||
"MiniMax-M2.7.description": "نخستین مدل خودتکاملی با عملکرد سطحبالا در کدنویسی و کارهای عاملی (حدود ۶۰ tps).",
|
||||
"MiniMax-M2.description": "MiniMax M2: مدل نسل قبلی.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی میکند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه میدهد و تا ۴ میلیون توکن زمینه را پشتیبانی میکند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 یک مدل استدلال توجه ترکیبی با وزنهای باز و 456 میلیارد پارامتر کل و ~45.9 میلیارد پارامتر فعال در هر توکن است. این مدل بهطور بومی از 1 میلیون زمینه پشتیبانی میکند و با استفاده از Flash Attention، FLOPs را در تولید 100 هزار توکن نسبت به DeepSeek R1 تا 75٪ کاهش میدهد. با معماری MoE بهعلاوه CISPO و آموزش RL توجه ترکیبی، عملکرد پیشرو در استدلال ورودی طولانی و وظایف مهندسی نرمافزار واقعی را ارائه میدهد.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل MoE سطح بالا با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال است. ویژگیهای کلیدی شامل هوش کدنویسی عاملمحور قویتر با پیشرفتهای قابل توجه در معیارها و وظایف واقعی عاملها، بهعلاوه زیباییشناسی و قابلیت استفاده بهتر در کدنویسی رابط کاربری است.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo نسخه توربو بهینهشده برای سرعت استدلال و توان عملیاتی است، در حالی که استدلال چندمرحلهای و استفاده از ابزار K2 Thinking را حفظ میکند. این مدل MoE با حدود ۱ تریلیون پارامتر کل، زمینه بومی ۲۵۶ هزار توکن و فراخوانی ابزار در مقیاس بزرگ پایدار برای سناریوهای تولیدی با نیازهای سختگیرانهتر در تأخیر و همزمانی است.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 یک مدل عامل چندوجهی بومی متنباز است که بر پایه Kimi-K2-Base ساخته شده و با حدود ۱.۵ تریلیون توکن ترکیبی بینایی و متنی آموزش دیده است. این مدل از معماری MoE با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال بهره میبرد و از پنجره متنی ۲۵۶ هزار توکن پشتیبانی میکند و درک زبان و تصویر را بهصورت یکپارچه ارائه میدهد.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 یک مدل پرچمدار نسل بعدی برای مهندسی عاملها است که از معماری Mixture of Experts (MoE) با 754 میلیارد پارامتر بهره میبرد. این مدل تواناییهای برنامهنویسی را بهطور چشمگیری ارتقا داده و نتایج پیشرو در SWE-Bench Pro به دست آورده و عملکردی بسیار بهتر از نسل قبلی در بنچمارکهایی مانند NL2Repo و Terminal-Bench 2.0 ارائه میدهد. این مدل برای وظایف عاملی بلندمدت طراحی شده و در برخورد با پرسشهای مبهم قضاوت بهتری دارد، وظایف پیچیده را تجزیه میکند، آزمایشها را اجرا میکند، نتایج را تحلیل میکند و از طریق صدها تکرار و هزاران فراخوان ابزار بهطور مستمر بهینهسازی میشود.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 مدل پرچمدار نسل جدید Zhipu با 355 میلیارد پارامتر کل و 32 میلیارد پارامتر فعال است که بهطور کامل در قابلیتهای گفتگوی عمومی، استدلال و عامل ارتقا یافته است. GLM-4.7 تفکر متداخل را بهبود میبخشد و تفکر حفظشده و تفکر سطح چرخش را معرفی میکند.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 مدل زبان بزرگ نسل بعدی Zhipu است که بر مهندسی سیستمهای پیچیده و وظایف عامل با مدت زمان طولانی تمرکز دارد. پارامترهای مدل به 744 میلیارد (40 میلیارد فعال) گسترش یافته و DeepSeek Sparse Attention را ادغام میکند.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ یک مدل تحقیقاتی آزمایشی است که بر بهبود توانایی استدلال تمرکز دارد.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 برای استدلال پیشرفته و پیروی از دستورالعملها بهینهسازی شده است و با استفاده از معماری MoE، استدلال را در مقیاس بالا بهصورت کارآمد انجام میدهد.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B یک مدل MoE است که حالت استدلال ترکیبی را معرفی میکند و به کاربران اجازه میدهد بهصورت یکپارچه بین حالتهای تفکر و غیرتفکر جابجا شوند. این مدل از درک و استدلال در ۱۱۹ زبان و گویش پشتیبانی میکند و توانایی بالایی در فراخوانی ابزارها دارد. در آزمونهای توانایی عمومی، کدنویسی و ریاضی، قابلیت چندزبانه و استدلال دانشی با مدلهای پیشرو مانند DeepSeek R1، OpenAI o1، o3-mini، Grok 3 و Google Gemini 2.5 Pro رقابت میکند.",
|
||||
"Qwen3-32B.description": "Qwen3-32B یک مدل متراکم است که حالت استدلال ترکیبی را معرفی میکند و به کاربران اجازه میدهد بین تفکر و غیرتفکر جابجا شوند. با بهبود معماری، دادههای بیشتر و آموزش بهتر، عملکردی همسطح با Qwen2.5-72B دارد.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus از ورودی متن، تصویر و ویدئو پشتیبانی میکند. عملکرد آن در کارهای متنی خالص با Qwen3 Max قابل مقایسه است اما با هزینه کمتر و عملکرد بهتر. قابلیتهای چندوجهی آن نسبت به سری Qwen3 VL پیشرفت چشمگیری دارد.",
|
||||
"S2V-01.description": "مدل پایه مرجع به ویدئو سری 01.",
|
||||
"SenseChat-128K.description": "نسخه پایه V4 با پنجره متنی ۱۲۸ هزار توکن، قوی در درک و تولید متون بلند.",
|
||||
"SenseChat-32K.description": "نسخه پایه V4 با پنجره متنی ۳۲ هزار توکن، انعطافپذیر برای سناریوهای مختلف.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است، با سرعت فوقالعاده و تفکر گسترده.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که سرعتی فوقالعاده و توانایی استدلال توسعهیافته ارائه میدهد.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت برقآسا و توانایی استدلال پیشرفته ارائه میشود.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است، با عملکرد، هوش، روانی و درک برجسته.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است، با عملکرد، هوش، روانی و درک برجسته.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوشمندی، روانی و درک برتری دارد.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوشمندی، روانی و درک متن برتری دارد.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عاملها و کدنویسی است.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برتر را با عملکرد مقیاسپذیر برای وظایف پیچیده و استدلال با کیفیت بالا ترکیب میکند.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است، با پاسخهای تقریباً فوری یا تفکر مرحله به مرحله گسترده با کنترل دقیق برای کاربران API.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً آنی یا تفکر گامبهگام طولانی با روند قابل مشاهده تولید کند.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوش Anthropic است.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوشمندی از Anthropic را ارائه میدهد.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 بهترین ترکیب از سرعت و هوش را ارائه میدهد.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا استدلال گامبهگام طولانیتری که کاربران میتوانند مشاهده کنند، تولید کند. کاربران API میتوانند بهطور دقیق کنترل کنند که مدل چه مدت فکر کند.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 یک مدل استدلال نسل بعدی با قابلیتهای استدلال پیچیدهتر و زنجیرهای از تفکر است.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 تعادل بین استدلال و طول خروجی را برای وظایف روزانه پرسش و پاسخ و عوامل برقرار میکند. معیارهای عمومی به سطح GPT-5 میرسند و اولین مدلی است که تفکر را در استفاده از ابزار ادغام میکند، که منجر به ارزیابیهای عوامل متنباز میشود.",
|
||||
"deepseek-chat.description": "یک مدل متنباز جدید که تواناییهای عمومی و کدنویسی را ترکیب میکند. این مدل قابلیتهای گفتگوی عمومی مدلهای چت و توانایی کدنویسی قدرتمند مدلهای برنامهنویس را حفظ میکند و همترازسازی ترجیحی بهتری دارد. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعملها بهبود یافته است.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخدهی سریعتر ترکیب میکند.",
|
||||
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قویتری را ارائه میدهد.",
|
||||
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از دادههای شروع سرد استفاده میکند و در وظایف ریاضی، کدنویسی و استدلال عملکردی همسطح با OpenAI-o1 دارد.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که زنجیرهای از تفکر را قبل از خروجیها برای دقت بالاتر تولید میکند، با نتایج رقابتی برتر و استدلال قابل مقایسه با Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از ارائه پاسخ نهایی، زنجیره فکر تولید میکند تا دقت را افزایش دهد.",
|
||||
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرونبهصرفه را امکانپذیر میسازد.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامهنویسی، تواناییهای فنی، درک زمینه و پردازش متون بلند عملکرد برجستهای دارد.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
||||
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 یک مدل تفکر پیشنمایش برای ارزیابی و آزمایش است.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، ساخته شده توسط تیم Seed ByteDance، از ویرایش و ترکیب چند تصویر پشتیبانی میکند. ویژگیهای بهبود یافته شامل ثبات سوژه، پیروی دقیق از دستورالعملها، درک منطق فضایی، بیان زیباییشناسی، طرحبندی پوستر و طراحی لوگو با رندر دقیق متن-تصویر است.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط ByteDance Seed، از ورودیهای متن و تصویر برای تولید تصویر با کیفیت بالا و قابل کنترل از دستورات پشتیبانی میکند.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی متن و تصویر پشتیبانی میکند و تولید تصویری بسیار باکیفیت و کنترلپذیر ارائه میدهد. این مدل تصاویر را از روی متن ایجاد میکند.",
|
||||
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
|
||||
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
|
||||
"fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفهای از تیم Qwen، که از ویرایشهای معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی میکند.",
|
||||
"fal-ai/qwen-image.description": "یک مدل تولید تصویر قدرتمند از تیم Qwen با رندر متن چینی قوی و سبکهای بصری متنوع.",
|
||||
"fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفهای از تیم Qwen که از ویرایش معنایی و ظاهری پشتیبانی میکند، متنهای چینی و انگلیسی را با دقت بالا ویرایش میکند و امکان ویرایشهای باکیفیت مانند انتقال سبک و چرخش اشیاء را فراهم میسازد.",
|
||||
"fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر عالی متن چینی و سبکهای بصری متنوع.",
|
||||
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
|
||||
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
|
||||
"flux-dev.description": "مدل تولید تصویر متنباز برای تحقیق و توسعه، بهطور کارآمد برای پژوهشهای نوآورانهٔ غیرتجاری بهینهسازی شده است.",
|
||||
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
||||
"flux-kontext-pro.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
||||
"flux-merged.description": "FLUX.1 [merged] ویژگیهای عمیق کاوش شده در \"DEV\" را با مزایای سرعت بالای \"Schnell\" ترکیب میکند، محدودیتهای عملکرد را گسترش داده و کاربردها را افزایش میدهد.",
|
||||
"flux-pro-1.1-ultra.description": "تولید تصویر با وضوح فوقالعاده بالا با خروجی ۴ مگاپیکسلی، تولید تصاویر شفاف در ۱۰ ثانیه.",
|
||||
"flux-pro-1.1.description": "مدل ارتقاءیافته تولید تصویر حرفهای با کیفیت تصویر عالی و پیروی دقیق از دستورات.",
|
||||
"flux-pro.description": "مدل تولید تصویر تجاری سطح بالا با کیفیت تصویر بینظیر و خروجیهای متنوع.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] پیشرفتهترین مدل متنباز چندمرحلهای است که از رقبای مشابه و حتی مدلهای تقطیرنشده قوی مانند Midjourney v6.0 و DALL-E 3 (HD) پیشی میگیرد. این مدل بهخوبی برای حفظ تنوع پیشآموزش تنظیم شده و کیفیت بصری، پیروی از دستورالعمل، تنوع اندازه/نسبت، مدیریت فونت و تنوع خروجی را بهطور قابل توجهی بهبود میبخشد.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell یک مدل تولید تصویر با عملکرد بالا برای خروجیهای سریع و چندسبکی است.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (تنظیمشده) عملکردی پایدار و قابل تنظیم برای وظایف پیچیده ارائه میدهد.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (تنظیمشده) پشتیبانی قوی چندوجهی برای وظایف پیچیده فراهم میکند.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچمدار مدلهای استدلالی گوگل است که از زمینههای طولانی برای انجام وظایف پیچیده پشتیبانی میکند.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحیشده برای سرعت است که هوش پیشرفته را با قابلیت جستوجوی دقیق ترکیب میکند.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتگوی چندوجهی نیز پشتیبانی میکند.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است و همچنین از چت چندوجهی پشتیبانی میکند.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی میکند.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنیتر و تعامل عمیقتری را بر پایه استدلال پیشرفته ارائه میدهد.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریعترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویر مکالمهای است.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر در سطح حرفهای را با سرعت Flash و پشتیبانی از چت چندوجهی ارائه میدهد.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریعترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویری مکالمهای است.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview اقتصادیترین مدل چندوجهی گوگل است که برای وظایف عاملمحور با حجم بالا، ترجمه و پردازش دادهها بهینه شده است.",
|
||||
"gemini-3.1-pro-preview.description": "پیشنمایش Gemini 3.1 Pro قابلیتهای استدلال بهبود یافته را به Gemini 3 Pro اضافه میکند و از سطح تفکر متوسط پشتیبانی میکند.",
|
||||
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "پیشرفتهترین و قدرتمندترین مدل ما، طراحیشده برای وظایف پیچیده سازمانی با عملکرد برجسته.",
|
||||
"jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچکتر.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch جستجوی وب، خواندن و استدلال را برای تحقیقات جامع ترکیب میکند. آن را مانند عاملی تصور کنید که وظیفه تحقیق شما را میگیرد، جستجوهای گستردهای با تکرارهای متعدد انجام میدهد و سپس پاسخ تولید میکند. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است و اساساً با مدلهای زبانی استاندارد یا سیستمهای RAG سنتی متفاوت است.",
|
||||
"k2p5.description": "Kimi K2.5 جامعترین مدل Kimi تا به امروز است که دارای معماری چندوجهی بومی است و از ورودیهای تصویری و متنی، حالتهای 'تفکر' و 'غیرتفکر' و وظایف مکالمهای و عامل پشتیبانی میکند.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 یک مدل پایه MoE با قابلیتهای قوی در برنامهنویسی و عاملسازی است (۱ تریلیون پارامتر کل، ۳۲ میلیارد فعال) که در معیارهای استدلال، برنامهنویسی، ریاضی و عامل از سایر مدلهای متنباز پیشی میگیرد.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview دارای پنجره متنی ۲۵۶هزار توکن، برنامهنویسی عاملمحور قویتر، کیفیت بهتر کد فرانتاند و درک بهتر از زمینه است.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct مدل رسمی استدلال Kimi با پشتیبانی از زمینه طولانی برای کدنویسی، پرسشوپاسخ و موارد دیگر است.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدلهای تنظیمشده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پاییندستی را بهویژه در مسائل دشوار بهطور قابل توجهی بهبود میبخشد. QwQ-32B یک مدل استدلال میانرده است که با مدلهای برتر مانند DeepSeek-R1 و o1-mini رقابت میکند.",
|
||||
"qwq_32b.description": "مدل استدلال میانرده در خانواده Qwen. در مقایسه با مدلهای تنظیمشده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پاییندستی را بهویژه در مسائل دشوار بهطور قابل توجهی بهبود میبخشد.",
|
||||
"r1-1776.description": "R1-1776 نسخه پسآموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بیطرف طراحی شده است.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro توسط ByteDance از تولید متن به ویدئو، تصویر به ویدئو (فریم اول، فریم اول+آخر)، و تولید صدا همگامشده با تصاویر پشتیبانی میکند.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite توسط BytePlus ویژگیهای تولید با بازیابی وب برای اطلاعات بلادرنگ، تفسیر پیچیده دستورات بهبود یافته، و ثبات مرجع بهبود یافته برای ایجاد بصری حرفهای را ارائه میدهد.",
|
||||
"solar-mini-ja.description": "Solar Mini (ژاپنی) نسخهای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبانهای انگلیسی و کرهای حفظ میکند.",
|
||||
"solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبانهای انگلیسی و کرهای، راهحلی کارآمد با حجم کم ارائه میدهد.",
|
||||
"solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعملها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی میکند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گستردهتر و زمینه طولانیتر برنامهریزی شده است.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 مدل قدرتمند جدید تولید رسانهای ما است، که ویدئوهایی با صدای همگامشده تولید میکند. این مدل میتواند کلیپهای پویا و غنی از جزئیات را از زبان طبیعی یا تصاویر ایجاد کند.",
|
||||
"spark-x.description": "بررسی قابلیتهای X2: 1. معرفی تنظیم پویا حالت استدلال، کنترل شده از طریق فیلد `thinking`. 2. طول زمینه گسترش یافته: 64K توکن ورودی و 128K توکن خروجی. 3. از قابلیت Function Call پشتیبانی میکند.",
|
||||
"stable-diffusion-3-medium.description": "جدیدترین مدل تبدیل متن به تصویر از Stability AI. این نسخه کیفیت تصویر، درک متن و تنوع سبک را بهطور قابلتوجهی بهبود میبخشد، دستورات زبان طبیعی پیچیده را دقیقتر تفسیر کرده و تصاویر متنوعتری تولید میکند.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo از تکنیک تقطیر انتشار خصمانه (ADD) برای افزایش سرعت در stable-diffusion-3.5-large استفاده میکند.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large یک مدل تبدیل متن به تصویر MMDiT با ۸۰۰ میلیون پارامتر است که کیفیت بالا و تطابق دقیق با دستورات را ارائه میدهد و از تصاویر ۱ مگاپیکسلی و اجرای کارآمد روی سختافزار مصرفی پشتیبانی میکند.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 از نقطه بازیابی v1.2 آغاز شده و به مدت ۵۹۵ هزار مرحله روی مجموعه «laion-aesthetics v2 5+» با وضوح ۵۱۲x۵۱۲ آموزش دیده است. با کاهش ۱۰٪ در شرطبندی متنی، نمونهگیری بدون طبقهبندی را بهبود میبخشد.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo بر تولید تصاویر باکیفیت با رندر دقیق جزئیات و حفظ وفاداری صحنه تمرکز دارد.",
|
||||
"stable-diffusion-xl-base-1.0.description": "یک مدل متنباز تبدیل متن به تصویر از Stability AI با قابلیتهای خلاقانه پیشرو در صنعت. درک قوی از دستورالعملها دارد و از تعریف معکوس دستورات برای تولید دقیق پشتیبانی میکند.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl بهبودهای عمدهای نسبت به نسخه v1.5 دارد و با بهترین نتایج متنباز تبدیل متن به تصویر برابری میکند. بهبودها شامل ستون فقرات UNet سه برابر بزرگتر، ماژول پالایش برای کیفیت بهتر تصویر و تکنیکهای آموزشی کارآمدتر است.",
|
||||
"step-1-128k.description": "تعادل بین عملکرد و هزینه برای سناریوهای عمومی.",
|
||||
"step-1-256k.description": "پشتیبانی از زمینههای بسیار طولانی، ایدهآل برای تحلیل اسناد بلند.",
|
||||
"step-1-32k.description": "پشتیبانی از مکالمات با طول متوسط برای طیف گستردهای از کاربردها.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "{{count}} پارامتر در مجموع",
|
||||
"arguments.title": "آرگومانها",
|
||||
"builtins.lobe-activator.apiName.activateTools": "فعال کردن ابزارها",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} یافت نشد",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "دریافت مدلهای موجود",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "دریافت مهارتهای موجود",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "دریافت پیکربندی",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
||||
"kimicodingplan.description": "Kimi Code از Moonshot AI دسترسی به مدلهای Kimi شامل K2.5 را برای وظایف کدنویسی فراهم میکند.",
|
||||
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
||||
"lobehub.description": "ابر لابهاب از APIهای رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل مرتبط هستند، اندازهگیری میکند.",
|
||||
"longcat.description": "لانگکت مجموعهای از مدلهای بزرگ هوش مصنوعی تولیدی است که بهطور مستقل توسط میتوآن توسعه داده شده است. این مدلها برای افزایش بهرهوری داخلی شرکت و امکانپذیر کردن کاربردهای نوآورانه از طریق معماری محاسباتی کارآمد و قابلیتهای چندوجهی قدرتمند طراحی شدهاند.",
|
||||
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
||||
"minimaxcodingplan.description": "طرح توکن MiniMax دسترسی به مدلهای MiniMax شامل M2.7 را برای وظایف کدنویسی از طریق اشتراک با هزینه ثابت فراهم میکند.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Spark هوش مصنوعی چندزبانه قدرتمندی را در حوزههای مختلف ارائه میدهد و نوآوریهایی در سختافزار هوشمند، سلامت، مالی و سایر صنایع ایجاد میکند.",
|
||||
"stepfun.description": "مدلهای Stepfun قابلیتهای پیشرفته چندوجهی و استدلال پیچیده را با درک متون بلند و هماهنگی جستجوی خودکار قدرتمند ارائه میدهند.",
|
||||
"straico.description": "استرایکو یکپارچهسازی هوش مصنوعی را با ارائه یک فضای کاری متحد که مدلهای برتر تولید متن، تصویر و صوت هوش مصنوعی را گرد هم میآورد، ساده میکند و به بازاریابان، کارآفرینان و علاقهمندان دسترسی آسان به ابزارهای متنوع هوش مصنوعی را میدهد.",
|
||||
"streamlake.description": "StreamLake یک پلتفرم خدمات مدل در سطح سازمانی و رایانش ابری هوش مصنوعی است که استنتاج مدل با کارایی بالا، شخصیسازی کمهزینه مدل و خدمات کاملاً مدیریتشده را یکپارچه میکند تا به کسبوکارها کمک کند بدون نگرانی از پیچیدگیها و هزینههای منابع محاسباتی زیربنایی، بر نوآوری در کاربردهای هوش مصنوعی تمرکز کنند.",
|
||||
"taichu.description": "مدل چندوجهی نسل جدید از CASIA و مؤسسه هوش مصنوعی ووهان که از پرسش و پاسخ چندمرحلهای، نگارش، تولید تصویر، درک سهبعدی و تحلیل سیگنال با شناخت و خلاقیت قوی پشتیبانی میکند.",
|
||||
"tencentcloud.description": "موتور دانش LLM Atomic Power خدمات پرسش و پاسخ دانشمحور را برای شرکتها و توسعهدهندگان فراهم میکند، با خدمات ماژولار مانند تجزیه اسناد، تقسیمبندی، جاسازی و بازنویسی چندمرحلهای برای ساخت راهکارهای سفارشی هوش مصنوعی.",
|
||||
"togetherai.description": "Together AI عملکرد پیشرو را با مدلهای نوآورانه، سفارشیسازی گسترده، مقیاسپذیری سریع و استقرار ساده برای نیازهای سازمانی ارائه میدهد.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "ابزارهای سیستم",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - ابزار سریع برای جستجوی کد",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "مرورگر عامل - ابزار خط فرمان برای اتوماسیون مرورگر بدون رابط کاربری برای عوامل هوش مصنوعی",
|
||||
"settingSystemTools.tools.bun.desc": "Bun - زماناجرای بسیار سریع جاوااسکریپت و مدیر بستهها",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx - اجراکننده بستههای Bun برای اجرای بستههای npm",
|
||||
"settingSystemTools.tools.fd.desc": "fd - جایگزینی سریع و کاربرپسند برای find",
|
||||
"settingSystemTools.tools.find.desc": "دستور find در یونیکس - فرمان استاندارد جستجوی فایل",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - ابزار استاندارد جستجوی متن",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - مدیریت و اتصال به سرویسهای LobeHub",
|
||||
"settingSystemTools.tools.mdfind.desc": "جستجوی Spotlight در macOS (جستجوی سریع و ایندکسشده)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - محیط اجرای JavaScript برای JS/TS",
|
||||
"settingSystemTools.tools.npm.desc": "npm - مدیر بسته Node.js برای نصب وابستگیها",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm - مدیر بستهای سریع و بهینه از نظر فضای دیسک",
|
||||
"settingSystemTools.tools.python.desc": "Python - محیط اجرای زبان برنامهنویسی",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - ابزار بسیار سریع برای جستجوی متن",
|
||||
"settingSystemTools.tools.uv.desc": "uv - مدیر بستهی پایتون با سرعتی بسیار بالا",
|
||||
"settingTTS.openai.sttModel": "مدل تبدیل گفتار به متن OpenAI",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "مدل تبدیل متن به گفتار OpenAI",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "مدل",
|
||||
"systemAgent.inputCompletion.modelDesc": "مدلی که برای پیشنهادات تکمیل خودکار ورودی استفاده میشود (مانند متن شبح GitHub Copilot)",
|
||||
"systemAgent.inputCompletion.title": "عامل تکمیل خودکار ورودی",
|
||||
"systemAgent.promptRewrite.label": "مدل",
|
||||
"systemAgent.promptRewrite.modelDesc": "مدلی را که برای بازنویسی پرامپت استفاده میشود مشخص کنید",
|
||||
"systemAgent.promptRewrite.title": "عامل بازنویسی پرامپت",
|
||||
"systemAgent.queryRewrite.label": "مدل",
|
||||
"systemAgent.queryRewrite.modelDesc": "مدلی که برای بهینهسازی پرسشهای کاربران استفاده میشود",
|
||||
"systemAgent.queryRewrite.title": "عامل بازنویسی پرسش کتابخانه",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "یک فایل .zip یا .skill محلی را آپلود کنید",
|
||||
"tab.usage": "آمار استفاده",
|
||||
"tools.add": "افزودن مهارت",
|
||||
"tools.builtins.find-skills.description": "به کاربران کمک میکند مهارتهای عامل را هنگام پرسیدن «چگونه X را انجام دهم»، «یک مهارت برای X پیدا کن»، یا هنگام نیاز به گسترش قابلیتها کشف و نصب کنند",
|
||||
"tools.builtins.find-skills.title": "یافتن مهارتها",
|
||||
"tools.builtins.groupName": "داخلیها",
|
||||
"tools.builtins.install": "نصب",
|
||||
"tools.builtins.installed": "نصبشده",
|
||||
"tools.builtins.lobe-activator.description": "کشف و فعالسازی ابزارها و مهارتها",
|
||||
"tools.builtins.lobe-activator.title": "فعالساز ابزارها و مهارتها",
|
||||
"tools.builtins.lobe-agent-browser.description": "رابط خط فرمان برای خودکارسازی مرورگر در عاملهای هوش مصنوعی. مناسب برای وظایف مربوط به تعامل با وبسایت یا Electron مانند ناوبری، پر کردن فرم، کلیک، ثبت اسکرینشات، استخراج داده، جریانهای ورود، و تست کامل برنامه.",
|
||||
"tools.builtins.lobe-agent-browser.title": "مرورگر عامل",
|
||||
"tools.builtins.lobe-agent-builder.description": "پیکربندی فراداده عامل، تنظیمات مدل، افزونهها و پرامپت سیستمی",
|
||||
"tools.builtins.lobe-agent-builder.title": "سازنده عامل",
|
||||
"tools.builtins.lobe-agent-documents.description": "مدیریت اسناد وابسته به عامل (فهرست، ایجاد، خواندن، ویرایش، حذف، تغییر نام) و قوانین بارگذاری",
|
||||
"tools.builtins.lobe-agent-documents.title": "اسناد",
|
||||
"tools.builtins.lobe-agent-management.description": "ایجاد، مدیریت و هماهنگسازی عاملهای هوش مصنوعی",
|
||||
"tools.builtins.lobe-agent-management.title": "مدیریت عامل",
|
||||
"tools.builtins.lobe-artifacts.description": "تولید و پیشنمایش زنده اجزای تعاملی رابط کاربری، نمودارها، گرافیکهای SVG و برنامههای وب. ایجاد محتوای بصری غنی که کاربران بتوانند مستقیماً با آن تعامل داشته باشند.",
|
||||
"tools.builtins.lobe-artifacts.readme": "اجزای رابط کاربری تعاملی، نمودارها، گرافیکهای SVG و برنامههای وب را تولید کرده و بهصورت زنده پیشنمایش دهید. محتوای بصری غنی ایجاد کنید که کاربران بتوانند مستقیماً با آن تعامل داشته باشند.",
|
||||
"tools.builtins.lobe-artifacts.title": "آرتیفکتها",
|
||||
"tools.builtins.lobe-brief.description": "گزارش پیشرفت، ارائه نتایج و درخواست تصمیم از کاربر",
|
||||
"tools.builtins.lobe-brief.title": "ابزارهای مختصر",
|
||||
"tools.builtins.lobe-calculator.description": "انجام محاسبات ریاضی، حل معادلات و کار با عبارات نمادین",
|
||||
"tools.builtins.lobe-calculator.readme": "ماشینحساب پیشرفته ریاضی که از عملیات حسابی پایه، معادلات جبری، عملیات حساب دیفرانسیل و انتگرال و ریاضیات نمادین پشتیبانی میکند. شامل تبدیل مبنا، حل معادلات، مشتقگیری، انتگرالگیری و موارد دیگر.",
|
||||
"tools.builtins.lobe-calculator.title": "ماشینحساب",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "اجرای کدهای Python، JavaScript و TypeScript در محیط ابری ایزوله. اجرای دستورات شِل، مدیریت فایلها، جستجوی محتوا با regex و خروجیگیری امن از نتایج.",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "کدهای Python، JavaScript و TypeScript را در محیطی ایزوله در فضای ابری اجرا کنید. دستورات شِل را اجرا کرده، فایلها را مدیریت کنید، با استفاده از regex محتوا را جستجو کرده و نتایج را بهصورت ایمن صادر نمایید.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "محیط آزمایشی ابری",
|
||||
"tools.builtins.lobe-creds.description": "مدیریت اعتبارنامههای کاربر برای احراز هویت، تزریق متغیرهای محیطی و تأیید API — مدیریت کلیدهای API، توکنهای OAuth و اسرار برای یکپارچهسازی سرویسهای ثالث.",
|
||||
"tools.builtins.lobe-creds.title": "اعتبارنامهها",
|
||||
"tools.builtins.lobe-cron.description": "مدیریت وظایف زمانبندی شده که به صورت خودکار در زمانهای مشخص اجرا میشوند. ایجاد، بهروزرسانی، فعال/غیرفعالسازی و پایش وظایف دورهای برای عاملها.",
|
||||
"tools.builtins.lobe-cron.title": "وظایف زمانبندیشده",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "پیکربندی فراداده گروه، اعضا و محتوای مشترک برای گروههای چندعاملی",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "سازنده عامل گروهی",
|
||||
"tools.builtins.lobe-group-management.description": "هماهنگسازی و مدیریت گفتگوهای گروههای چندعاملی",
|
||||
"tools.builtins.lobe-group-management.title": "مدیریت گروه",
|
||||
"tools.builtins.lobe-gtd.description": "برنامهریزی اهداف و پیگیری پیشرفت با استفاده از روش GTD. ایجاد برنامههای راهبردی، مدیریت فهرست کارها با پیگیری وضعیت و اجرای وظایف طولانی بهصورت ناهمگام.",
|
||||
"tools.builtins.lobe-gtd.readme": "اهداف خود را با استفاده از روش GTD برنامهریزی کرده و پیشرفت را پیگیری کنید. برنامههای استراتژیک ایجاد کرده، فهرست کارها را با پیگیری وضعیت مدیریت کرده و وظایف طولانی و ناهمزمان را اجرا نمایید.",
|
||||
"tools.builtins.lobe-gtd.title": "ابزارهای GTD",
|
||||
"tools.builtins.lobe-knowledge-base.description": "جستجوی اسناد بارگذاریشده و دانش حوزهای از طریق جستجوی برداری معنایی — برای مرجع دائمی و قابل استفاده مجدد",
|
||||
"tools.builtins.lobe-knowledge-base.title": "پایگاه دانش",
|
||||
"tools.builtins.lobe-local-system.description": "دسترسی به سیستم فایل محلی در دسکتاپ. خواندن، نوشتن، جستجو و سازماندهی فایلها. اجرای دستورات شِل با پشتیبانی از وظایف پسزمینه و جستجوی محتوا با الگوهای regex.",
|
||||
"tools.builtins.lobe-local-system.readme": "به سیستم فایل محلی خود در دسکتاپ دسترسی پیدا کنید. فایلها را بخوانید، بنویسید، جستجو و سازماندهی کنید. دستورات شِل را با پشتیبانی از وظایف پسزمینه اجرا کرده و با الگوهای regex محتوا را جستجو نمایید.",
|
||||
"tools.builtins.lobe-local-system.title": "سیستم محلی",
|
||||
"tools.builtins.lobe-message.description": "ارسال، خواندن، ویرایش و مدیریت پیامها در چندین پلتفرم پیامرسان با یک رابط یکپارچه",
|
||||
"tools.builtins.lobe-message.readme": "ابزار پیامرسانی میانپلتفرمی با پشتیبانی از Discord، Telegram، Slack، Google Chat و IRC. ارائه APIهای یکپارچه برای عملیات پیام، واکنشها، پین کردن، رشتهها، مدیریت کانال و قابلیتهای اختصاصی پلتفرمها مانند نظرسنجی.",
|
||||
"tools.builtins.lobe-message.title": "پیام",
|
||||
"tools.builtins.lobe-notebook.description": "ایجاد و مدیریت اسناد ماندگار در موضوعات گفتگو. ذخیره یادداشتها، گزارشها، مقالات و محتوای markdown که در جلسات مختلف قابل دسترسی باقی میمانند.",
|
||||
"tools.builtins.lobe-notebook.readme": "اسناد ماندگار را در موضوعات گفتگو ایجاد و مدیریت کنید. یادداشتها، گزارشها، مقالات و محتوای markdown را ذخیره کرده و در جلسات مختلف به آنها دسترسی داشته باشید.",
|
||||
"tools.builtins.lobe-notebook.title": "دفترچه",
|
||||
"tools.builtins.lobe-page-agent.description": "ایجاد، خواندن، بهروزرسانی و حذف گرهها در اسناد با ساختار XML",
|
||||
"tools.builtins.lobe-page-agent.readme": "ایجاد و ویرایش اسناد ساختاریافته با کنترل دقیق در سطح گره. ایجاد اولیه از Markdown، انجام عملیات دستهای درج/ویرایش/حذف و جستجو و جایگزینی متن در سراسر اسناد.",
|
||||
"tools.builtins.lobe-page-agent.title": "سند",
|
||||
"tools.builtins.lobe-remote-device.description": "کشف و مدیریت اتصال به دستگاههای دسکتاپ راهدور",
|
||||
"tools.builtins.lobe-remote-device.readme": "مدیریت اتصال به دستگاههای دسکتاپ شما. فهرست دستگاههای آنلاین، فعالسازی دستگاه برای عملیات راهدور و بررسی وضعیت اتصال.",
|
||||
"tools.builtins.lobe-remote-device.title": "دستگاه راهدور",
|
||||
"tools.builtins.lobe-skill-store.description": "مرور و نصب مهارتهای عامل از بازارچه LobeHub. برای زمانی که نیاز به قابلیتهای بیشتر دارید یا میخواهید مهارت خاصی را نصب کنید.",
|
||||
"tools.builtins.lobe-skill-store.title": "فروشگاه مهارت",
|
||||
"tools.builtins.lobe-skills.description": "فعالسازی و استفاده از بستههای مهارتی قابل استفاده مجدد",
|
||||
"tools.builtins.lobe-skills.title": "مهارتها",
|
||||
"tools.builtins.lobe-task.description": "ایجاد، فهرست، ویرایش و حذف وظایف با وابستگیها و پیکربندی بازبینی",
|
||||
"tools.builtins.lobe-task.title": "ابزارهای وظیفه",
|
||||
"tools.builtins.lobe-topic-reference.description": "بازیابی زمینه از گفتگوهای موضوعی مرجعشده",
|
||||
"tools.builtins.lobe-topic-reference.title": "مرجع موضوع",
|
||||
"tools.builtins.lobe-user-interaction.description": "پرسیدن سؤال از کاربران از طریق تعاملات UI و مشاهده نتایج چرخه عمر آنها",
|
||||
"tools.builtins.lobe-user-interaction.title": "تعامل کاربر",
|
||||
"tools.builtins.lobe-user-memory.description": "ساخت پایگاه دانش شخصی درباره شما. به خاطر سپردن ترجیحات، پیگیری فعالیتها و تجربیات، ذخیره اطلاعات هویتی و یادآوری زمینههای مرتبط در گفتگوهای آینده.",
|
||||
"tools.builtins.lobe-user-memory.readme": "پایگاه دانشی شخصی درباره خودتان بسازید. ترجیحات را به خاطر بسپارید، فعالیتها و تجربیات را پیگیری کنید، اطلاعات هویتی را ذخیره کرده و در گفتگوهای آینده زمینه مرتبط را به یاد آورید.",
|
||||
"tools.builtins.lobe-user-memory.title": "حافظه",
|
||||
"tools.builtins.lobe-web-browsing.description": "جستجوی وب برای اطلاعات بهروز و خزش صفحات وب برای استخراج محتوا. پشتیبانی از چندین موتور جستجو، دستهبندیها و بازههای زمانی.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "جستجوی وب برای اطلاعات بهروز و خزش صفحات وب برای استخراج محتوا. پشتیبانی از چندین موتور جستجو، دستهبندیها و بازههای زمانی برای تحقیقات جامع.",
|
||||
"tools.builtins.lobe-web-browsing.title": "مرور وب",
|
||||
"tools.builtins.lobe-web-onboarding.description": "اجرای جریان راهاندازی وب با یک محیط کنترلشده عامل",
|
||||
"tools.builtins.lobe-web-onboarding.title": "راهاندازی وب",
|
||||
"tools.builtins.lobehub.description": "مدیریت پلتفرم LobeHub از طریق CLI — پایگاههای دانش، حافظه، عاملها، فایلها، جستجو، تولید محتوا و موارد دیگر.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "نصبنشده",
|
||||
"tools.builtins.task.description": "مدیریت و اجرای وظایف — ایجاد، پیگیری، بازبینی و تکمیل وظایف از طریق CLI.",
|
||||
"tools.builtins.task.title": "وظیفه",
|
||||
"tools.builtins.uninstall": "حذف نصب",
|
||||
"tools.builtins.uninstallConfirm.desc": "آیا مطمئن هستید که میخواهید {{name}} را حذف نصب کنید؟ این مهارت از عامل فعلی حذف خواهد شد.",
|
||||
"tools.builtins.uninstallConfirm.title": "حذف نصب {{name}}",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "قطع اتصال {{name}}؟",
|
||||
"tools.lobehubSkill.disconnected": "قطع اتصال",
|
||||
"tools.lobehubSkill.error": "خطا",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub پلتفرمی برای کنترل نسخه و همکاری است که به توسعهدهندگان امکان میدهد مخازن کد را میزبانی، بازبینی و مدیریت کنند.",
|
||||
"tools.lobehubSkill.providers.github.readme": "به GitHub متصل شوید تا به مخازن خود دسترسی داشته باشید، مسائل ایجاد و مدیریت کنید، Pull Requestها را بازبینی کنید و روی کد همکاری کنید — همه از طریق مکالمه طبیعی با دستیار هوش مصنوعی.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear یک ابزار مدرن پیگیری مسائل و مدیریت پروژه است که برای تیمهای با عملکرد بالا طراحی شده تا نرمافزار بهتری را سریعتر بسازند.",
|
||||
"tools.lobehubSkill.providers.linear.readme": "قدرت Linear را مستقیماً به دستیار هوش مصنوعی خود بیاورید. مسائل را ایجاد و بهروزرسانی کرده، اسپرینتها را مدیریت کنید، پیشرفت پروژه را پیگیری کرده و جریان کاری توسعه خود را از طریق مکالمه طبیعی بهینه نمایید.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "تقویم Outlook یک ابزار زمانبندی یکپارچه در Microsoft Outlook است که به کاربران امکان میدهد قرار ملاقات ایجاد کرده، جلسات را با دیگران سازماندهی کرده و زمان و رویدادهای خود را بهطور مؤثر مدیریت کنند.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "با Outlook Calendar یکپارچه شوید تا رویدادهای خود را مشاهده، ایجاد و مدیریت کنید. جلسات را برنامهریزی کرده، در دسترس بودن را بررسی کنید، یادآورها را تنظیم کرده و زمان خود را از طریق دستورات زبان طبیعی هماهنگ نمایید.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (توییتر) یک پلتفرم رسانه اجتماعی برای بهاشتراکگذاری بهروزرسانیهای لحظهای، اخبار و تعامل با مخاطبان از طریق پستها، پاسخها و پیامهای مستقیم است.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "به X (توییتر) متصل شوید تا توییت ارسال کرده، تایملاین خود را مدیریت کرده و با مخاطبان خود تعامل داشته باشید. محتوا ایجاد کرده، پستها را زمانبندی کنید، اشارهها را پایش کرده و حضور خود در شبکههای اجتماعی را از طریق هوش مصنوعی مکالمهای گسترش دهید.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel یک پلتفرم ابری برای توسعهدهندگان فرانتاند است که میزبانی و توابع بدون سرور را برای استقرار آسان برنامههای وب ارائه میدهد.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "به Vercel متصل شوید تا استقرارها را مدیریت کنید، وضعیت پروژهها را پایش کنید و زیرساخت خود را کنترل کنید. برنامهها را مستقر کنید، لاگهای ساخت را بررسی کنید، متغیرهای محیطی را مدیریت کنید و پروژههای خود را از طریق هوش مصنوعی مکالمهای مقیاس دهید.",
|
||||
"tools.notInstalled": "نصب نشده",
|
||||
"tools.notInstalledWarning": "این مهارت در حال حاضر نصب نشده است و ممکن است عملکرد عامل را تحت تأثیر قرار دهد.",
|
||||
"tools.plugins.enabled": "فعالشده: {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "فریم آغازین",
|
||||
"config.prompt.placeholder": "ویدیویی که میخواهید تولید شود را توصیف کنید",
|
||||
"config.prompt.placeholderWithRef": "صحنهای که میخواهید با تصویر ایجاد کنید را توصیف کنید",
|
||||
"config.promptExtend.label": "گسترش پرامپت",
|
||||
"config.referenceImage.label": "تصویر مرجع",
|
||||
"config.resolution.label": "وضوح تصویر",
|
||||
"config.seed.label": "بذر (Seed)",
|
||||
"config.seed.random": "تصادفی",
|
||||
"config.size.label": "اندازه",
|
||||
"config.watermark.label": "واترمارک",
|
||||
"config.webSearch.label": "جستجوی وب",
|
||||
"generation.actions.copyError": "کپی پیام خطا",
|
||||
"generation.actions.errorCopied": "پیام خطا در کلیپبورد کپی شد",
|
||||
"generation.actions.errorCopyFailed": "کپی پیام خطا ناموفق بود",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "Bot connecté avec succès",
|
||||
"channel.connecting": "Connexion en cours...",
|
||||
"channel.connectionConfig": "Configuration de la connexion",
|
||||
"channel.connectionMode": "Mode de connexion",
|
||||
"channel.connectionModeHint": "Le mode WebSocket est recommandé pour les nouveaux bots. Utilisez Webhook si votre bot possède déjà une URL de rappel configurée sur la plateforme QQ Open Platform.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "Copié dans le presse-papiers",
|
||||
"channel.copy": "Copier",
|
||||
"channel.credentials": "Identifiants",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "Veuillez copier cette URL et la coller dans le champ <bold>{{fieldName}}</bold> du portail développeur {{name}}.",
|
||||
"channel.exportConfig": "Exporter la configuration",
|
||||
"channel.feishu.description": "Connectez cet assistant à Feishu pour les discussions privées et de groupe.",
|
||||
"channel.feishu.webhookMigrationDesc": "Le mode WebSocket offre une livraison d’événements en temps réel sans nécessiter d’URL de rappel publique. Pour migrer, changez le mode de connexion vers WebSocket dans les paramètres avancés. Aucune configuration supplémentaire n’est requise sur la plateforme Feishu/Lark Open Platform.",
|
||||
"channel.feishu.webhookMigrationTitle": "Envisagez de migrer vers le mode WebSocket",
|
||||
"channel.historyLimit": "Limite des messages historiques",
|
||||
"channel.historyLimitHint": "Nombre par défaut de messages à récupérer lors de la lecture de l'historique du canal",
|
||||
"channel.importConfig": "Importer la configuration",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "Requis pour la vérification des interactions",
|
||||
"channel.qq.appIdHint": "Votre ID d'application Bot QQ de la plateforme QQ Open",
|
||||
"channel.qq.description": "Connectez cet assistant à QQ pour des discussions de groupe et des messages directs.",
|
||||
"channel.qq.webhookMigrationDesc": "Le mode WebSocket offre une livraison d’événements en temps réel et une reconnexion automatique sans nécessiter d’URL de rappel. Pour migrer, créez un nouveau bot sur la plateforme QQ Open Platform sans configurer d’URL de rappel, puis changez le mode de connexion vers WebSocket dans les paramètres avancés.",
|
||||
"channel.qq.webhookMigrationTitle": "Envisagez de migrer vers le mode WebSocket",
|
||||
"channel.removeChannel": "Supprimer le canal",
|
||||
"channel.removeFailed": "Échec de la suppression du canal",
|
||||
"channel.removed": "Canal supprimé",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "Secret de signature",
|
||||
"channel.signingSecretHint": "Utilisé pour vérifier les requêtes webhook.",
|
||||
"channel.slack.appIdHint": "Votre ID d'application Slack depuis le tableau de bord API Slack (commence par A).",
|
||||
"channel.slack.appToken": "Jeton au niveau de l’application",
|
||||
"channel.slack.appTokenHint": "Requis pour le Socket Mode (WebSocket). Générez un jeton au niveau de l’application (xapp-...) dans les informations de base des paramètres de votre application Slack.",
|
||||
"channel.slack.description": "Connectez cet assistant à Slack pour des conversations de canal et des messages directs.",
|
||||
"channel.slack.webhookMigrationDesc": "Le Socket Mode offre une livraison d’événements en temps réel via WebSocket sans exposer de point de terminaison HTTP public. Pour migrer, activez le Socket Mode dans les paramètres de votre application Slack, générez un jeton au niveau de l’application, puis changez le mode de connexion vers WebSocket dans les paramètres avancés.",
|
||||
"channel.slack.webhookMigrationTitle": "Envisagez de migrer vers le Socket Mode (WebSocket)",
|
||||
"channel.telegram.description": "Connectez cet assistant à Telegram pour les discussions privées et de groupe.",
|
||||
"channel.testConnection": "Tester la connexion",
|
||||
"channel.testFailed": "Échec du test de connexion",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "Groupe supprimé avec succès",
|
||||
"confirmRemoveSessionItemAlert": "Vous êtes sur le point de supprimer cet agent. Une fois supprimé, il ne pourra pas être récupéré. Veuillez confirmer votre action.",
|
||||
"confirmRemoveSessionSuccess": "Agent supprimé avec succès",
|
||||
"createModal.createBlank": "Créer un modèle vierge",
|
||||
"createModal.groupPlaceholder": "Décrivez ce que ce groupe doit faire...",
|
||||
"createModal.groupTitle": "Que doit faire votre groupe ?",
|
||||
"createModal.placeholder": "Décrivez ce que votre agent doit faire...",
|
||||
"createModal.title": "Que doit faire votre agent ?",
|
||||
"defaultAgent": "Agent par défaut",
|
||||
"defaultGroupChat": "Groupe",
|
||||
"defaultList": "Liste par défaut",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "Contexte trop long, compression de l'historique...",
|
||||
"operation.execAgentRuntime": "Préparation de la réponse",
|
||||
"operation.execClientTask": "Exécution de la tâche",
|
||||
"operation.execServerAgentRuntime": "Exécution en cours… Vous pouvez changer de tâche ou fermer la page — la tâche continuera.",
|
||||
"operation.sendMessage": "Envoi du message",
|
||||
"owner": "Propriétaire du groupe",
|
||||
"pageCopilot.title": "Agent de page",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "Récupération des détails...",
|
||||
"task.status.initializing": "Initialisation de la tâche...",
|
||||
"task.subtask": "Sous-tâche",
|
||||
"task.title": "Tâches",
|
||||
"thread.divider": "Sous-sujet",
|
||||
"thread.threadMessageCount": "{{messageCount}} messages",
|
||||
"thread.title": "Sous-sujet",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "Autoriser les compétences pour cet agent",
|
||||
"topic.checkOpenNewTopic": "Commencer un nouveau sujet ?",
|
||||
"topic.checkSaveCurrentMessages": "Souhaitez-vous enregistrer la conversation actuelle comme sujet ?",
|
||||
"topic.defaultTitle": "Sujet sans titre",
|
||||
"topic.openNewTopic": "Ouvrir un nouveau sujet",
|
||||
"topic.recent": "Sujets récents",
|
||||
"topic.saveCurrentMessages": "Enregistrer la session actuelle comme sujet",
|
||||
"topic.viewAll": "Voir tous les sujets",
|
||||
"translate.action": "Traduire",
|
||||
"translate.clear": "Effacer la traduction",
|
||||
"tts.action": "Synthèse vocale",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "Assistance par e-mail",
|
||||
"more": "Plus",
|
||||
"navPanel.agent": "Agent",
|
||||
"navPanel.customizeSidebar": "Personnaliser la barre latérale",
|
||||
"navPanel.displayItems": "Éléments affichés",
|
||||
"navPanel.hidden": "Masqué",
|
||||
"navPanel.hideSection": "Masquer la section",
|
||||
"navPanel.library": "Bibliothèque",
|
||||
"navPanel.moveDown": "Déplacer vers le bas",
|
||||
"navPanel.moveUp": "Déplacer vers le haut",
|
||||
"navPanel.pinned": "Épinglé",
|
||||
"navPanel.searchAgent": "Rechercher un agent...",
|
||||
"navPanel.searchRecent": "Rechercher dans les récents...",
|
||||
"navPanel.searchResultEmpty": "Aucun résultat trouvé",
|
||||
"navPanel.show": "Afficher",
|
||||
"navPanel.visible": "Visible",
|
||||
"new": "Nouveau",
|
||||
"noContent": "Aucun contenu",
|
||||
"oauth": "Connexion SSO",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "Soutenez-nous",
|
||||
"productHunt.description": "Soutenez-nous sur Product Hunt. Votre soutien compte beaucoup pour nous !",
|
||||
"productHunt.title": "Nous sommes sur Product Hunt !",
|
||||
"promptTransform.action": "Affiner l’idée",
|
||||
"promptTransform.actions.rewrite": "Développer les détails",
|
||||
"promptTransform.actions.translate": "Traduire",
|
||||
"promptTransform.status.rewrite": "Développement des détails...",
|
||||
"promptTransform.status.translate": "Traduction...",
|
||||
"recents": "Récents",
|
||||
"regenerate": "Régénérer",
|
||||
"releaseNotes": "Détails de la version",
|
||||
"rename": "Renommer",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "Audio",
|
||||
"tab.chat": "Discussion",
|
||||
"tab.community": "Communauté",
|
||||
"tab.create": "Créer",
|
||||
"tab.discover": "Découvrir",
|
||||
"tab.eval": "Laboratoire d'évaluation",
|
||||
"tab.files": "Fichiers",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "Modèle",
|
||||
"config.prompt.placeholder": "Décrivez ce que vous souhaitez générer",
|
||||
"config.prompt.placeholderWithRef": "Décrivez comment vous souhaitez ajuster l'image",
|
||||
"config.promptExtend.label": "Extension de l’invite",
|
||||
"config.quality.label": "Qualité de l'image",
|
||||
"config.quality.options.hd": "Haute définition",
|
||||
"config.quality.options.standard": "Standard",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "Taille",
|
||||
"config.steps.label": "Étapes",
|
||||
"config.title": "Configuration",
|
||||
"config.watermark.label": "Filigrane",
|
||||
"config.webSearch.label": "Recherche web",
|
||||
"config.width.label": "Largeur",
|
||||
"generation.actions.applySeed": "Appliquer la graine",
|
||||
"generation.actions.copyError": "Copier le message d'erreur",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "Regroupez les messages de l'agent et les résultats de leurs appels d'outils pour les afficher ensemble",
|
||||
"features.assistantMessageGroup.title": "Regroupement des messages de l'agent",
|
||||
"features.gatewayMode.desc": "Exécute les tâches de l’agent sur le serveur via un WebSocket Gateway au lieu de les exécuter localement. Permet une exécution plus rapide et réduit l’utilisation des ressources du client.",
|
||||
"features.gatewayMode.title": "Exécution de l’agent côté serveur (Gateway)",
|
||||
"features.groupChat.desc": "Activez la coordination de discussions de groupe multi-agents.",
|
||||
"features.groupChat.title": "Discussion de groupe (multi-agents)",
|
||||
"features.inputMarkdown.desc": "Affichez le Markdown dans la zone de saisie en temps réel (texte en gras, blocs de code, tableaux, etc.).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "Un modèle de pointe en Chine, surpassant les principaux modèles étrangers sur les tâches en chinois telles que les connaissances, les textes longs et la génération créative. Il offre également des capacités multimodales de premier plan avec d’excellents résultats sur des benchmarks reconnus.",
|
||||
"Baichuan4.description": "Performances nationales de premier plan, surpassant les modèles étrangers de référence sur les tâches en chinois telles que les connaissances encyclopédiques, les textes longs et la génération créative. Il propose également des capacités multimodales de pointe et d’excellents résultats aux benchmarks.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS est une famille de modèles LLM open source de ByteDance Seed, conçue pour une gestion efficace des contextes longs, le raisonnement, les agents et les capacités générales. Seed-OSS-36B-Instruct est un modèle de 36 milliards de paramètres affiné pour les instructions, avec un contexte ultra-long natif pour traiter de grands documents ou bases de code. Il est optimisé pour le raisonnement, la génération de code et les tâches d’agent (utilisation d’outils), tout en conservant de solides capacités générales. Une fonctionnalité clé est le \"budget de réflexion\", permettant une longueur de raisonnement flexible pour améliorer l’efficacité.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR est un modèle vision‑langage de DeepSeek AI conçu pour l’OCR et la « compression optique du contexte ». Il explore la compression du contexte issu d’images, traite efficacement les documents et les convertit en texte structuré (par exemple, en Markdown). Il reconnaît avec précision le texte dans les images, idéal pour la numérisation de documents, l’extraction de texte et le traitement structuré.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, le modèle le plus grand et le plus intelligent de la suite DeepSeek, est distillé dans l’architecture Llama 70B. Les benchmarks et les évaluations humaines montrent qu’il est plus performant que le Llama 70B de base, notamment sur les tâches de mathématiques et de précision factuelle.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Un modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-1.5B. L’apprentissage par renforcement et les données de démarrage à froid optimisent les performances de raisonnement, établissant de nouveaux benchmarks multitâches pour les modèles open source.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "Les modèles DeepSeek-R1-Distill sont affinés à partir de modèles open source à l’aide d’échantillons générés par DeepSeek-R1.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "Fournisseur : sophnet. DeepSeek V3 Fast est la version à haut débit de DeepSeek V3 0324, en précision complète (non quantifiée), avec de meilleures performances en code et mathématiques et des réponses plus rapides.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast est la variante rapide à haut débit de DeepSeek V3.1. Mode de pensée hybride : via des modèles de conversation, un seul modèle prend en charge les modes avec ou sans raisonnement. Utilisation d’outils plus intelligente : le post-entraînement améliore les performances des tâches d’agent et d’outil.",
|
||||
"DeepSeek-V3.1-Think.description": "Mode de réflexion DeepSeek-V3.1 : un nouveau modèle de raisonnement hybride avec modes de pensée et non-pensée, plus efficace que DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l’utilisation des outils d’agent et les performances des tâches d’agent.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 introduit un mécanisme d’attention clairsemée visant à améliorer l’efficacité de l’entraînement et de l’inférence lors du traitement de longs textes, tout en étant proposé à un coût inférieur à deepseek-v3.1.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE développé par DeepSeek. Il surpasse d’autres modèles open source comme Qwen2.5-72B et Llama-3.1-405B sur de nombreux benchmarks et rivalise avec les modèles fermés de pointe tels que GPT-4o et Claude 3.5 Sonnet.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite offre des réponses ultra-rapides et un excellent rapport qualité-prix, avec des options flexibles selon les cas d’usage. Prend en charge un contexte de 128K pour l’inférence et l’ajustement fin.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite offre des réponses ultra-rapides et un excellent rapport qualité-prix, avec des options flexibles selon les cas d’usage. Prend en charge un contexte de 32K pour l’inférence et l’ajustement fin.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5 : Modèle haute performance pour le raisonnement, le codage et les tâches d'agent.",
|
||||
"GLM-4.6.description": "GLM-4.6 : Modèle de génération précédente.",
|
||||
"GLM-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, optimisé pour les scénarios de codage agentique avec des capacités de codage améliorées, une planification des tâches à long terme et une collaboration avec des outils.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo : Version optimisée de GLM-5 avec une inférence plus rapide pour les tâches de codage.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo est un modèle fondamental profondément optimisé pour les scénarios agentiques. Il a été spécifiquement optimisé dès la phase d’entraînement pour les exigences essentielles des tâches d’agent, améliorant des capacités clés telles que l’invocation d’outils, l’exécution de commandes et les chaînes d’action longues. Il est idéal pour créer des assistants agents hautes performances.",
|
||||
"GLM-5.1.description": "GLM-5.1 est le dernier modèle phare de Zhipu, une itération améliorée de GLM-5 avec des capacités d'ingénierie agentique renforcées pour l'ingénierie de systèmes complexes et les tâches à long terme.",
|
||||
"GLM-5.description": "GLM-5 est le modèle de base phare de nouvelle génération de Zhipu, conçu pour l'ingénierie agentique. Il offre une productivité fiable dans les systèmes complexes et les tâches agentiques à long terme. En matière de codage et de capacités d'agent, GLM-5 atteint des performances de pointe parmi les modèles open source.",
|
||||
"GLM-5.description": "GLM-5 est le modèle fondamental phare de nouvelle génération de Zhipu, conçu pour l’ingénierie agentique. Il fournit une productivité fiable pour l’ingénierie de systèmes complexes et les tâches agentiques de longue durée. En programmation et en capacités d’agent, GLM-5 atteint des performances de pointe parmi les modèles open source. Dans des contextes de programmation réels, son expérience utilisateur se rapproche de celle de Claude Opus 4.5. Il excelle dans l’ingénierie de systèmes complexes et les tâches agentiques à long horizon, ce qui en fait un modèle fondamental idéal pour des assistants agents polyvalents.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) est un modèle innovant pour des domaines variés et des tâches complexes.",
|
||||
"HY-Image-V3.0.description": "Capacités puissantes d'extraction des caractéristiques de l'image originale et de préservation des détails, offrant une texture visuelle plus riche et produisant des visuels de haute précision, bien composés et de qualité professionnelle.",
|
||||
"HelloMeme.description": "HelloMeme est un outil d’IA qui génère des mèmes, GIFs ou courtes vidéos à partir des images ou mouvements que vous fournissez. Aucune compétence en dessin ou en codage n’est requise : une simple image de référence suffit pour créer un contenu amusant, attrayant et stylistiquement cohérent.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter est un modèle de génération de personnages personnalisés sans ajustement, publié par Tencent AI en 2025, visant une génération fidèle et cohérente de personnages à travers différents scénarios. Il peut modéliser un personnage à partir d’une seule image de référence et le transférer de manière flexible entre styles, actions et arrière-plans.",
|
||||
"InternVL2-8B.description": "InternVL2-8B est un puissant modèle vision-langage prenant en charge le traitement multimodal image-texte, capable de reconnaître précisément le contenu des images et de générer des descriptions ou réponses pertinentes.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B est un puissant modèle vision-langage prenant en charge le traitement multimodal image-texte, capable de reconnaître précisément le contenu des images et de générer des descriptions ou réponses pertinentes.",
|
||||
"KAT-Coder-Air-V1.description": "Une version allégée de la série KAT-Coder. Spécifiquement conçue pour le codage agentique, elle couvre de manière exhaustive les tâches et scénarios de programmation. Grâce à un apprentissage par renforcement à grande échelle basé sur les agents, elle permet l’émergence de comportements intelligents et surpasse nettement les modèles comparables en performance de codage.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B est la version expérimentale d’innovation RL de la série KAT-Coder, atteignant une performance remarquable de 74,6 % sur le benchmark SWE-Bench verified, établissant un nouveau record pour les modèles open source. Il se concentre sur le codage agentique et ne prend actuellement en charge que le canevas SWE-Agent, tout en pouvant être utilisé pour des conversations simples.",
|
||||
"KAT-Coder-Pro-V1.description": "Conçu pour le codage agentique, il couvre de manière exhaustive les tâches et scénarios de programmation, permettant l’émergence de comportements intelligents grâce à un apprentissage par renforcement à grande échelle et surpassant nettement les modèles similaires en performance de génération de code.",
|
||||
"KAT-Coder-Pro-V2.description": "Le dernier modèle haute performance de l’équipe Kuaishou Kwaipilot, conçu pour les projets d’entreprise complexes et l’intégration SaaS. Il excelle dans les scénarios liés au code et est compatible avec divers types de cadres pour agents (Claude Code, OpenCode, KiloCode), prend en charge nativement OpenClaw et est spécialement optimisé pour l’esthétique des pages front-end.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 est le modèle Kimi le plus performant, offrant un niveau SOTA open source dans les tâches agentiques, le codage et la compréhension visuelle. Il prend en charge les entrées multimodales et propose des modes avec ou sans raisonnement.",
|
||||
"Kolors.description": "Kolors est un modèle de génération d’images à partir de texte développé par l’équipe Kolors de Kuaishou. Entraîné avec des milliards de paramètres, il se distingue par sa qualité visuelle, sa compréhension sémantique du chinois et son rendu textuel.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors est un modèle de génération d’images à partir de texte à grande échelle basé sur la diffusion latente, développé par l’équipe Kolors de Kuaishou. Entraîné sur des milliards de paires texte-image, il excelle en qualité visuelle, précision sémantique complexe et rendu de texte en chinois/anglais, avec une forte capacité de compréhension et de génération de contenu en chinois.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) est un modèle open source de 32 milliards de paramètres pour les tâches d’ingénierie logicielle. Il atteint un taux de résolution de 62,4 % sur SWE-Bench Verified, se classant 5e parmi les modèles open source. Il est optimisé par entraînement intermédiaire, SFT et RL pour la complétion de code, la correction de bugs et la relecture de code.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "Modèle linguistique de pointe de petite taille avec une solide compréhension du langage, un excellent raisonnement et une génération de texte efficace.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 est le modèle Llama multilingue open source le plus avancé, offrant des performances proches de celles du modèle 405B à un coût très faible. Basé sur une architecture Transformer, il est amélioré par SFT et RLHF pour l’utilité et la sécurité. La version ajustée par instructions est optimisée pour la conversation multilingue et surpasse de nombreux modèles ouverts et fermés sur les benchmarks industriels. Date de coupure des connaissances : décembre 2023.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick est un grand modèle MoE avec activation efficace des experts pour des performances de raisonnement élevées.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro est spécialement conçu pour les flux de travail agentiques intensifs dans des scénarios réels. Il dispose de plus d’un billion de paramètres au total (dont 42B activés), adopte une architecture d’attention hybride innovante et prend en charge une longueur de contexte ultra-longue allant jusqu’à un million de tokens. Construit sur un puissant modèle fondamental, nous étendons continuellement les ressources informatiques sur un plus large éventail de scénarios agentiques, élargissant encore l’espace d’action de l’intelligence et atteignant une généralisation significative — du codage à l’exécution de tâches réelles (« claw »).",
|
||||
"MiniMax-Hailuo-02.description": "Le modèle de génération vidéo de nouvelle génération, MiniMax Hailuo 02, a été officiellement lancé, prenant en charge une résolution 1080P et la génération de vidéos de 10 secondes.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "Nouveau modèle de génération vidéo avec des améliorations complètes dans les mouvements corporels, le réalisme physique et le suivi des instructions.",
|
||||
"MiniMax-Hailuo-2.3.description": "Nouveau modèle de génération vidéo avec des améliorations complètes dans les mouvements corporels, le réalisme physique et le suivi des instructions.",
|
||||
"MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million d’entrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
|
||||
"MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail d’agents, avec une plus grande simultanéité pour un usage commercial.",
|
||||
"MiniMax-M2.1-Lightning.description": "Capacités de programmation multilingues puissantes avec une inférence plus rapide et plus efficace.",
|
||||
"MiniMax-M2.1-highspeed.description": "Des capacités de programmation multilingues puissantes, offrant une expérience de programmation entièrement améliorée. Plus rapide et plus efficace.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle phare open source de MiniMax, conçu pour résoudre des tâches complexes du monde réel. Ses principaux atouts résident dans ses capacités de programmation multilingue et sa faculté à résoudre des problèmes complexes en tant qu'agent.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed : Même performance que M2.5 avec une inférence plus rapide.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5 est un modèle phare open-source de grande taille développé par MiniMax, axé sur la résolution de tâches complexes du monde réel. Ses principaux atouts sont ses capacités de programmation multilingue et sa capacité à résoudre des tâches complexes en tant qu'Agent.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed : Même performance que M2.7 avec une inférence significativement plus rapide.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7 : Début du voyage vers l'amélioration récursive de soi, capacités d'ingénierie de pointe dans le monde réel.",
|
||||
"MiniMax-M2.7.description": "Premier modèle auto‑évolutif doté de performances de pointe en codage et en capacités agentiques (~60 tps).",
|
||||
"MiniMax-M2.description": "MiniMax M2 : Modèle de génération précédente.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusqu’à 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 est un modèle de raisonnement hybride à grande échelle avec des poids ouverts, comprenant 456 milliards de paramètres totaux et environ 45,9 milliards actifs par token. Il prend en charge nativement un contexte de 1 million et utilise Flash Attention pour réduire les FLOPs de 75 % sur une génération de 100 000 tokens par rapport à DeepSeek R1. Avec une architecture MoE, CISPO et un entraînement RL hybride-attention, il atteint des performances de pointe sur le raisonnement à long terme et les tâches d'ingénierie logicielle réelle.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 est le tout dernier et le plus puissant modèle Kimi K2. Il s'agit d'un modèle MoE de premier plan avec 1T de paramètres totaux et 32B de paramètres actifs. Ses principales caractéristiques incluent une intelligence de codage agentique renforcée avec des gains significatifs sur les benchmarks et les tâches d'agents réels, ainsi qu'une esthétique et une convivialité améliorées pour le codage en interface utilisateur.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo est la variante Turbo optimisée pour la vitesse de raisonnement et le débit, tout en conservant le raisonnement multi-étapes et l'utilisation d'outils de K2 Thinking. Il s'agit d'un modèle MoE avec environ 1T de paramètres totaux, un contexte natif de 256K, et un appel d'outils à grande échelle stable pour des scénarios de production nécessitant une faible latence et une forte concurrence.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 est un agent multimodal natif open source, basé sur Kimi-K2-Base, entraîné sur environ 1,5 billion de jetons mêlant vision et texte. Le modèle adopte une architecture MoE avec 1T de paramètres totaux et 32B de paramètres actifs, prenant en charge une fenêtre de contexte de 256K, intégrant harmonieusement les capacités de compréhension visuelle et linguistique.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 est un modèle phare de nouvelle génération conçu pour l’ingénierie agentique, utilisant une architecture Mixture of Experts (MoE) avec 754B paramètres. Il améliore considérablement les capacités de programmation, atteignant des résultats de premier plan sur SWE-Bench Pro, et surpasse largement son prédécesseur sur des benchmarks comme NL2Repo et Terminal-Bench 2.0. Conçu pour les tâches agentiques longues, il gère mieux les questions ambiguës, décompose les tâches complexes, exécute des expériences, analyse les résultats et optimise continuellement au fil de centaines d’itérations et de milliers d’appels d’outils.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 est le modèle phare de nouvelle génération de Zhipu avec 355 milliards de paramètres totaux et 32 milliards actifs, entièrement amélioré en dialogue général, raisonnement et capacités d'agent. GLM-4.7 améliore la pensée entrelacée et introduit la pensée préservée et la pensée au niveau des tours.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 est le modèle de langage de nouvelle génération de Zhipu, axé sur l'ingénierie de systèmes complexes et les tâches d'Agent de longue durée. Les paramètres du modèle ont été étendus à 744 milliards (40 milliards actifs) et intègrent DeepSeek Sparse Attention.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 est optimisé pour le raisonnement avancé et le suivi des instructions, utilisant MoE pour maintenir une efficacité de raisonnement à grande échelle.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B est un modèle MoE qui introduit un mode de raisonnement hybride, permettant aux utilisateurs de basculer facilement entre réflexion et non-réflexion. Il prend en charge la compréhension et le raisonnement dans 119 langues et dialectes, et dispose de solides capacités d'appel d'outils, rivalisant avec des modèles de référence comme DeepSeek R1, OpenAI o1, o3-mini, Grok 3 et Google Gemini 2.5 Pro sur les benchmarks de capacités générales, code et mathématiques, multilinguisme et raisonnement par connaissances.",
|
||||
"Qwen3-32B.description": "Qwen3-32B est un modèle dense qui introduit un mode de raisonnement hybride, permettant aux utilisateurs de basculer entre réflexion et non-réflexion. Grâce à des améliorations architecturales, davantage de données et un meilleur entraînement, il offre des performances comparables à Qwen2.5-72B.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus prend en charge les entrées texte, image et vidéo. Ses performances sur les tâches purement textuelles sont comparables à celles de Qwen3 Max, avec de meilleurs résultats et un coût réduit. Ses capacités multimodales sont nettement améliorées par rapport à la série Qwen3 VL.",
|
||||
"S2V-01.description": "Le modèle de base référence-vers-vidéo de la série 01.",
|
||||
"SenseChat-128K.description": "Base V4 avec un contexte de 128K, excellent pour la compréhension et la génération de textes longs.",
|
||||
"SenseChat-32K.description": "Base V4 avec un contexte de 32K, flexible pour de nombreux scénarios.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, avec une vitesse fulgurante et une réflexion étendue.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, offrant une vitesse fulgurante et un raisonnement étendu.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, avec une vitesse fulgurante et un raisonnement étendu.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le dernier modèle d'Anthropic, le plus performant pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches hautement complexes, excellant en performance, intelligence, fluidité et compréhension.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, excellant en performance, intelligence, fluidité et compréhension.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d'Anthropic pour la création d'agents et le codage.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d’Anthropic pour la création d’agents et le codage.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant une intelligence de premier ordre avec des performances évolutives pour des tâches complexes et un raisonnement de haute qualité.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 est le modèle le plus intelligent d’Anthropic pour la création d’agents et le codage.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 est le modèle le plus intelligent d’Anthropic pour la création d’agents et le codage.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d'Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un contrôle précis pour les utilisateurs d'API.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et d'intelligence d'Anthropic.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec processus visible.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent d’Anthropic.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 offre la meilleure combinaison entre vitesse et intelligence.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et d’intelligence d’Anthropic.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape que les utilisateurs peuvent suivre. Les utilisateurs de l’API peuvent contrôler finement la durée de réflexion du modèle.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle de raisonnement de nouvelle génération avec des capacités renforcées de raisonnement complexe et de chaîne de pensée.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 équilibre le raisonnement et la longueur des sorties pour les tâches quotidiennes de questions-réponses et d'agents. Les benchmarks publics atteignent des niveaux comparables à GPT-5, et il est le premier à intégrer la réflexion dans l'utilisation des outils, menant les évaluations d'agents open source.",
|
||||
"deepseek-chat.description": "Un nouveau modèle open source combinant compétences générales et capacités en codage. Il conserve les qualités de dialogue d’un modèle de chat ainsi que la solidité du modèle de codage, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également l’écriture et le suivi des instructions.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
|
||||
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
|
||||
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant les sorties pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "Le mode réflexion de DeepSeek V3.2 génère une chaîne de raisonnement avant la réponse finale afin d’améliorer la précision.",
|
||||
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 est un modèle de réflexion en aperçu pour évaluation et test.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension logique spatiale, une expression esthétique, une mise en page d'affiche et une conception de logo avec un rendu texte-image de haute précision.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images hautement contrôlable et de haute qualité à partir d'invites.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d’images de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’images de haute qualité et fortement contrôlable. Il génère des images à partir d’instructions textuelles.",
|
||||
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
|
||||
"fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
|
||||
"fal-ai/qwen-image-edit.description": "Un modèle d'édition d'image professionnel de l'équipe Qwen, prenant en charge les modifications sémantiques et d'apparence, l'édition précise de texte en chinois/anglais, le transfert de style, la rotation et plus encore.",
|
||||
"fal-ai/qwen-image.description": "Un modèle de génération d'image puissant de l'équipe Qwen avec un rendu texte chinois solide et des styles visuels variés.",
|
||||
"fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen qui prend en charge les modifications sémantiques et visuelles, édite précisément le texte chinois et anglais et permet des retouches de haute qualité telles que le transfert de style et la rotation d’objets.",
|
||||
"fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen, avec un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
|
||||
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
|
||||
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
|
||||
"flux-dev.description": "Modèle open source de génération d’images destiné à la R&D, optimisé efficacement pour la recherche d’innovation non commerciale.",
|
||||
"flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
|
||||
"flux-kontext-pro.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
|
||||
"flux-merged.description": "FLUX.1 [fusionné] combine les fonctionnalités approfondies explorées dans \"DEV\" avec les avantages de haute vitesse de \"Schnell\", repoussant les limites de performance et élargissant les applications.",
|
||||
"flux-pro-1.1-ultra.description": "Génération d’images ultra haute résolution avec une sortie de 4MP, produisant des images nettes en 10 secondes.",
|
||||
"flux-pro-1.1.description": "Modèle de génération d’images de niveau professionnel amélioré avec une excellente qualité d’image et un respect précis des invites.",
|
||||
"flux-pro.description": "Modèle de génération d’images commercial haut de gamme avec une qualité d’image inégalée et des sorties variées.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] est le modèle open source le plus avancé en génération rapide, surpassant les concurrents similaires et même des modèles non distillés puissants comme Midjourney v6.0 et DALL-E 3 (HD). Il est finement ajusté pour préserver la diversité de l’entraînement initial, améliorant considérablement la qualité visuelle, le suivi des instructions, la variation de taille/aspect, la gestion des polices et la diversité des sorties.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell est un modèle de génération d’images haute performance pour des sorties rapides et multi-styles.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre des performances stables et ajustables pour les tâches complexes.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) offre un support multimodal puissant pour les tâches complexes.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google qui prend également en charge le dialogue multimodal.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'image de Google et prend également en charge le chat multimodal.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google et prend également en charge la conversation multimodale.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d'images natif le plus rapide de Google avec prise en charge de la réflexion, génération et édition d'images conversationnelles.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image de niveau Pro à une vitesse Flash avec prise en charge du chat multimodal.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d’images natif le plus rapide de Google, avec prise en charge du raisonnement, de la génération d’images conversationnelle et de l’édition.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview est le modèle multimodal le plus économique de Google, optimisé pour les tâches agentiques à haut volume, la traduction et le traitement des données.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview améliore Gemini 3 Pro avec des capacités de raisonnement renforcées et ajoute un support de niveau de réflexion moyen.",
|
||||
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "Notre modèle le plus puissant et avancé, conçu pour les tâches complexes en entreprise avec des performances exceptionnelles.",
|
||||
"jamba-mini.description": "Le modèle le plus efficace de sa catégorie, alliant rapidité et qualité avec une empreinte réduite.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch combine la recherche web, la lecture et le raisonnement pour des investigations approfondies. Il agit comme un agent qui prend votre tâche de recherche, effectue des recherches étendues en plusieurs itérations, puis produit une réponse. Le processus implique une recherche continue, un raisonnement et une résolution de problèmes sous plusieurs angles, fondamentalement différent des LLM classiques qui répondent à partir de données préentraînées ou des systèmes RAG traditionnels basés sur une recherche superficielle en une seule étape.",
|
||||
"k2p5.description": "Kimi K2.5 est le modèle le plus polyvalent de Kimi à ce jour, doté d'une architecture multimodale native qui prend en charge à la fois les entrées visuelles et textuelles, les modes 'réflexion' et 'non-réflexion', ainsi que les tâches conversationnelles et d'agent.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 est un modèle de base MoE avec de solides capacités en codage et en agents (1T de paramètres totaux, 32B actifs), surpassant les autres modèles open source courants en raisonnement, programmation, mathématiques et benchmarks d’agents.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre une fenêtre de contexte de 256k, un codage agentique renforcé, une meilleure qualité de code front-end et une compréhension contextuelle améliorée.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct est le modèle officiel de raisonnement de Kimi, avec un long contexte pour le code, les questions-réponses et plus encore.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ est un modèle de raisonnement de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, il apporte des capacités de réflexion et de raisonnement qui améliorent considérablement les performances en aval, notamment sur les problèmes complexes. QwQ-32B est un modèle de raisonnement de taille moyenne qui rivalise avec les meilleurs modèles comme DeepSeek-R1 et o1-mini.",
|
||||
"qwq_32b.description": "Modèle de raisonnement de taille moyenne de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, les capacités de réflexion et de raisonnement de QwQ améliorent considérablement les performances en aval, notamment sur les problèmes complexes.",
|
||||
"r1-1776.description": "R1-1776 est une variante post-entraînée de DeepSeek R1 conçue pour fournir des informations factuelles non censurées et impartiales.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance prend en charge le texte-vers-vidéo, l'image-vers-vidéo (première image, première+dernière image) et la génération audio synchronisée avec les visuels.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite par BytePlus propose une génération augmentée par récupération web pour des informations en temps réel, une interprétation améliorée des invites complexes et une meilleure cohérence des références pour la création visuelle professionnelle.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja) étend Solar Mini avec un accent sur le japonais tout en maintenant des performances efficaces et solides en anglais et en coréen.",
|
||||
"solar-mini.description": "Solar Mini est un modèle LLM compact surpassant GPT-3.5, avec de solides capacités multilingues en anglais et en coréen, offrant une solution efficace à faible empreinte.",
|
||||
"solar-pro.description": "Solar Pro est un LLM intelligent développé par Upstage, axé sur le suivi d'instructions sur un seul GPU, avec des scores IFEval supérieurs à 80. Il prend actuellement en charge l'anglais ; la version complète est prévue pour novembre 2024 avec un support linguistique élargi et un contexte plus long.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 est notre nouveau modèle puissant de génération multimédia, générant des vidéos avec audio synchronisé. Il peut créer des clips dynamiques et richement détaillés à partir de langage naturel ou d'images.",
|
||||
"spark-x.description": "Aperçu des capacités X2 : 1. Introduit un ajustement dynamique du mode de raisonnement, contrôlé via le champ `thinking`. 2. Longueur de contexte étendue : 64K jetons d'entrée et 128K jetons de sortie. 3. Prend en charge la fonctionnalité Function Call.",
|
||||
"stable-diffusion-3-medium.description": "Le dernier modèle texte-vers-image de Stability AI. Cette version améliore considérablement la qualité des images, la compréhension du texte et la diversité des styles, interprétant plus précisément les requêtes en langage naturel complexes.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applique la distillation par diffusion adversariale (ADD) à stable-diffusion-3.5-large pour une vitesse accrue.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large est un modèle texte-vers-image MMDiT de 800M paramètres avec une excellente qualité et un bon alignement des requêtes, prenant en charge des images de 1 mégapixel et fonctionnant efficacement sur du matériel grand public.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 est initialisé à partir du point de contrôle v1.2 et affiné pendant 595k étapes sur \"laion-aesthetics v2 5+\" à une résolution de 512x512, réduisant le conditionnement textuel de 10 % pour améliorer l'échantillonnage sans classificateur.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo se concentre sur la génération d’images haute qualité avec un rendu précis des détails et une grande fidélité des scènes.",
|
||||
"stable-diffusion-xl-base-1.0.description": "Un modèle texte-vers-image open source de Stability AI avec une génération d'images créative de pointe. Il comprend bien les instructions et prend en charge les définitions de requêtes inversées pour une génération précise.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl apporte des améliorations majeures par rapport à la v1.5 et rivalise avec les meilleurs modèles texte-vers-image open source. Les améliorations incluent un UNet 3x plus grand, un module de raffinement pour une meilleure qualité d'image et des techniques d'entraînement plus efficaces.",
|
||||
"step-1-128k.description": "Équilibre entre performance et coût pour des scénarios généraux.",
|
||||
"step-1-256k.description": "Gestion de contexte extra-long, idéale pour l’analyse de documents longs.",
|
||||
"step-1-32k.description": "Prend en charge des conversations de longueur moyenne pour divers scénarios.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "{{count}} paramètres au total",
|
||||
"arguments.title": "Arguments",
|
||||
"builtins.lobe-activator.apiName.activateTools": "Activer les Outils",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} introuvable(s)",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtenir les modèles disponibles",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtenir les Compétences disponibles",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "Obtenir la configuration",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
|
||||
"kimicodingplan.description": "Kimi Code de Moonshot AI offre un accès aux modèles Kimi, y compris K2.5, pour des tâches de codage.",
|
||||
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
|
||||
"lobehub.description": "LobeHub Cloud utilise des API officielles pour accéder aux modèles d'IA et mesure l'utilisation avec des Crédits liés aux jetons des modèles.",
|
||||
"longcat.description": "LongCat est une série de grands modèles d'IA générative développés indépendamment par Meituan. Elle est conçue pour améliorer la productivité interne de l'entreprise et permettre des applications innovantes grâce à une architecture informatique efficace et de puissantes capacités multimodales.",
|
||||
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
|
||||
"minimaxcodingplan.description": "Le plan de jetons MiniMax offre un accès aux modèles MiniMax, y compris M2.7, pour des tâches de codage via un abonnement à tarif fixe.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Spark propose une IA multilingue puissante dans divers domaines, favorisant l’innovation dans le matériel intelligent, la santé, la finance et d’autres secteurs.",
|
||||
"stepfun.description": "Les modèles Stepfun offrent des capacités de raisonnement complexe et multimodal de pointe, avec une compréhension approfondie du contexte long et une orchestration autonome puissante de la recherche.",
|
||||
"straico.description": "Straico simplifie l'intégration de l'IA en offrant un espace de travail unifié qui regroupe les meilleurs modèles génératifs d'IA pour le texte, l'image et l'audio, permettant aux marketeurs, entrepreneurs et passionnés d'accéder facilement à une variété d'outils d'IA.",
|
||||
"streamlake.description": "StreamLake est une plateforme de services de modèles et de cloud de calcul IA de niveau entreprise, intégrant une inférence de modèles haute performance, une personnalisation de modèles à faible coût et des services entièrement gérés pour aider les entreprises à se concentrer sur l’innovation des applications d’IA sans se soucier de la complexité ni du coût des ressources de calcul sous-jacentes.",
|
||||
"taichu.description": "Un modèle multimodal de nouvelle génération développé par le CASIA et l’Institut d’IA de Wuhan, prenant en charge les questions-réponses multi-tours, la rédaction, la génération d’images, la compréhension 3D et l’analyse de signaux avec une cognition et une créativité renforcées.",
|
||||
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fournit des réponses aux questions d’entreprise de bout en bout, avec des services modulaires comme l’analyse de documents, le découpage, les embeddings et la réécriture multi-tours pour créer des solutions IA personnalisées.",
|
||||
"togetherai.description": "Together AI offre des performances de pointe avec des modèles innovants, une personnalisation étendue, une montée en charge rapide et un déploiement simplifié pour les besoins des entreprises.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "Outils système",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - outil de recherche de code rapide",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-navigateur - CLI d'automatisation de navigateur sans interface pour les agents IA",
|
||||
"settingSystemTools.tools.bun.desc": "Bun - environnement d’exécution JavaScript rapide et gestionnaire de packages",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx - exécuteur de packages Bun pour lancer des packages npm",
|
||||
"settingSystemTools.tools.fd.desc": "fd - alternative rapide et conviviale à find",
|
||||
"settingSystemTools.tools.find.desc": "find d'Unix - commande standard de recherche de fichiers",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - outil standard de recherche de texte",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - gérer et connecter les services LobeHub",
|
||||
"settingSystemTools.tools.mdfind.desc": "Recherche Spotlight de macOS (recherche indexée rapide)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - environnement d'exécution JavaScript pour JS/TS",
|
||||
"settingSystemTools.tools.npm.desc": "npm - gestionnaire de paquets Node.js pour installer les dépendances",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm - gestionnaire de packages rapide et économique en espace disque",
|
||||
"settingSystemTools.tools.python.desc": "Python - environnement d'exécution du langage de programmation",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - outil de recherche de texte extrêmement rapide",
|
||||
"settingSystemTools.tools.uv.desc": "uv - gestionnaire de packages Python extrêmement rapide",
|
||||
"settingTTS.openai.sttModel": "Modèle de reconnaissance vocale OpenAI",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "Modèle de synthèse vocale OpenAI",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "Modèle",
|
||||
"systemAgent.inputCompletion.modelDesc": "Modèle utilisé pour les suggestions d'auto-complétion de saisie (comme le texte fantôme de GitHub Copilot)",
|
||||
"systemAgent.inputCompletion.title": "Agent d'Auto-Complétion de Saisie",
|
||||
"systemAgent.promptRewrite.label": "Modèle",
|
||||
"systemAgent.promptRewrite.modelDesc": "Spécifiez le modèle utilisé pour réécrire les invites",
|
||||
"systemAgent.promptRewrite.title": "Agent de Réécriture d’Invites",
|
||||
"systemAgent.queryRewrite.label": "Modèle",
|
||||
"systemAgent.queryRewrite.modelDesc": "Modèle utilisé pour optimiser les requêtes des utilisateurs",
|
||||
"systemAgent.queryRewrite.title": "Agent de réécriture de requêtes",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "Téléchargez un fichier local .zip ou .skill",
|
||||
"tab.usage": "Statistiques d’utilisation",
|
||||
"tools.add": "Ajouter une compétence",
|
||||
"tools.builtins.find-skills.description": "Aide les utilisateurs à découvrir et installer des compétences d’agent lorsqu’ils demandent « comment faire X », « trouver une compétence pour X », ou souhaitent étendre les capacités",
|
||||
"tools.builtins.find-skills.title": "Trouver des Compétences",
|
||||
"tools.builtins.groupName": "Fonctionnalités intégrées",
|
||||
"tools.builtins.install": "Installer",
|
||||
"tools.builtins.installed": "Installé",
|
||||
"tools.builtins.lobe-activator.description": "Découvrir et activer des outils et compétences",
|
||||
"tools.builtins.lobe-activator.title": "Activateur d’Outils et Compétences",
|
||||
"tools.builtins.lobe-agent-browser.description": "CLI d’automatisation de navigateur pour agents IA. À utiliser pour les tâches impliquant l’interaction avec des sites web ou Electron : navigation, formulaires, clics, captures d’écran, extraction de données, connexions et tests de bout en bout.",
|
||||
"tools.builtins.lobe-agent-browser.title": "Navigateur d’Agent",
|
||||
"tools.builtins.lobe-agent-builder.description": "Configurer les métadonnées de l’agent, les paramètres du modèle, les plugins et l’invite système",
|
||||
"tools.builtins.lobe-agent-builder.title": "Générateur d’Agent",
|
||||
"tools.builtins.lobe-agent-documents.description": "Gérer les documents propres à l’agent (lister, créer, lire, modifier, supprimer, renommer) et leurs règles de chargement",
|
||||
"tools.builtins.lobe-agent-documents.title": "Documents",
|
||||
"tools.builtins.lobe-agent-management.description": "Créer, gérer et orchestrer des agents IA",
|
||||
"tools.builtins.lobe-agent-management.title": "Gestion d’Agents",
|
||||
"tools.builtins.lobe-artifacts.description": "Générez et prévisualisez en direct des composants d'interface interactifs, des visualisations de données, des graphiques, des illustrations SVG et des applications web. Créez du contenu visuel riche avec lequel les utilisateurs peuvent interagir directement.",
|
||||
"tools.builtins.lobe-artifacts.readme": "Générez et prévisualisez en direct des composants d'interface utilisateur interactifs, des visualisations de données, des graphiques, des illustrations SVG et des applications web. Créez du contenu visuel riche avec lequel les utilisateurs peuvent interagir directement.",
|
||||
"tools.builtins.lobe-artifacts.title": "Artefacts",
|
||||
"tools.builtins.lobe-brief.description": "Rapporter la progression, fournir les résultats et demander des décisions à l’utilisateur",
|
||||
"tools.builtins.lobe-brief.title": "Outils de Brief",
|
||||
"tools.builtins.lobe-calculator.description": "Effectuez des calculs mathématiques, résolvez des équations et travaillez avec des expressions symboliques",
|
||||
"tools.builtins.lobe-calculator.readme": "Calculatrice mathématique avancée prenant en charge l'arithmétique de base, les équations algébriques, les opérations de calcul et les mathématiques symboliques. Inclut la conversion de base, la résolution d'équations, la différentiation, l'intégration et plus encore.",
|
||||
"tools.builtins.lobe-calculator.title": "Calculatrice",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "Exécutez du code Python, JavaScript et TypeScript dans un environnement cloud isolé. Lancez des commandes shell, gérez des fichiers, recherchez du contenu avec des expressions régulières et exportez les résultats en toute sécurité.",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "Exécutez du code Python, JavaScript et TypeScript dans un environnement cloud isolé. Lancez des commandes shell, gérez des fichiers, effectuez des recherches avec des expressions régulières et exportez les résultats en toute sécurité.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "Bac à sable cloud",
|
||||
"tools.builtins.lobe-creds.description": "Gérer les identifiants utilisateur pour l’authentification, l’injection de variables d’environnement et la vérification d’API — gérer clés API, jetons OAuth et secrets pour intégrations tierces.",
|
||||
"tools.builtins.lobe-creds.title": "Identifiants",
|
||||
"tools.builtins.lobe-cron.description": "Gérer les tâches programmées exécutées automatiquement à des moments définis. Créer, modifier, activer/désactiver et surveiller les tâches récurrentes des agents.",
|
||||
"tools.builtins.lobe-cron.title": "Tâches Programmées",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "Configurer les métadonnées du groupe, les membres et le contenu partagé pour les groupes multi-agents",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "Générateur de Groupe d’Agents",
|
||||
"tools.builtins.lobe-group-management.description": "Orchestrer et gérer les conversations de groupes multi-agents",
|
||||
"tools.builtins.lobe-group-management.title": "Gestion de Groupe",
|
||||
"tools.builtins.lobe-gtd.description": "Planifiez des objectifs et suivez les progrès en utilisant la méthode GTD. Créez des plans stratégiques, gérez des listes de tâches avec suivi de statut et exécutez des tâches asynchrones de longue durée.",
|
||||
"tools.builtins.lobe-gtd.readme": "Planifiez vos objectifs et suivez vos progrès grâce à la méthode GTD. Créez des plans stratégiques, gérez des listes de tâches avec suivi de statut et exécutez des tâches asynchrones de longue durée.",
|
||||
"tools.builtins.lobe-gtd.title": "Outils GTD",
|
||||
"tools.builtins.lobe-knowledge-base.description": "Rechercher dans les documents importés et la base de connaissances via la recherche vectorielle sémantique — pour une référence persistante et réutilisable",
|
||||
"tools.builtins.lobe-knowledge-base.title": "Base de Connaissances",
|
||||
"tools.builtins.lobe-local-system.description": "Accédez à votre système de fichiers local sur ordinateur. Lisez, écrivez, recherchez et organisez des fichiers. Exécutez des commandes shell avec prise en charge des tâches en arrière-plan et recherchez du contenu avec des motifs regex.",
|
||||
"tools.builtins.lobe-local-system.readme": "Accédez à votre système de fichiers local sur ordinateur. Lisez, écrivez, recherchez et organisez vos fichiers. Exécutez des commandes shell avec prise en charge des tâches en arrière-plan et recherchez du contenu avec des motifs regex.",
|
||||
"tools.builtins.lobe-local-system.title": "Système local",
|
||||
"tools.builtins.lobe-message.description": "Envoyer, lire, modifier et gérer des messages sur plusieurs plateformes de messagerie via une interface unifiée",
|
||||
"tools.builtins.lobe-message.readme": "Outil de messagerie multiplateforme prenant en charge Discord, Telegram, Slack, Google Chat et IRC. Fournit des API unifiées pour les opérations de message, réactions, épingles, fils, gestion de canaux et fonctionnalités spécifiques comme les sondages.",
|
||||
"tools.builtins.lobe-message.title": "Message",
|
||||
"tools.builtins.lobe-notebook.description": "Créez et gérez des documents persistants dans le cadre de conversations. Enregistrez des notes, rapports, articles et contenus markdown accessibles à tout moment.",
|
||||
"tools.builtins.lobe-notebook.readme": "Créez et gérez des documents persistants dans le cadre de vos conversations. Enregistrez des notes, rapports, articles et contenus en markdown accessibles à tout moment.",
|
||||
"tools.builtins.lobe-notebook.title": "Carnet",
|
||||
"tools.builtins.lobe-page-agent.description": "Créer, lire, mettre à jour et supprimer des nœuds dans des documents structurés en XML",
|
||||
"tools.builtins.lobe-page-agent.readme": "Créer et éditer des documents structurés avec un contrôle précis au niveau des nœuds. Initialiser depuis du Markdown, effectuer des opérations d’insertion/modification/suppression en masse et rechercher/remplacer du texte.",
|
||||
"tools.builtins.lobe-page-agent.title": "Document",
|
||||
"tools.builtins.lobe-remote-device.description": "Découvrir et gérer les connexions aux appareils de bureau distants",
|
||||
"tools.builtins.lobe-remote-device.readme": "Gérer les connexions à vos appareils de bureau. Lister les appareils en ligne, en activer un pour les opérations à distance et vérifier l’état de connexion.",
|
||||
"tools.builtins.lobe-remote-device.title": "Appareil Distant",
|
||||
"tools.builtins.lobe-skill-store.description": "Parcourir et installer des compétences d’agent depuis la marketplace LobeHub. À utiliser pour étendre les capacités ou installer une compétence spécifique.",
|
||||
"tools.builtins.lobe-skill-store.title": "Boutique de Compétences",
|
||||
"tools.builtins.lobe-skills.description": "Activer et utiliser des packages de compétences réutilisables",
|
||||
"tools.builtins.lobe-skills.title": "Compétences",
|
||||
"tools.builtins.lobe-task.description": "Créer, lister, modifier et supprimer des tâches avec dépendances et configuration de révision",
|
||||
"tools.builtins.lobe-task.title": "Outils de Tâches",
|
||||
"tools.builtins.lobe-topic-reference.description": "Récupérer le contexte depuis des conversations de sujets référencés",
|
||||
"tools.builtins.lobe-topic-reference.title": "Référence de Sujet",
|
||||
"tools.builtins.lobe-user-interaction.description": "Poser des questions aux utilisateurs via des interactions d’interface et observer leurs résultats",
|
||||
"tools.builtins.lobe-user-interaction.title": "Interaction Utilisateur",
|
||||
"tools.builtins.lobe-user-memory.description": "Créez une base de connaissances personnalisée à votre sujet. Mémorisez vos préférences, suivez vos activités et expériences, stockez des informations d'identité et retrouvez le contexte pertinent dans de futures conversations.",
|
||||
"tools.builtins.lobe-user-memory.readme": "Créez une base de connaissances personnalisée à votre sujet. Mémorisez vos préférences, suivez vos activités et expériences, stockez des informations d'identité et retrouvez le contexte pertinent lors de futures conversations.",
|
||||
"tools.builtins.lobe-user-memory.title": "Mémoire",
|
||||
"tools.builtins.lobe-web-browsing.description": "Rechercher des informations à jour sur le web et explorer des pages pour en extraire du contenu. Prend en charge plusieurs moteurs de recherche, catégories et plages temporelles.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "Rechercher des informations à jour sur le web et explorer des pages pour en extraire du contenu. Prise en charge de plusieurs moteurs de recherche, catégories et plages temporelles pour une recherche complète.",
|
||||
"tools.builtins.lobe-web-browsing.title": "Navigation Web",
|
||||
"tools.builtins.lobe-web-onboarding.description": "Gérer le flux d’onboarding web avec un environnement contrôlé pour l’agent",
|
||||
"tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
|
||||
"tools.builtins.lobehub.description": "Gérer la plateforme LobeHub via CLI — bases de connaissances, mémoire, agents, fichiers, recherche, génération et plus encore.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "Non installé",
|
||||
"tools.builtins.task.description": "Gestion et exécution de tâches — créer, suivre, réviser et accomplir des tâches via CLI.",
|
||||
"tools.builtins.task.title": "Tâche",
|
||||
"tools.builtins.uninstall": "Désinstaller",
|
||||
"tools.builtins.uninstallConfirm.desc": "Êtes-vous sûr de vouloir désinstaller {{name}} ? Cette compétence sera supprimée de l'agent actuel.",
|
||||
"tools.builtins.uninstallConfirm.title": "Désinstaller {{name}}",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "Déconnecter {{name}} ?",
|
||||
"tools.lobehubSkill.disconnected": "Déconnecté",
|
||||
"tools.lobehubSkill.error": "Erreur",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub est une plateforme de gestion de versions et de collaboration permettant d’héberger, réviser et gérer des dépôts de code.",
|
||||
"tools.lobehubSkill.providers.github.readme": "Connectez GitHub pour accéder à vos dépôts, créer et gérer des tickets, réviser des pull requests et collaborer sur le code — le tout par conversation naturelle avec votre assistant IA.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear est un outil moderne de suivi des problèmes et de gestion de projet conçu pour les équipes performantes afin de créer de meilleurs logiciels plus rapidement",
|
||||
"tools.lobehubSkill.providers.linear.readme": "Profitez de la puissance de Linear directement dans votre assistant IA. Créez et mettez à jour des tickets, gérez les sprints, suivez l'avancement des projets et optimisez votre flux de développement — le tout via une conversation naturelle.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar est un outil de planification intégré à Microsoft Outlook qui permet aux utilisateurs de créer des rendez-vous, organiser des réunions et gérer efficacement leur temps et leurs événements.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "Intégrez Outlook Calendar pour consulter, créer et gérer vos événements en toute fluidité. Planifiez des réunions, vérifiez les disponibilités, définissez des rappels et organisez votre emploi du temps via des commandes en langage naturel.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) est une plateforme de médias sociaux permettant de partager des mises à jour en temps réel, des actualités et d’interagir avec votre audience via des publications, des réponses et des messages directs.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "Connectez-vous à X (Twitter) pour publier des tweets, gérer votre fil d’actualité et interagir avec votre audience. Créez du contenu, planifiez des publications, surveillez les mentions et développez votre présence sur les réseaux sociaux via l’IA conversationnelle.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel est une plateforme cloud pour les développeurs front-end, offrant hébergement et fonctions serverless pour déployer facilement des applications web.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "Connectez Vercel pour gérer vos déploiements, surveiller l’état des projets et contrôler votre infrastructure. Déployez des applications, consultez les journaux de build, gérez les variables d’environnement et faites évoluer vos projets via une IA conversationnelle.",
|
||||
"tools.notInstalled": "Non installé",
|
||||
"tools.notInstalledWarning": "Cette compétence n’est pas installée actuellement, ce qui peut affecter le fonctionnement de l’agent.",
|
||||
"tools.plugins.enabled": "Activées : {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "Image de début",
|
||||
"config.prompt.placeholder": "Décrivez la vidéo que vous souhaitez générer",
|
||||
"config.prompt.placeholderWithRef": "Décrivez la scène que vous souhaitez générer avec l'image",
|
||||
"config.promptExtend.label": "Extension de l’invite",
|
||||
"config.referenceImage.label": "Image de référence",
|
||||
"config.resolution.label": "Résolution",
|
||||
"config.seed.label": "Graine",
|
||||
"config.seed.random": "Aléatoire",
|
||||
"config.size.label": "Taille",
|
||||
"config.watermark.label": "Filigrane",
|
||||
"config.webSearch.label": "Recherche web",
|
||||
"generation.actions.copyError": "Copier le message d'erreur",
|
||||
"generation.actions.errorCopied": "Message d'erreur copié dans le presse-papiers",
|
||||
"generation.actions.errorCopyFailed": "Échec de la copie du message d'erreur",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "Bot connesso con successo",
|
||||
"channel.connecting": "Connessione in corso...",
|
||||
"channel.connectionConfig": "Configurazione Connessione",
|
||||
"channel.connectionMode": "Modalità di connessione",
|
||||
"channel.connectionModeHint": "Si consiglia WebSocket per i nuovi bot. Usa Webhook se il tuo bot ha già un URL di callback configurato sulla Piattaforma Open di QQ.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "Copiato negli appunti",
|
||||
"channel.copy": "Copia",
|
||||
"channel.credentials": "Credenziali",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "Copia questo URL e incollalo nel campo <bold>{{fieldName}}</bold> nel Portale Sviluppatori di {{name}}.",
|
||||
"channel.exportConfig": "Esporta configurazione",
|
||||
"channel.feishu.description": "Connetti questo assistente a Feishu per chat private e di gruppo.",
|
||||
"channel.feishu.webhookMigrationDesc": "La modalità WebSocket offre la consegna in tempo reale degli eventi senza la necessità di un URL pubblico di callback. Per eseguire la migrazione, passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate. Non è necessaria alcuna configurazione aggiuntiva sulla Piattaforma Open di Feishu/Lark.",
|
||||
"channel.feishu.webhookMigrationTitle": "Valuta la migrazione alla modalità WebSocket",
|
||||
"channel.historyLimit": "Limite dei messaggi nella cronologia",
|
||||
"channel.historyLimitHint": "Numero predefinito di messaggi da recuperare quando si legge la cronologia del canale",
|
||||
"channel.importConfig": "Importa configurazione",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "Richiesta per la verifica delle interazioni",
|
||||
"channel.qq.appIdHint": "Il tuo ID App Bot QQ dalla Piattaforma Aperta QQ",
|
||||
"channel.qq.description": "Collega questo assistente a QQ per chat di gruppo e messaggi diretti.",
|
||||
"channel.qq.webhookMigrationDesc": "La modalità WebSocket offre la consegna in tempo reale degli eventi e la riconnessione automatica senza la necessità di un URL di callback. Per eseguire la migrazione, crea un nuovo bot sulla Piattaforma Open di QQ senza configurare un URL di callback, quindi passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate.",
|
||||
"channel.qq.webhookMigrationTitle": "Valuta la migrazione alla modalità WebSocket",
|
||||
"channel.removeChannel": "Rimuovi Canale",
|
||||
"channel.removeFailed": "Impossibile rimuovere il canale",
|
||||
"channel.removed": "Canale rimosso",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "Segreto di firma",
|
||||
"channel.signingSecretHint": "Utilizzato per verificare le richieste webhook.",
|
||||
"channel.slack.appIdHint": "Il tuo ID app Slack dal dashboard API di Slack (inizia con A).",
|
||||
"channel.slack.appToken": "Token a livello di app",
|
||||
"channel.slack.appTokenHint": "Richiesto per la Socket Mode (WebSocket). Genera un token a livello di app (xapp-...) nella sezione Informazioni di base delle impostazioni della tua app Slack.",
|
||||
"channel.slack.description": "Connetti questo assistente a Slack per conversazioni nei canali e messaggi diretti.",
|
||||
"channel.slack.webhookMigrationDesc": "La Socket Mode fornisce la consegna in tempo reale degli eventi tramite WebSocket senza esporre un endpoint HTTP pubblico. Per eseguire la migrazione, abilita la Socket Mode nelle impostazioni della tua app Slack, genera un token a livello di app, quindi passa la Modalità di connessione a WebSocket nelle Impostazioni avanzate.",
|
||||
"channel.slack.webhookMigrationTitle": "Valuta la migrazione alla Socket Mode (WebSocket)",
|
||||
"channel.telegram.description": "Connetti questo assistente a Telegram per chat private e di gruppo.",
|
||||
"channel.testConnection": "Test Connessione",
|
||||
"channel.testFailed": "Test di connessione fallito",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "Gruppo eliminato con successo",
|
||||
"confirmRemoveSessionItemAlert": "Stai per eliminare questo agente. Una volta eliminato, non potrà essere recuperato. Confermi l'operazione?",
|
||||
"confirmRemoveSessionSuccess": "Agente eliminato con successo",
|
||||
"createModal.createBlank": "Crea vuoto",
|
||||
"createModal.groupPlaceholder": "Descrivi cosa dovrebbe fare questo gruppo...",
|
||||
"createModal.groupTitle": "Cosa dovrebbe fare il tuo gruppo?",
|
||||
"createModal.placeholder": "Descrivi cosa dovrebbe fare il tuo agente...",
|
||||
"createModal.title": "Cosa dovrebbe fare il tuo agente?",
|
||||
"defaultAgent": "Agente predefinito",
|
||||
"defaultGroupChat": "Gruppo",
|
||||
"defaultList": "Elenco predefinito",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "Contesto troppo lungo, compressione della cronologia in corso...",
|
||||
"operation.execAgentRuntime": "Preparazione della risposta",
|
||||
"operation.execClientTask": "Esecuzione attività",
|
||||
"operation.execServerAgentRuntime": "In esecuzione… Puoi cambiare attività o chiudere la pagina: l’attività continuerà.",
|
||||
"operation.sendMessage": "Invio del messaggio",
|
||||
"owner": "Proprietario del gruppo",
|
||||
"pageCopilot.title": "Agente di pagina",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "Recupero dei dettagli in corso...",
|
||||
"task.status.initializing": "Inizializzazione attività...",
|
||||
"task.subtask": "Sottocompito",
|
||||
"task.title": "Attività",
|
||||
"thread.divider": "Sottotema",
|
||||
"thread.threadMessageCount": "{{messageCount}} messaggi",
|
||||
"thread.title": "Sottotema",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "Autorizza le Skill per questo agente",
|
||||
"topic.checkOpenNewTopic": "Iniziare un nuovo argomento?",
|
||||
"topic.checkSaveCurrentMessages": "Vuoi salvare la conversazione corrente come argomento?",
|
||||
"topic.defaultTitle": "Argomento senza titolo",
|
||||
"topic.openNewTopic": "Apri nuovo argomento",
|
||||
"topic.recent": "Argomenti recenti",
|
||||
"topic.saveCurrentMessages": "Salva sessione corrente come argomento",
|
||||
"topic.viewAll": "Vedi tutti gli argomenti",
|
||||
"translate.action": "Traduci",
|
||||
"translate.clear": "Cancella traduzione",
|
||||
"tts.action": "Sintesi vocale",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "Supporto via email",
|
||||
"more": "Altro",
|
||||
"navPanel.agent": "Agente",
|
||||
"navPanel.customizeSidebar": "Personalizza barra laterale",
|
||||
"navPanel.displayItems": "Elementi visualizzati",
|
||||
"navPanel.hidden": "Nascosto",
|
||||
"navPanel.hideSection": "Nascondi sezione",
|
||||
"navPanel.library": "Libreria",
|
||||
"navPanel.moveDown": "Sposta giù",
|
||||
"navPanel.moveUp": "Sposta su",
|
||||
"navPanel.pinned": "In evidenza",
|
||||
"navPanel.searchAgent": "Cerca agente...",
|
||||
"navPanel.searchRecent": "Cerca recenti...",
|
||||
"navPanel.searchResultEmpty": "Nessun risultato trovato",
|
||||
"navPanel.show": "Mostra",
|
||||
"navPanel.visible": "Visibile",
|
||||
"new": "Nuovo",
|
||||
"noContent": "Nessun contenuto",
|
||||
"oauth": "Accesso SSO",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "Sostienici",
|
||||
"productHunt.description": "Sostienici su Product Hunt. Il tuo supporto è molto importante per noi!",
|
||||
"productHunt.title": "Siamo su Product Hunt!",
|
||||
"promptTransform.action": "Affina idea",
|
||||
"promptTransform.actions.rewrite": "Amplia dettagli",
|
||||
"promptTransform.actions.translate": "Traduci",
|
||||
"promptTransform.status.rewrite": "Ampliamento dei dettagli...",
|
||||
"promptTransform.status.translate": "Traduzione in corso...",
|
||||
"recents": "Recenti",
|
||||
"regenerate": "Rigenera",
|
||||
"releaseNotes": "Dettagli versione",
|
||||
"rename": "Rinomina",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "Audio",
|
||||
"tab.chat": "Chat",
|
||||
"tab.community": "Comunità",
|
||||
"tab.create": "Crea",
|
||||
"tab.discover": "Scopri",
|
||||
"tab.eval": "Laboratorio di Valutazione",
|
||||
"tab.files": "File",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "Modello",
|
||||
"config.prompt.placeholder": "Descrivi cosa vuoi generare",
|
||||
"config.prompt.placeholderWithRef": "Descrivi come desideri modificare l'immagine",
|
||||
"config.promptExtend.label": "Estensione Prompt",
|
||||
"config.quality.label": "Qualità immagine",
|
||||
"config.quality.options.hd": "Alta definizione",
|
||||
"config.quality.options.standard": "Standard",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "Dimensione",
|
||||
"config.steps.label": "Passaggi",
|
||||
"config.title": "Configurazione",
|
||||
"config.watermark.label": "Filigrana",
|
||||
"config.webSearch.label": "Ricerca Web",
|
||||
"config.width.label": "Larghezza",
|
||||
"generation.actions.applySeed": "Applica seed",
|
||||
"generation.actions.copyError": "Copia messaggio di errore",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "Raggruppa i messaggi dell'agente e i risultati delle chiamate agli strumenti per una visualizzazione unificata",
|
||||
"features.assistantMessageGroup.title": "Raggruppamento Messaggi Agente",
|
||||
"features.gatewayMode.desc": "Esegui le attività dell’agente sul server tramite Gateway WebSocket invece di eseguirle in locale. Consente un’esecuzione più rapida e riduce l’utilizzo delle risorse del client.",
|
||||
"features.gatewayMode.title": "Esecuzione dell’Agente Lato Server (Gateway)",
|
||||
"features.groupChat.desc": "Abilita il coordinamento della chat di gruppo con più agenti.",
|
||||
"features.groupChat.title": "Chat di Gruppo (Multi-Agente)",
|
||||
"features.inputMarkdown.desc": "Visualizza in tempo reale il Markdown nell'area di input (testo in grassetto, blocchi di codice, tabelle, ecc.).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "Modello di punta in Cina, supera i principali modelli esteri nei compiti in lingua cinese come conoscenza, testi lunghi e generazione creativa. Presenta anche capacità multimodali all'avanguardia con risultati eccellenti nei benchmark autorevoli.",
|
||||
"Baichuan4.description": "Prestazioni nazionali al top, superiori ai principali modelli esteri nei compiti in lingua cinese come conoscenza enciclopedica, testi lunghi e generazione creativa. Offre anche capacità multimodali all'avanguardia e risultati eccellenti nei benchmark.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS è una famiglia di LLM open-source di ByteDance Seed, progettata per una gestione efficace di contesti lunghi, ragionamento, agenti e capacità generali. Seed-OSS-36B-Instruct è un modello da 36B ottimizzato per istruzioni, con contesto ultra-lungo nativo per elaborare documenti o basi di codice estesi. Ottimizzato per ragionamento, generazione di codice e compiti agentici (uso di strumenti), mantiene forti capacità generali. Una caratteristica chiave è il \"Thinking Budget\", che consente una lunghezza di ragionamento flessibile per migliorare l'efficienza.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR è un modello visione-linguaggio sviluppato da DeepSeek AI, focalizzato sull’OCR e sulla “compressione ottica del contesto”. Esplora tecniche per comprimere il contesto proveniente dalle immagini, elabora documenti in modo efficiente e li converte in testo strutturato (ad esempio in Markdown). Riconosce accuratamente il testo nelle immagini ed è ideale per la digitalizzazione dei documenti, l’estrazione del testo e l’elaborazione strutturata.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, il modello più grande e intelligente della suite DeepSeek, è stato distillato nell'architettura Llama 70B. I benchmark e le valutazioni umane dimostrano che è più intelligente del Llama 70B base, in particolare nei compiti di matematica e precisione dei fatti.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Un modello distillato DeepSeek-R1 basato su Qwen2.5-Math-1.5B. L'apprendimento per rinforzo e i dati di avvio a freddo ottimizzano le prestazioni di ragionamento, stabilendo nuovi benchmark multi-task per i modelli open-source.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "I modelli DeepSeek-R1-Distill sono ottimizzati a partire da modelli open-source utilizzando dati campione generati da DeepSeek-R1.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "Fornitore: sophnet. DeepSeek V3 Fast è la versione ad alta velocità di DeepSeek V3 0324, a precisione completa (non quantizzata), con prestazioni superiori in programmazione e matematica e risposte più rapide.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast è la variante veloce ad alta velocità di DeepSeek V3.1. Modalità di pensiero ibrida: tramite template di chat, un solo modello supporta modalità con e senza pensiero. Uso più intelligente degli strumenti: il post-addestramento migliora le prestazioni nei compiti agentici e nell'uso degli strumenti.",
|
||||
"DeepSeek-V3.1-Think.description": "Modalità di pensiero DeepSeek-V3.1: un nuovo modello di ragionamento ibrido con modalità di pensiero e non-pensiero, più efficiente di DeepSeek-R1-0528. Le ottimizzazioni post-addestramento migliorano significativamente l'uso degli strumenti agentici e le prestazioni nei compiti agentici.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 introduce un meccanismo di attenzione sparsa, progettato per migliorare l’efficienza dell’addestramento e dell’inferenza nel trattamento di testi lunghi, offrendo un costo inferiore rispetto a deepseek-v3.1.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE sviluppato da DeepSeek. Supera altri modelli open-source come Qwen2.5-72B e Llama-3.1-405B in molti benchmark ed è competitivo con i principali modelli chiusi come GPT-4o e Claude 3.5 Sonnet.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite offre risposte ultra-rapide e un ottimo rapporto qualità/prezzo, con opzioni flessibili per diversi scenari. Supporta un contesto di 128K per inferenza e fine-tuning.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite offre risposte ultra-rapide e un ottimo rapporto qualità/prezzo, con opzioni flessibili per diversi scenari. Supporta un contesto di 32K per inferenza e fine-tuning.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: Modello ad alte prestazioni per ragionamento, programmazione e attività agentiche.",
|
||||
"GLM-4.6.description": "GLM-4.6: Modello della generazione precedente.",
|
||||
"GLM-4.7.description": "GLM-4.7 è il modello di punta più recente di Zhipu, ottimizzato per scenari di programmazione agentica con capacità di codifica migliorate, pianificazione di compiti a lungo termine e collaborazione con strumenti.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: Versione ottimizzata di GLM-5 con inferenza più veloce per attività di programmazione.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo è un modello di base ottimizzato in profondità per scenari agentici. È stato affinato fin dalla fase di addestramento per soddisfare i requisiti fondamentali dei task degli agenti, migliorando capacità chiave come l’invocazione di strumenti, l’esecuzione di comandi e i processi complessi a catena. È ideale per creare assistenti agentici ad alte prestazioni.",
|
||||
"GLM-5.1.description": "GLM-5.1 è il modello di punta più recente di Zhipu, un'iterazione migliorata di GLM-5 con capacità ingegneristiche agentiche avanzate per l'ingegneria di sistemi complessi e compiti a lungo termine.",
|
||||
"GLM-5.description": "GLM-5 è il modello di base di nuova generazione di Zhipu, progettato per l'Ingegneria Agentica. Offre produttività affidabile in sistemi complessi e compiti agentici a lungo termine. Nelle capacità di programmazione e agentiche, GLM-5 raggiunge prestazioni all'avanguardia tra i modelli open-source.",
|
||||
"GLM-5.description": "GLM-5 è il modello di punta di nuova generazione di Zhipu, progettato specificamente per l’Agentic Engineering. Offre produttività affidabile nell’ingegneria di sistemi complessi e nei task agentici a lungo orizzonte. Nelle capacità di coding e nelle funzioni agentiche, GLM-5 raggiunge prestazioni all’avanguardia tra i modelli open-source. Nei contesti di programmazione reali, l’esperienza d’uso si avvicina a quella di Claude Opus 4.5. Eccelle nell’ingegneria di sistemi complessi e nei task agentici estesi, rendendolo un modello base ideale per assistenti agentici generici.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) è un modello innovativo per domini diversificati e compiti complessi.",
|
||||
"HY-Image-V3.0.description": "Potenti capacità di estrazione delle caratteristiche dell'immagine originale e di conservazione dei dettagli, offrendo una texture visiva più ricca e producendo immagini di alta precisione, ben composte e di qualità professionale.",
|
||||
"HelloMeme.description": "HelloMeme è uno strumento AI che genera meme, GIF o brevi video a partire da immagini o movimenti forniti. Non richiede abilità di disegno o programmazione: basta un'immagine di riferimento per creare contenuti divertenti, accattivanti e stilisticamente coerenti.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter è un modello di generazione di personaggi personalizzati senza tuning, rilasciato da Tencent AI nel 2025, progettato per una generazione fedele e coerente di personaggi in diversi scenari. Può modellare un personaggio da una singola immagine di riferimento e trasferirlo con flessibilità tra stili, azioni e sfondi.",
|
||||
"InternVL2-8B.description": "InternVL2-8B è un potente modello visione-linguaggio che supporta l'elaborazione multimodale immagine-testo, riconoscendo accuratamente i contenuti visivi e generando descrizioni o risposte pertinenti.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B è un potente modello visione-linguaggio che supporta l'elaborazione multimodale immagine-testo, riconoscendo accuratamente i contenuti visivi e generando descrizioni o risposte pertinenti.",
|
||||
"KAT-Coder-Air-V1.description": "Una versione leggera della serie KAT-Coder. Progettata specificamente per l’Agentic Coding, copre in modo completo task e scenari di programmazione. Grazie al reinforcement learning su larga scala basato su agenti, consente l’emergere di comportamenti intelligenti e supera nettamente modelli simili nelle prestazioni di coding.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B è la versione sperimentale orientata alle innovazioni RL della serie KAT-Coder, raggiungendo una notevole prestazione del 74,6% nel benchmark SWE-Bench verified, stabilendo un nuovo record tra i modelli open-source. Si concentra sull’Agentic Coding e attualmente supporta solo lo scaffold SWE-Agent, pur potendo essere utilizzato anche per semplici conversazioni.",
|
||||
"KAT-Coder-Pro-V1.description": "Progettato per l’Agentic Coding, copre in modo completo task e scenari di programmazione, ottenendo comportamenti intelligenti emergenti grazie al reinforcement learning su larga scala e superando significativamente modelli simili nelle prestazioni di scrittura del codice.",
|
||||
"KAT-Coder-Pro-V2.description": "L’ultimo modello ad alte prestazioni del team Kuaishou Kwaipilot, progettato per progetti aziendali complessi e integrazioni SaaS. Eccelle negli scenari legati al codice ed è compatibile con vari framework agent (Claude Code, OpenCode, KiloCode), supporta nativamente OpenClaw ed è ottimizzato specificamente per l’estetica delle pagine front-end.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 è il modello Kimi più avanzato, con prestazioni SOTA open-source nei task agentici, nel coding e nella comprensione visiva. Supporta input multimodali e sia la modalità con pensiero sia quella senza pensiero.",
|
||||
"Kolors.description": "Kolors è un modello text-to-image sviluppato dal team Kuaishou Kolors. Addestrato con miliardi di parametri, offre vantaggi notevoli in qualità visiva, comprensione semantica del cinese e resa del testo.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors è un modello text-to-image a diffusione latente su larga scala sviluppato dal team Kuaishou Kolors. Addestrato su miliardi di coppie testo-immagine, eccelle in qualità visiva, accuratezza semantica complessa e resa del testo in cinese/inglese, con forte comprensione e generazione di contenuti in cinese.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) è un modello open-source da 32 miliardi di parametri per compiti di ingegneria del software. Raggiunge un tasso di risoluzione del 62,4% su SWE-Bench Verified, classificandosi al 5° posto tra i modelli open. È ottimizzato tramite mid-training, SFT e RL per completamento del codice, correzione di bug e revisione del codice.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "Modello linguistico compatto all'avanguardia con forte comprensione del linguaggio, eccellente ragionamento e generazione testuale.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 è il modello Llama open-source multilingue più avanzato, con prestazioni vicine a quelle del 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione instruction-tuned è ottimizzata per chat multilingue e supera molti modelli open e closed nei benchmark industriali. Data di cutoff: dicembre 2023.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick è un grande modello MoE con attivazione efficiente degli esperti per prestazioni di ragionamento elevate.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro è progettato specificamente per flussi di lavoro agentici ad alta intensità in scenari reali. Presenta oltre un trilione di parametri totali (42B attivati), adotta una nuova architettura ibrida di attenzione e supporta una lunghezza di contesto ultra-estesa fino a un milione di token. Basato su un modello fondamentale molto potente, espandiamo costantemente le risorse computazionali su un’ampia gamma di scenari agentici, ampliando ulteriormente lo spazio d’azione dell’intelligenza e ottenendo una forte generalizzazione—dal coding all’esecuzione di task reali (“claw”).",
|
||||
"MiniMax-Hailuo-02.description": "È stato ufficialmente rilasciato il modello di generazione video di nuova generazione MiniMax Hailuo 02, che supporta la risoluzione 1080P e la generazione di video di 10 secondi.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "Nuovo modello di generazione video con aggiornamenti completi nei movimenti del corpo, realismo fisico e aderenza alle istruzioni.",
|
||||
"MiniMax-Hailuo-2.3.description": "Nuovo modello di generazione video con aggiornamenti completi nei movimenti del corpo, realismo fisico e aderenza alle istruzioni.",
|
||||
"MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.",
|
||||
"MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.",
|
||||
"MiniMax-M2.1-Lightning.description": "Potenti capacità di programmazione multilingue con inferenza più rapida ed efficiente.",
|
||||
"MiniMax-M2.1-highspeed.description": "Potenti capacità di programmazione multilingue, esperienza di programmazione completamente aggiornata. Più veloce ed efficiente.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1 è un modello open-source di punta di MiniMax, progettato per affrontare compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la risoluzione di compiti complessi come agente.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Stesse prestazioni di M2.5 con inferenza più veloce.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5 è un modello open-source di punta di MiniMax, focalizzato sulla risoluzione di compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la capacità di risolvere compiti complessi come un Agente.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Stesse prestazioni di M2.7 con inferenza significativamente più veloce.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: Inizio del percorso di auto-miglioramento ricorsivo, capacità ingegneristiche di alto livello nel mondo reale.",
|
||||
"MiniMax-M2.7.description": "Primo modello auto-evolutivo con prestazioni di codifica e capacità agentiche di livello superiore (~60 tps).",
|
||||
"MiniMax-M2.description": "MiniMax M2: Modello della generazione precedente.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01 introduce l'attenzione lineare su larga scala oltre i Transformer classici, con 456B parametri e 45,9B attivati per passaggio. Raggiunge prestazioni di alto livello e supporta fino a 4M token di contesto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 è un modello di ragionamento a grande scala con pesi aperti e attenzione ibrida, con 456 miliardi di parametri totali e ~45,9 miliardi attivi per token. Supporta nativamente un contesto di 1 milione e utilizza Flash Attention per ridurre i FLOP del 75% nella generazione di 100K token rispetto a DeepSeek R1. Con un'architettura MoE più CISPO e addestramento RL con attenzione ibrida, raggiunge prestazioni leader nel ragionamento su input lunghi e compiti di ingegneria software reale.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 è la versione più recente e potente di Kimi K2. È un modello MoE di fascia alta con 1T di parametri totali e 32B attivi. Le caratteristiche principali includono un'intelligenza di codifica agentica più forte con miglioramenti significativi nei benchmark e nei compiti reali da agente, oltre a una migliore estetica e usabilità del codice frontend.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo è la variante Turbo ottimizzata per velocità di ragionamento e throughput, mantenendo il ragionamento multi-step e l'uso di strumenti di K2 Thinking. È un modello MoE con ~1T parametri totali, contesto nativo da 256K e chiamata stabile di strumenti su larga scala per scenari di produzione con requisiti più severi di latenza e concorrenza.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 è un modello agente multimodale nativo open-source, basato su Kimi-K2-Base, addestrato su circa 1,5 trilioni di token misti visivi e testuali. Il modello adotta un'architettura MoE con 1T di parametri totali e 32B attivi, supporta una finestra di contesto di 256K e integra perfettamente le capacità di comprensione visiva e linguistica.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 è un modello di punta di nuova generazione progettato per l’ingegneria agentica, basato su un’architettura Mixture of Experts (MoE) con 754B parametri. Migliora notevolmente le capacità di programmazione, ottenendo risultati leader su SWE-Bench Pro e superando di molto il suo predecessore in benchmark come NL2Repo e Terminal-Bench 2.0. Progettato per task agentici di lunga durata, gestisce meglio domande ambigue, scompone compiti complessi, esegue esperimenti, analizza risultati e ottimizza continuamente attraverso centinaia di iterazioni e migliaia di chiamate strumentali.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 è il modello di punta di nuova generazione di Zhipu con 355 miliardi di parametri totali e 32 miliardi di parametri attivi, completamente aggiornato per dialoghi generali, ragionamento e capacità agentiche. GLM-4.7 migliora il Pensiero Intercalato e introduce il Pensiero Preservato e il Pensiero a Livello di Turno.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5 è il modello linguistico di prossima generazione di Zhipu, focalizzato sull'ingegneria di sistemi complessi e sui compiti di lunga durata per Agenti. I parametri del modello sono stati ampliati a 744 miliardi (40 miliardi attivi) e integrano DeepSeek Sparse Attention.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 è ottimizzato per ragionamento avanzato e seguire istruzioni, utilizzando MoE per mantenere l'efficienza del ragionamento su larga scala.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B è un modello MoE che introduce una modalità di ragionamento ibrida, consentendo agli utenti di passare senza interruzioni tra pensiero e non-pensiero. Supporta comprensione e ragionamento in 119 lingue e dialetti e ha forti capacità di utilizzo di strumenti, competendo con modelli di punta come DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro nei benchmark su abilità generali, codice e matematica, capacità multilingue e ragionamento basato sulla conoscenza.",
|
||||
"Qwen3-32B.description": "Qwen3-32B è un modello denso che introduce una modalità di ragionamento ibrida, consentendo agli utenti di passare tra pensiero e non-pensiero. Grazie a miglioramenti architetturali, più dati e un addestramento migliore, offre prestazioni comparabili a Qwen2.5-72B.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus supporta input testuali, immagini e video. Le sue prestazioni nei task puramente testuali sono paragonabili a Qwen3 Max, con prestazioni migliori e costi inferiori. Le sue capacità multimodali sono notevolmente migliorate rispetto alla serie Qwen3 VL.",
|
||||
"S2V-01.description": "Il modello di base per la generazione di video da riferimenti della serie 01.",
|
||||
"SenseChat-128K.description": "Base V4 con contesto da 128K, eccellente nella comprensione e generazione di testi lunghi.",
|
||||
"SenseChat-32K.description": "Base V4 con contesto da 32K, flessibile per molti scenari.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e pensiero esteso.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, caratterizzato da rapidità estrema e ragionamento avanzato.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento estese.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e capace di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e avanzato di Anthropic per task altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per task altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e il coding.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza di alto livello con prestazioni scalabili per compiti complessi e di alta qualità di ragionamento.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offrendo risposte quasi istantanee o pensiero esteso passo dopo passo con controllo dettagliato per gli utenti API.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 è la migliore combinazione di velocità e intelligenza di Anthropic.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 può produrre risposte quasi istantanee o un ragionamento esteso passo dopo passo con processo visibile.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente sviluppato da Anthropic finora.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 offre la migliore combinazione tra velocità e intelligenza.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 è il modello più intelligente mai creato da Anthropic.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 rappresenta la migliore combinazione di velocità e intelligenza di Anthropic.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4 può generare risposte quasi istantanee o ragionamenti estesi passo dopo passo che gli utenti possono seguire. Gli utenti API possono controllare finemente quanto tempo il modello dedica al ragionamento.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catena di pensiero.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell'output per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli GPT-5, ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni degli agenti open-source.",
|
||||
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di coding. Mantiene il dialogo naturale del modello chat e la forte competenza del modello coder, con un migliore allineamento delle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
|
||||
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
|
||||
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore precisione, con risultati di competizione di alto livello e ragionamento comparabile a Gemini-3.0-Pro.",
|
||||
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di ragionamento prima della risposta finale per migliorarne l’accuratezza.",
|
||||
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1 è un'anteprima del modello di pensiero per valutazione e test.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Caratteristiche includono coerenza del soggetto migliorata, aderenza precisa alle istruzioni, comprensione della logica spaziale, espressione estetica, layout di poster e design di loghi con rendering testo-immagine ad alta precisione.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini altamente controllabile e di alta qualità a partire da prompt.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi e offre una generazione di immagini altamente controllabile e di alta qualità. Genera immagini a partire da prompt testuali.",
|
||||
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
|
||||
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
|
||||
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e di aspetto, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro.",
|
||||
"fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen con una forte capacità di rendering di testo in cinese e stili visivi diversificati.",
|
||||
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing delle immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testo cinese e inglese ed esegue interventi di alta qualità come trasferimento di stile e rotazione di oggetti.",
|
||||
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen, con eccellente resa del testo cinese e stili visivi diversificati.",
|
||||
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
|
||||
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
|
||||
"flux-dev.description": "Modello open-source per la ricerca e sviluppo nella generazione di immagini, ottimizzato in modo efficiente per la ricerca innovativa non commerciale.",
|
||||
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
|
||||
"flux-kontext-pro.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
|
||||
"flux-merged.description": "FLUX.1 [merged] combina le caratteristiche profonde esplorate in \"DEV\" con i vantaggi ad alta velocità di \"Schnell\", estendendo i limiti delle prestazioni e ampliando le applicazioni.",
|
||||
"flux-pro-1.1-ultra.description": "Generazione di immagini ad altissima risoluzione con output da 4MP, producendo immagini nitide in 10 secondi.",
|
||||
"flux-pro-1.1.description": "Modello aggiornato di generazione di immagini di livello professionale con eccellente qualità visiva e aderenza precisa ai prompt.",
|
||||
"flux-pro.description": "Modello commerciale di generazione di immagini di fascia alta con qualità visiva impareggiabile e output diversificati.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] è il modello open-source più avanzato a pochi passaggi, superiore a concorrenti simili e persino a modelli non distillati come Midjourney v6.0 e DALL-E 3 (HD). Ottimizzato per preservare la diversità del pretraining, migliora notevolmente la qualità visiva, il rispetto delle istruzioni, la variazione di dimensioni/aspetto, la gestione dei font e la diversità degli output.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell è un modello ad alte prestazioni per la generazione di immagini rapide in più stili.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e regolabili per compiti complessi.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) fornisce un forte supporto multimodale per compiti complessi.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash è il modello più intelligente progettato per la velocità, che combina intelligenza all'avanguardia con un eccellente ancoraggio alla ricerca.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google che supporta anche il dialogo multimodale.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche la chat multimodale.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google con supporto al pensiero, generazione e modifica di immagini conversazionali.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre qualità di immagine di livello Pro a velocità Flash con supporto per la chat multimodale.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google, con supporto al reasoning, generazione conversazionale di immagini ed editing.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview è il modello multimodale più economico di Google, ottimizzato per compiti agentici ad alto volume, traduzione e elaborazione dati.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview migliora Gemini 3 Pro con capacità di ragionamento avanzate e aggiunge supporto per un livello di pensiero medio.",
|
||||
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "Il nostro modello più potente e avanzato, progettato per compiti aziendali complessi con prestazioni eccezionali.",
|
||||
"jamba-mini.description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità con un ingombro ridotto.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch combina ricerca web, lettura e ragionamento per indagini approfondite. Pensalo come un agente che prende il tuo compito di ricerca, esegue ricerche ampie con più iterazioni e solo dopo produce una risposta. Il processo prevede ricerca continua, ragionamento e risoluzione di problemi da più angolazioni, fondamentalmente diverso dai LLM standard che rispondono dai dati di preaddestramento o dai sistemi RAG tradizionali che si basano su una ricerca superficiale one-shot.",
|
||||
"k2p5.description": "Kimi K2.5 è il modello più versatile di Kimi fino ad oggi, caratterizzato da un'architettura multimodale nativa che supporta sia input visivi che testuali, modalità 'pensante' e 'non pensante', e sia compiti conversazionali che agenti.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 è un modello base MoE con forti capacità di programmazione e agenti (1T di parametri totali, 32B attivi), che supera altri modelli open-source mainstream nei benchmark di ragionamento, programmazione, matematica e agenti.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre una finestra di contesto da 256k, una programmazione agentica più forte, una qualità del codice front-end migliorata e una comprensione del contesto più profonda.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct è il modello ufficiale di ragionamento di Kimi con contesto esteso per codice, domande e risposte e altro.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ è un modello di ragionamento della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, offre capacità di pensiero e ragionamento che migliorano significativamente le prestazioni nei compiti difficili. QwQ-32B è un modello di medie dimensioni che compete con i migliori modelli di ragionamento come DeepSeek-R1 e o1-mini.",
|
||||
"qwq_32b.description": "Modello di ragionamento di medie dimensioni della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, le capacità di pensiero e ragionamento di QwQ migliorano significativamente le prestazioni nei compiti difficili.",
|
||||
"r1-1776.description": "R1-1776 è una variante post-addestrata di DeepSeek R1 progettata per fornire informazioni fattuali non censurate e imparziali.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro di ByteDance supporta la generazione da testo a video, immagine a video (primo fotogramma, primo+ultimo fotogramma) e audio sincronizzato con immagini.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite di BytePlus presenta generazione aumentata da recupero web per informazioni in tempo reale, interpretazione di prompt complessi migliorata e coerenza di riferimento migliorata per la creazione visiva professionale.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja) estende Solar Mini con un focus sul giapponese, mantenendo prestazioni efficienti e solide in inglese e coreano.",
|
||||
"solar-mini.description": "Solar Mini è un LLM compatto che supera GPT-3.5, con forte capacità multilingue in inglese e coreano, offrendo una soluzione efficiente e leggera.",
|
||||
"solar-pro.description": "Solar Pro è un LLM ad alta intelligenza di Upstage, focalizzato sull’esecuzione di istruzioni su una singola GPU, con punteggi IFEval superiori a 80. Attualmente supporta l’inglese; il rilascio completo è previsto per novembre 2024 con supporto linguistico ampliato e contesto più lungo.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2 è il nostro nuovo potente modello di generazione multimediale, che genera video con audio sincronizzato. Può creare clip dinamici e riccamente dettagliati da linguaggio naturale o immagini.",
|
||||
"spark-x.description": "Panoramica delle capacità di X2: 1. Introduce l'adattamento dinamico della modalità di ragionamento, controllato tramite il campo `thinking`. 2. Lunghezza del contesto espansa: 64K token di input e 128K token di output. 3. Supporta la funzionalità Function Call.",
|
||||
"stable-diffusion-3-medium.description": "L'ultimo modello text-to-image di Stability AI. Questa versione migliora significativamente la qualità delle immagini, la comprensione del testo e la diversità stilistica, interpretando con maggiore precisione prompt complessi in linguaggio naturale e generando immagini più accurate e varie.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applica la distillazione per diffusione avversaria (ADD) a stable-diffusion-3.5-large per una maggiore velocità.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large è un modello text-to-image MMDiT da 800M parametri con qualità eccellente e allineamento ai prompt, supporta immagini da 1 megapixel ed è efficiente su hardware consumer.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 è inizializzato dal checkpoint v1.2 e ottimizzato per 595k step su \"laion-aesthetics v2 5+\" a risoluzione 512x512, riducendo il conditioning testuale del 10% per migliorare il campionamento classifier-free.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo è focalizzato sulla generazione di immagini di alta qualità, con una forte resa dei dettagli e fedeltà della scena.",
|
||||
"stable-diffusion-xl-base-1.0.description": "Modello open-source text-to-image di Stability AI con generazione creativa di immagini leader nel settore. Ha una forte comprensione delle istruzioni e supporta definizioni inverse dei prompt per generazioni precise.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl introduce miglioramenti significativi rispetto alla v1.5 e raggiunge i migliori risultati open-source text-to-image. Include un backbone UNet 3 volte più grande, un modulo di raffinamento per immagini migliori e tecniche di addestramento più efficienti.",
|
||||
"step-1-128k.description": "Equilibrio tra prestazioni e costi per scenari generali.",
|
||||
"step-1-256k.description": "Gestione di contesti extra-lunghi, ideale per l’analisi di documenti estesi.",
|
||||
"step-1-32k.description": "Supporta conversazioni di media lunghezza per un’ampia gamma di scenari.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "{{count}} parametri in totale",
|
||||
"arguments.title": "Argomenti",
|
||||
"builtins.lobe-activator.apiName.activateTools": "Attiva Strumenti",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} non trovati",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Ottieni modelli disponibili",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Ottieni Competenze disponibili",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "Ottieni configurazione",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
|
||||
"kimicodingplan.description": "Kimi Code di Moonshot AI offre accesso ai modelli Kimi, inclusi K2.5, per attività di codifica.",
|
||||
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
|
||||
"lobehub.description": "LobeHub Cloud utilizza API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo con Crediti legati ai token dei modelli.",
|
||||
"longcat.description": "LongCat è una serie di modelli AI generativi di grandi dimensioni sviluppati indipendentemente da Meituan. È progettato per migliorare la produttività interna dell'azienda e consentire applicazioni innovative attraverso un'architettura computazionale efficiente e potenti capacità multimodali.",
|
||||
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
|
||||
"minimaxcodingplan.description": "Il piano di token MiniMax offre accesso ai modelli MiniMax, inclusi M2.7, per attività di codifica tramite un abbonamento a tariffa fissa.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Spark fornisce AI multilingue potente in vari settori, abilitando innovazioni in hardware intelligente, sanità, finanza e altri verticali.",
|
||||
"stepfun.description": "I modelli Stepfun offrono capacità multimodali e di ragionamento complesse all'avanguardia, con comprensione di contesti lunghi e potente orchestrazione di ricerca autonoma.",
|
||||
"straico.description": "Straico semplifica l'integrazione dell'IA offrendo uno spazio di lavoro unificato che riunisce i migliori modelli generativi di IA per testo, immagini e audio, offrendo a marketer, imprenditori e appassionati un accesso senza soluzione di continuità a diversi strumenti di IA.",
|
||||
"streamlake.description": "StreamLake è una piattaforma enterprise di servizi di modelli e cloud di calcolo AI, che integra inferenza di modelli ad alte prestazioni, personalizzazione dei modelli a basso costo e servizi completamente gestiti per aiutare le aziende a concentrarsi sull’innovazione delle applicazioni AI senza doversi preoccupare della complessità e dei costi delle risorse di calcolo sottostanti.",
|
||||
"taichu.description": "Un modello multimodale di nuova generazione sviluppato da CASIA e Wuhan Institute of AI, che supporta QA multi-turno, scrittura, generazione di immagini, comprensione 3D e analisi di segnali con maggiore cognizione e creatività.",
|
||||
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fornisce QA end-to-end per imprese e sviluppatori, con servizi modulari come parsing documenti, suddivisione, embedding e riscrittura multi-turno per creare soluzioni AI personalizzate.",
|
||||
"togetherai.description": "Together AI offre prestazioni leader con modelli innovativi, ampia personalizzazione, scalabilità rapida e distribuzione semplice per esigenze aziendali.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "Strumenti di Sistema",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - strumento veloce per la ricerca nel codice",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - CLI per l'automazione del browser senza interfaccia grafica per agenti AI",
|
||||
"settingSystemTools.tools.bun.desc": "Bun - runtime JavaScript e gestore di pacchetti veloce",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx - esecutore di pacchetti Bun per l’esecuzione di pacchetti npm",
|
||||
"settingSystemTools.tools.fd.desc": "fd - alternativa veloce e intuitiva a find",
|
||||
"settingSystemTools.tools.find.desc": "find di Unix - comando standard per la ricerca di file",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - strumento standard per la ricerca di testo",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - gestisci e connetti i servizi LobeHub",
|
||||
"settingSystemTools.tools.mdfind.desc": "Ricerca Spotlight di macOS (ricerca indicizzata veloce)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - runtime JavaScript per l'esecuzione di JS/TS",
|
||||
"settingSystemTools.tools.npm.desc": "npm - gestore di pacchetti Node.js per installare le dipendenze",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm - gestore di pacchetti veloce ed efficiente in termini di spazio su disco",
|
||||
"settingSystemTools.tools.python.desc": "Python - runtime del linguaggio di programmazione",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - strumento estremamente veloce per la ricerca di testo",
|
||||
"settingSystemTools.tools.uv.desc": "uv - gestore di pacchetti Python estremamente veloce",
|
||||
"settingTTS.openai.sttModel": "Modello OpenAI per Riconoscimento Vocale",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "Modello OpenAI per Sintesi Vocale",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "Modello",
|
||||
"systemAgent.inputCompletion.modelDesc": "Modello utilizzato per i suggerimenti di completamento automatico dell'input (come il testo fantasma di GitHub Copilot)",
|
||||
"systemAgent.inputCompletion.title": "Agente di Completamento Automatico dell'Input",
|
||||
"systemAgent.promptRewrite.label": "Modello",
|
||||
"systemAgent.promptRewrite.modelDesc": "Specifica il modello utilizzato per riscrivere i prompt",
|
||||
"systemAgent.promptRewrite.title": "Agente di Riscrittura Prompt",
|
||||
"systemAgent.queryRewrite.label": "Modello",
|
||||
"systemAgent.queryRewrite.modelDesc": "Specifica il modello utilizzato per ottimizzare le richieste degli utenti",
|
||||
"systemAgent.queryRewrite.title": "Agente Riscrittura Richieste Libreria",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "Carica un file locale .zip o .skill",
|
||||
"tab.usage": "Statistiche di Utilizzo",
|
||||
"tools.add": "Aggiungi Competenza",
|
||||
"tools.builtins.find-skills.description": "Aiuta gli utenti a scoprire e installare competenze dell’agente quando chiedono \"come faccio a X\", \"trova una skill per X\" o vogliono estendere le funzionalità",
|
||||
"tools.builtins.find-skills.title": "Trova Skill",
|
||||
"tools.builtins.groupName": "Integrati",
|
||||
"tools.builtins.install": "Installa",
|
||||
"tools.builtins.installed": "Installato",
|
||||
"tools.builtins.lobe-activator.description": "Scopri e attiva strumenti e skill",
|
||||
"tools.builtins.lobe-activator.title": "Attivatore di Strumenti e Skill",
|
||||
"tools.builtins.lobe-agent-browser.description": "CLI di automazione del browser per agenti AI. Da utilizzare per attività che coinvolgono interazioni con siti web o Electron come navigazione, compilazione di moduli, clic, cattura di screenshot, scraping di dati, flussi di login e test end‑to‑end.",
|
||||
"tools.builtins.lobe-agent-browser.title": "Browser Agente",
|
||||
"tools.builtins.lobe-agent-builder.description": "Configura i metadati dell’agente, le impostazioni del modello, i plugin e il system prompt",
|
||||
"tools.builtins.lobe-agent-builder.title": "Costruttore Agente",
|
||||
"tools.builtins.lobe-agent-documents.description": "Gestisci documenti associati all’agente (elenca, crea, leggi, modifica, rimuovi, rinomina) e le regole di caricamento",
|
||||
"tools.builtins.lobe-agent-documents.title": "Documenti",
|
||||
"tools.builtins.lobe-agent-management.description": "Crea, gestisci e organizza agenti AI",
|
||||
"tools.builtins.lobe-agent-management.title": "Gestione Agente",
|
||||
"tools.builtins.lobe-artifacts.description": "Genera e visualizza in anteprima componenti UI interattivi, grafici e contenuti web",
|
||||
"tools.builtins.lobe-artifacts.readme": "Genera e visualizza in anteprima componenti UI interattivi, visualizzazioni di dati, grafici, grafica SVG e applicazioni web. Crea contenuti visivi ricchi con cui gli utenti possono interagire direttamente.",
|
||||
"tools.builtins.lobe-artifacts.title": "Artefatti",
|
||||
"tools.builtins.lobe-brief.description": "Riporta i progressi, fornisce risultati e richiede decisioni all’utente",
|
||||
"tools.builtins.lobe-brief.title": "Strumenti di Brief",
|
||||
"tools.builtins.lobe-calculator.description": "Esegui calcoli matematici, risolvi equazioni e lavora con espressioni simboliche",
|
||||
"tools.builtins.lobe-calculator.readme": "Calcolatrice matematica avanzata che supporta aritmetica di base, equazioni algebriche, operazioni di calcolo e matematica simbolica. Include conversione di basi, risoluzione di equazioni, differenziazione, integrazione e altro.",
|
||||
"tools.builtins.lobe-calculator.title": "Calcolatrice",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "Esegui codice, comandi e gestisci file in un ambiente cloud sicuro",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "Esegui codice Python, JavaScript e TypeScript in un ambiente cloud isolato. Esegui comandi shell, gestisci file, cerca contenuti con espressioni regolari ed esporta i risultati in modo sicuro.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "Sandbox Cloud",
|
||||
"tools.builtins.lobe-creds.description": "Gestisci le credenziali utente per autenticazione, inserimento di variabili d’ambiente e verifica delle API — gestisci API key, token OAuth e segreti per integrazioni di terze parti.",
|
||||
"tools.builtins.lobe-creds.title": "Credenziali",
|
||||
"tools.builtins.lobe-cron.description": "Gestisci attività pianificate che vengono eseguite automaticamente in orari specifici. Crea, aggiorna, abilita/disabilita e monitora attività ricorrenti per i tuoi agenti.",
|
||||
"tools.builtins.lobe-cron.title": "Attività Pianificate",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "Configura i metadati dei gruppi, i membri e i contenuti condivisi per gruppi multi‑agente",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "Costruttore Gruppo Agente",
|
||||
"tools.builtins.lobe-group-management.description": "Organizza e gestisci conversazioni di gruppi multi‑agente",
|
||||
"tools.builtins.lobe-group-management.title": "Gestione Gruppo",
|
||||
"tools.builtins.lobe-gtd.description": "Pianifica obiettivi e monitora i progressi con il metodo GTD",
|
||||
"tools.builtins.lobe-gtd.readme": "Pianifica obiettivi e monitora i progressi utilizzando il metodo GTD. Crea piani strategici, gestisci liste di cose da fare con tracciamento dello stato ed esegui attività asincrone di lunga durata.",
|
||||
"tools.builtins.lobe-gtd.title": "Strumenti GTD",
|
||||
"tools.builtins.lobe-knowledge-base.description": "Cerca documenti caricati e conoscenze di dominio tramite ricerca vettoriale semantica — per riferimenti persistenti e riutilizzabili",
|
||||
"tools.builtins.lobe-knowledge-base.title": "Base di Conoscenza",
|
||||
"tools.builtins.lobe-local-system.description": "Accedi e gestisci file locali, esegui comandi shell sul tuo desktop",
|
||||
"tools.builtins.lobe-local-system.readme": "Accedi al file system locale sul desktop. Leggi, scrivi, cerca e organizza file. Esegui comandi shell con supporto per attività in background e cerca contenuti con pattern regex.",
|
||||
"tools.builtins.lobe-local-system.title": "Sistema Locale",
|
||||
"tools.builtins.lobe-message.description": "Invia, leggi, modifica e gestisci messaggi su più piattaforme tramite un’interfaccia unificata",
|
||||
"tools.builtins.lobe-message.readme": "Strumento di messaggistica multipiattaforma che supporta Discord, Telegram, Slack, Google Chat e IRC. Fornisce API unificate per operazioni sui messaggi, reazioni, pin, thread, gestione dei canali e funzionalità specifiche come i sondaggi.",
|
||||
"tools.builtins.lobe-message.title": "Messaggi",
|
||||
"tools.builtins.lobe-notebook.description": "Crea e gestisci documenti nel taccuino tematico",
|
||||
"tools.builtins.lobe-notebook.readme": "Crea e gestisci documenti persistenti all'interno di argomenti di conversazione. Salva note, report, articoli e contenuti markdown accessibili tra le sessioni.",
|
||||
"tools.builtins.lobe-notebook.title": "Taccuino",
|
||||
"tools.builtins.lobe-page-agent.description": "Crea, leggi, aggiorna ed elimina nodi in documenti strutturati XML",
|
||||
"tools.builtins.lobe-page-agent.readme": "Crea e modifica documenti strutturati con controllo preciso a livello di nodo. Inizializza da Markdown, esegui operazioni in batch di inserimento/modifica/rimozione e trova‑e‑sostituisci testo nei documenti.",
|
||||
"tools.builtins.lobe-page-agent.title": "Documento",
|
||||
"tools.builtins.lobe-remote-device.description": "Scopri e gestisci connessioni a dispositivi desktop remoti",
|
||||
"tools.builtins.lobe-remote-device.readme": "Gestisci le connessioni ai tuoi dispositivi desktop. Elenca i dispositivi online, attiva un dispositivo per operazioni remote e verifica lo stato della connessione.",
|
||||
"tools.builtins.lobe-remote-device.title": "Dispositivo Remoto",
|
||||
"tools.builtins.lobe-skill-store.description": "Esplora e installa skill per agenti dal marketplace LobeHub. Utile quando servono funzionalità estese o si desidera installare una skill specifica.",
|
||||
"tools.builtins.lobe-skill-store.title": "Skill Store",
|
||||
"tools.builtins.lobe-skills.description": "Attiva e utilizza pacchetti di skill riutilizzabili",
|
||||
"tools.builtins.lobe-skills.title": "Skill",
|
||||
"tools.builtins.lobe-task.description": "Crea, elenca, modifica e cancella attività con dipendenze e configurazione di revisione",
|
||||
"tools.builtins.lobe-task.title": "Strumenti di Attività",
|
||||
"tools.builtins.lobe-topic-reference.description": "Recupera contesto da conversazioni su argomenti di riferimento",
|
||||
"tools.builtins.lobe-topic-reference.title": "Riferimento Argomenti",
|
||||
"tools.builtins.lobe-user-interaction.description": "Poni domande agli utenti tramite interazioni UI e osservane gli esiti",
|
||||
"tools.builtins.lobe-user-interaction.title": "Interazione Utente",
|
||||
"tools.builtins.lobe-user-memory.description": "Ricorda preferenze, attività ed esperienze dell'utente nelle conversazioni",
|
||||
"tools.builtins.lobe-user-memory.readme": "Costruisci una base di conoscenza personalizzata su di te. Ricorda preferenze, traccia attività ed esperienze, memorizza informazioni sull'identità e richiama contesti rilevanti nelle conversazioni future.",
|
||||
"tools.builtins.lobe-user-memory.title": "Memoria",
|
||||
"tools.builtins.lobe-web-browsing.description": "Cerca informazioni aggiornate sul web ed esplora pagine per estrarre contenuti. Supporta più motori di ricerca, categorie e intervalli temporali.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "Cerca informazioni aggiornate sul web ed esplora pagine per estrarre contenuti. Supporta diversi motori di ricerca, categorie e intervalli temporali per ricerche approfondite.",
|
||||
"tools.builtins.lobe-web-browsing.title": "Navigazione Web",
|
||||
"tools.builtins.lobe-web-onboarding.description": "Gestisci il flusso di onboarding web con un runtime agente controllato",
|
||||
"tools.builtins.lobe-web-onboarding.title": "Onboarding Web",
|
||||
"tools.builtins.lobehub.description": "Gestisci la piattaforma LobeHub tramite CLI — basi di conoscenza, memoria, agenti, file, ricerca, generazione e altro.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "Non installato",
|
||||
"tools.builtins.task.description": "Gestione ed esecuzione di attività — crea, traccia, rivedi e completa attività tramite CLI.",
|
||||
"tools.builtins.task.title": "Attività",
|
||||
"tools.builtins.uninstall": "Disinstalla",
|
||||
"tools.builtins.uninstallConfirm.desc": "Sei sicuro di voler disinstallare {{name}}? Questa funzione verrà rimossa dall'agente attuale.",
|
||||
"tools.builtins.uninstallConfirm.title": "Disinstalla {{name}}",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "Disconnettere {{name}}?",
|
||||
"tools.lobehubSkill.disconnected": "Disconnesso",
|
||||
"tools.lobehubSkill.error": "Errore",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub è una piattaforma per il controllo versione e la collaborazione, che permette agli sviluppatori di ospitare, rivedere e gestire repository di codice.",
|
||||
"tools.lobehubSkill.providers.github.readme": "Connettiti a GitHub per accedere ai tuoi repository, creare e gestire issue, rivedere pull request e collaborare al codice — tutto tramite conversazioni naturali con il tuo assistente AI.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear è uno strumento moderno per il tracciamento dei problemi e la gestione dei progetti, progettato per team ad alte prestazioni che vogliono sviluppare software migliori più velocemente",
|
||||
"tools.lobehubSkill.providers.linear.readme": "Porta la potenza di Linear direttamente nel tuo assistente IA. Crea e aggiorna issue, gestisci sprint, monitora l'avanzamento dei progetti e ottimizza il flusso di lavoro di sviluppo—tutto tramite conversazioni naturali.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar è uno strumento di pianificazione integrato in Microsoft Outlook che consente agli utenti di creare appuntamenti, organizzare riunioni e gestire efficacemente il proprio tempo.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "Integra con Outlook Calendar per visualizzare, creare e gestire eventi senza interruzioni. Pianifica riunioni, controlla disponibilità, imposta promemoria e coordina il tuo tempo—tutto tramite comandi in linguaggio naturale.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (Twitter) è una piattaforma di social media per condividere aggiornamenti in tempo reale, notizie e interagire con il tuo pubblico tramite post, risposte e messaggi diretti.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "Connettiti a X (Twitter) per pubblicare tweet, gestire la tua timeline e interagire con il tuo pubblico. Crea contenuti, programma post, monitora menzioni e costruisci la tua presenza sui social media tramite IA conversazionale.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel è una piattaforma cloud per sviluppatori frontend, che offre hosting e funzioni serverless per distribuire applicazioni web con facilità.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "Connettiti a Vercel per gestire le tue distribuzioni, monitorare lo stato dei progetti e controllare l’infrastruttura. Distribuisci applicazioni, controlla i log di build, gestisci variabili d’ambiente e scala i tuoi progetti tramite AI conversazionale.",
|
||||
"tools.notInstalled": "Non Installato",
|
||||
"tools.notInstalledWarning": "Questa competenza non è attualmente installata, il che potrebbe influire sulla funzionalità dell'agente.",
|
||||
"tools.plugins.enabled": "Abilitati: {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "Fotogramma Iniziale",
|
||||
"config.prompt.placeholder": "Descrivi il video che vuoi generare",
|
||||
"config.prompt.placeholderWithRef": "Descrivi la scena che vuoi generare con l'immagine",
|
||||
"config.promptExtend.label": "Estensione del prompt",
|
||||
"config.referenceImage.label": "Immagine di Riferimento",
|
||||
"config.resolution.label": "Risoluzione",
|
||||
"config.seed.label": "Seed",
|
||||
"config.seed.random": "Casuale",
|
||||
"config.size.label": "Dimensione",
|
||||
"config.watermark.label": "Filigrana",
|
||||
"config.webSearch.label": "Ricerca web",
|
||||
"generation.actions.copyError": "Copia Messaggio di Errore",
|
||||
"generation.actions.errorCopied": "Messaggio di Errore Copiato negli Appunti",
|
||||
"generation.actions.errorCopyFailed": "Copia del Messaggio di Errore Fallita",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "ボットが正常に接続されました",
|
||||
"channel.connecting": "接続中...",
|
||||
"channel.connectionConfig": "接続設定",
|
||||
"channel.connectionMode": "接続モード",
|
||||
"channel.connectionModeHint": "新しいボットには WebSocket を推奨します。すでに QQ オープンプラットフォームでコールバック URL を設定済みの場合は Webhook を使用してください。",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "クリップボードにコピーしました",
|
||||
"channel.copy": "コピー",
|
||||
"channel.credentials": "認証情報",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "このURLをコピーして、{{name}}開発者ポータルの<bold>{{fieldName}}</bold>フィールドに貼り付けてください。",
|
||||
"channel.exportConfig": "設定をエクスポート",
|
||||
"channel.feishu.description": "このアシスタントをFeishuに接続して、プライベートチャットやグループチャットを利用します。",
|
||||
"channel.feishu.webhookMigrationDesc": "WebSocket モードでは、公開コールバック URL を必要とせず、リアルタイムでイベントを受信できます。移行するには、詳細設定で接続モードを WebSocket に切り替えてください。Feishu/Lark オープンプラットフォーム側での追加設定は不要です。",
|
||||
"channel.feishu.webhookMigrationTitle": "WebSocket モードへの移行をご検討ください",
|
||||
"channel.historyLimit": "履歴メッセージの制限",
|
||||
"channel.historyLimitHint": "チャンネル履歴を読む際に取得するデフォルトのメッセージ数",
|
||||
"channel.importConfig": "設定をインポート",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "インタラクション検証に必要",
|
||||
"channel.qq.appIdHint": "QQオープンプラットフォームから取得したQQボットのアプリID",
|
||||
"channel.qq.description": "このアシスタントをQQに接続して、グループチャットやダイレクトメッセージを利用しましょう。",
|
||||
"channel.qq.webhookMigrationDesc": "WebSocket モードでは、コールバック URL を必要とせず、リアルタイムのイベント配信と自動再接続が可能です。移行するには、QQ オープンプラットフォームで新しいボットを作成し、コールバック URL を設定せずに、詳細設定で接続モードを WebSocket に切り替えてください。",
|
||||
"channel.qq.webhookMigrationTitle": "WebSocket モードへの移行をご検討ください",
|
||||
"channel.removeChannel": "チャンネルを削除",
|
||||
"channel.removeFailed": "チャンネルの削除に失敗しました",
|
||||
"channel.removed": "チャンネルが削除されました",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "署名シークレット",
|
||||
"channel.signingSecretHint": "Webhookリクエストを検証するために使用されます。",
|
||||
"channel.slack.appIdHint": "Slack APIダッシュボードから取得したSlack App ID (Aで始まります)。",
|
||||
"channel.slack.appToken": "アプリレベルトークン",
|
||||
"channel.slack.appTokenHint": "Socket Mode(WebSocket)に必要です。Slack アプリ設定の「Basic Information」からアプリレベルトークン(xapp-...)を生成してください。",
|
||||
"channel.slack.description": "このアシスタントをSlackに接続して、チャンネル会話やダイレクトメッセージを行います。",
|
||||
"channel.slack.webhookMigrationDesc": "Socket Mode では、公開 HTTP エンドポイントを使わずに WebSocket 経由でリアルタイムにイベントを受信できます。移行するには、Slack アプリ設定で Socket Mode を有効にし、アプリレベルトークンを生成してから、詳細設定で接続モードを WebSocket に切り替えてください。",
|
||||
"channel.slack.webhookMigrationTitle": "Socket Mode(WebSocket)への移行をご検討ください",
|
||||
"channel.telegram.description": "このアシスタントをTelegramに接続して、プライベートチャットやグループチャットを利用します。",
|
||||
"channel.testConnection": "接続テスト",
|
||||
"channel.testFailed": "接続テストに失敗しました",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "グループが削除されました",
|
||||
"confirmRemoveSessionItemAlert": "このアシスタントを削除してもよろしいですか?削除後は復元できません",
|
||||
"confirmRemoveSessionSuccess": "アシスタントが削除されました",
|
||||
"createModal.createBlank": "空白を作成",
|
||||
"createModal.groupPlaceholder": "このグループが何をするか説明してください…",
|
||||
"createModal.groupTitle": "グループは何をすべきですか?",
|
||||
"createModal.placeholder": "エージェントが何をするか説明してください…",
|
||||
"createModal.title": "エージェントは何をすべきですか?",
|
||||
"defaultAgent": "カスタムアシスタント",
|
||||
"defaultGroupChat": "グループ",
|
||||
"defaultList": "デフォルトリスト",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "コンテキストが長すぎるため、履歴を圧縮しています...",
|
||||
"operation.execAgentRuntime": "応答を準備中",
|
||||
"operation.execClientTask": "タスクを実行中",
|
||||
"operation.execServerAgentRuntime": "実行中… 別の作業に切り替えたりページを閉じても、タスクは継続します。",
|
||||
"operation.sendMessage": "メッセージを送信中",
|
||||
"owner": "グループオーナー",
|
||||
"pageCopilot.title": "ドキュメントコパイロット",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "詳細を取得中...",
|
||||
"task.status.initializing": "タスクを起動中…",
|
||||
"task.subtask": "サブタスク",
|
||||
"task.title": "タスク",
|
||||
"thread.divider": "サブトピック",
|
||||
"thread.threadMessageCount": "{{messageCount}} 件のメッセージ",
|
||||
"thread.title": "サブトピック",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "アシスタントのスキル承認を完了してください",
|
||||
"topic.checkOpenNewTopic": "新しいトピックを開きますか?",
|
||||
"topic.checkSaveCurrentMessages": "現在の会話をトピックとして保存しますか?",
|
||||
"topic.defaultTitle": "無題のトピック",
|
||||
"topic.openNewTopic": "新しいトピックを開く",
|
||||
"topic.recent": "最近のトピック",
|
||||
"topic.saveCurrentMessages": "トピックとして保存",
|
||||
"topic.viewAll": "すべてのトピックを表示",
|
||||
"translate.action": "翻訳",
|
||||
"translate.clear": "翻訳を削除",
|
||||
"tts.action": "音声読み上げ",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "メールサポート",
|
||||
"more": "もっと見る",
|
||||
"navPanel.agent": "アシスタント",
|
||||
"navPanel.customizeSidebar": "サイドバーをカスタマイズ",
|
||||
"navPanel.displayItems": "項目を表示",
|
||||
"navPanel.hidden": "非表示",
|
||||
"navPanel.hideSection": "セクションを非表示",
|
||||
"navPanel.library": "ライブラリ",
|
||||
"navPanel.moveDown": "下へ移動",
|
||||
"navPanel.moveUp": "上へ移動",
|
||||
"navPanel.pinned": "固定",
|
||||
"navPanel.searchAgent": "アシスタントを検索…",
|
||||
"navPanel.searchRecent": "最近の検索...",
|
||||
"navPanel.searchResultEmpty": "検索結果がありません",
|
||||
"navPanel.show": "表示",
|
||||
"navPanel.visible": "表示中",
|
||||
"new": "新規",
|
||||
"noContent": "コンテンツがありません",
|
||||
"oauth": "SSO ログイン",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "応援する",
|
||||
"productHunt.description": "Product Huntで私たちを応援してください。皆さまのサポートが大きな力になります!",
|
||||
"productHunt.title": "Product Huntに掲載されました!",
|
||||
"promptTransform.action": "アイデアを洗練",
|
||||
"promptTransform.actions.rewrite": "詳細を展開",
|
||||
"promptTransform.actions.translate": "翻訳",
|
||||
"promptTransform.status.rewrite": "詳細を展開しています...",
|
||||
"promptTransform.status.translate": "翻訳しています...",
|
||||
"recents": "最近",
|
||||
"regenerate": "再生成",
|
||||
"releaseNotes": "バージョン詳細",
|
||||
"rename": "名前を変更",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "オーディオ",
|
||||
"tab.chat": "チャット",
|
||||
"tab.community": "コミュニティ",
|
||||
"tab.create": "作成",
|
||||
"tab.discover": "発見",
|
||||
"tab.eval": "評価ラボ",
|
||||
"tab.files": "ファイル",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "モデル",
|
||||
"config.prompt.placeholder": "生成したい内容を記述してください",
|
||||
"config.prompt.placeholderWithRef": "画像をどのように調整したいか説明してください",
|
||||
"config.promptExtend.label": "プロンプト拡張",
|
||||
"config.quality.label": "画像品質",
|
||||
"config.quality.options.hd": "高精細",
|
||||
"config.quality.options.standard": "標準",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "サイズ",
|
||||
"config.steps.label": "ステップ数",
|
||||
"config.title": "設定",
|
||||
"config.watermark.label": "ウォーターマーク",
|
||||
"config.webSearch.label": "ウェブ検索",
|
||||
"config.width.label": "幅",
|
||||
"generation.actions.applySeed": "シードを適用する",
|
||||
"generation.actions.copyError": "エラー情報をコピー",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "アシスタントのメッセージとそのツール呼び出し結果をグループ化して表示します",
|
||||
"features.assistantMessageGroup.title": "アシスタントメッセージのグループ化表示",
|
||||
"features.gatewayMode.desc": "エージェントのタスクをローカルではなく Gateway WebSocket を介してサーバー上で実行します。これにより、より高速な処理が可能になり、クライアント側のリソース消費を削減できます。",
|
||||
"features.gatewayMode.title": "サーバーサイドエージェント実行(Gateway)",
|
||||
"features.groupChat.desc": "複数のAIアシスタントによるグループチャット機能を有効にします。",
|
||||
"features.groupChat.title": "グループチャット(マルチアシスタント)",
|
||||
"features.inputMarkdown.desc": "入力エリアでMarkdown(太字、コードブロック、表など)をリアルタイムでレンダリングします。",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "中国国内でトップクラスの性能を誇り、知識、長文生成、創造的生成などの中国語タスクで海外の主要モデルを上回ります。業界最先端のマルチモーダル機能も備え、権威あるベンチマークで高評価を獲得しています。",
|
||||
"Baichuan4.description": "中国国内で最高レベルの性能を持ち、百科事典的知識、長文生成、創造的生成などの中国語タスクで海外の主要モデルを上回ります。業界最先端のマルチモーダル機能と優れたベンチマーク結果も提供します。",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSSは、ByteDance Seedが開発したオープンソースのLLMファミリーで、長文処理、推論、エージェント、汎用能力に優れています。Seed-OSS-36B-Instructは、36Bの命令調整済みモデルで、超長文コンテキストにネイティブ対応し、大規模な文書やコードベースの処理に最適です。推論、コード生成、エージェントタスク(ツール使用)に最適化され、汎用能力も維持しています。特徴的な「Thinking Budget」機能により、柔軟な推論長を実現し、効率を向上させます。",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR は、DeepSeek AI による OCR と「コンテキスト光学圧縮」に特化したビジョン・ランゲージモデルです。画像から文脈を圧縮して抽出し、文書を効率的に処理して構造化テキスト(例:Markdown)へ変換します。画像内文字の高精度認識に優れ、文書のデジタル化、テキスト抽出、構造化処理に適しています。",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1は、DeepSeekスイートの中でより大規模かつ高性能なモデルであり、Llama 70Bアーキテクチャに蒸留されています。ベンチマークと人間による評価により、特に数学や事実精度のタスクで、ベースのLlama 70Bよりも優れていることが示されています。",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Qwen2.5-Math-1.5BをベースにしたDeepSeek-R1蒸留モデル。強化学習とコールドスタートデータにより推論性能を最適化し、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てています。",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distillモデルは、DeepSeek-R1によって生成されたサンプルデータを用いて、オープンソースモデルから微調整されています。",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "提供元:sophnet。DeepSeek V3 Fastは、DeepSeek V3 0324の高TPSバージョンで、フル精度(非量子化)により、コードと数学に強く、応答も高速です。",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fastは、DeepSeek V3.1の高TPS高速バリアントです。ハイブリッド思考モードにより、1つのモデルで思考と非思考の両方をサポート。ポストトレーニングにより、ツールとエージェントタスクの性能が向上しています。",
|
||||
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1の思考モード:思考と非思考の両モードを備えた新しいハイブリッド推論モデルで、DeepSeek-R1-0528よりも効率的です。ポストトレーニングの最適化により、エージェントのツール使用とタスク性能が大幅に向上しています。",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2 はスパースアテンション機構を導入し、長文処理における学習と推論の効率を向上させています。また、deepseek-v3.1 より低価格で提供されます。",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3は、DeepSeekが開発したMoEモデルで、Qwen2.5-72BやLlama-3.1-405Bなどの他のオープンモデルを多くのベンチマークで上回り、GPT-4oやClaude 3.5 Sonnetなどの主要なクローズドモデルと競合します。",
|
||||
"Doubao-lite-128k.description": "Doubao-lite は、超高速な応答と優れたコストパフォーマンスを提供し、さまざまなシナリオに柔軟に対応します。推論とファインチューニングに対応した128Kコンテキストをサポートします。",
|
||||
"Doubao-lite-32k.description": "Doubao-lite は、超高速な応答と優れたコストパフォーマンスを提供し、さまざまなシナリオに柔軟に対応します。推論とファインチューニングに対応した32Kコンテキストをサポートします。",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: 推論、コーディング、エージェントタスク向けの高性能モデル。",
|
||||
"GLM-4.6.description": "GLM-4.6: 前世代モデル。",
|
||||
"GLM-4.7.description": "GLM-4.7は智譜の最新フラッグシップモデルで、エージェンティックコーディングシナリオ向けに強化され、コーディング能力、長期タスク計画、ツール連携が向上しています。",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: コーディングタスク向けに推論速度を最適化したGLM-5の改良版。",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo はエージェントシナリオに最適化された基盤モデルです。学習段階からツール呼び出し、コマンド実行、長いタスクチェーン処理など、エージェントに必要な能力を強化しており、高性能なエージェントアシスタントの構築に最適です。",
|
||||
"GLM-5.1.description": "GLM-5.1はZhipuの最新フラッグシップモデルであり、GLM-5の強化版です。複雑なシステムエンジニアリングや長期的なタスクにおけるエージェント工学能力が向上しています。",
|
||||
"GLM-5.description": "GLM-5は智譜の次世代フラッグシップ基盤モデルで、エージェンティックエンジニアリング向けに特化されています。複雑なシステムエンジニアリングや長期的なエージェンティックタスクにおいて信頼性の高い生産性を提供します。コーディングとエージェント能力において、GLM-5はオープンソースモデルの中で最先端の性能を達成しています。",
|
||||
"GLM-5.description": "GLM-5 は Zhipu の次世代フラッグシップ基盤モデルで、エージェント工学向けに設計されています。複雑なシステムエンジニアリングや長期的なエージェントタスクにおいて高い生産性を発揮します。コーディングやエージェント能力ではオープンソースモデルの中で最先端の性能を示し、実際のプログラミング環境では Claude Opus 4.5 に匹敵するユーザー体験を提供します。汎用エージェントアシスタントの基盤モデルとして理想的です。",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2(13B)は、多様な分野と複雑なタスクに対応する革新的なモデルです。",
|
||||
"HY-Image-V3.0.description": "強力なオリジナル画像の特徴抽出と詳細保持機能により、より豊かな視覚的テクスチャを提供し、高精度で構図の優れた、プロダクション品質のビジュアルを生成します。",
|
||||
"HelloMeme.description": "HelloMeme は、提供された画像や動作からミーム、GIF、ショート動画を生成するAIツールです。絵を描くスキルやコーディングスキルは不要で、参照画像を用意するだけで、楽しく魅力的でスタイルの一貫したコンテンツを作成できます。",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter は、Tencent AI により2025年にリリースされたチューニング不要のパーソナライズキャラクター生成モデルで、高忠実度かつシナリオを超えた一貫性のあるキャラクター生成を目指しています。1枚の参照画像からキャラクターをモデリングし、スタイル、動作、背景を柔軟に変換できます。",
|
||||
"InternVL2-8B.description": "InternVL2-8B は、マルチモーダルな画像・テキスト処理をサポートする強力なビジョン・ランゲージモデルで、画像内容の正確な認識と関連する説明や回答の生成が可能です。",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B は、マルチモーダルな画像・テキスト処理をサポートする強力なビジョン・ランゲージモデルで、画像内容の正確な認識と関連する説明や回答の生成が可能です。",
|
||||
"KAT-Coder-Air-V1.description": "KAT-Coder シリーズの軽量版で、エージェントコーディング向けに特化されています。多様なプログラミングタスクとシナリオを幅広くカバーし、大規模エージェント強化学習により知的行動の創発を実現し、同等モデルを大きく上回るコーディング性能を発揮します。",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B は KAT-Coder シリーズの強化学習実験モデルで、SWE-Bench verified ベンチマークで 74.6% の記録的性能を達成し、オープンソースモデルの新記録を樹立しました。エージェントコーディングに特化しており、現在は SWE-Agent フレームワークのみをサポートしますが、簡単な対話にも利用できます。",
|
||||
"KAT-Coder-Pro-V1.description": "エージェントコーディング向けに設計され、幅広いプログラミングシナリオとタスクをカバーします。大規模強化学習により知的行動を創発し、類似モデルを大きく上回るコード生成性能を実現します。",
|
||||
"KAT-Coder-Pro-V2.description": "Kuaishou Kwaipilot チームによる最新の高性能モデルで、複雑な企業向けプロジェクトや SaaS 統合を想定して設計されています。コード関連シナリオに強く、Claude Code、OpenCode、KiloCode などの各種エージェントフレームワークに対応し、OpenClaw をネイティブサポートします。また、フロントエンドのデザイン美観にも特化して最適化されています。",
|
||||
"Kimi-K2.5.description": "Kimi K2.5 は Kimi シリーズで最も高性能なモデルで、エージェントタスク、コーディング、画像理解においてオープンソース最先端性能を発揮します。マルチモーダル入力に対応し、思考モードと非思考モードの両方をサポートします。",
|
||||
"Kolors.description": "Kolors は、Kuaishou Kolors チームによって開発されたテキストから画像への生成モデルで、数十億のパラメータで訓練され、視覚品質、中国語の意味理解、テキスト描画において顕著な強みを持ちます。",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors は、Kuaishou Kolors チームによる大規模潜在拡散型テキストから画像への生成モデルで、数十億のテキスト・画像ペアで訓練され、視覚品質、複雑な意味の正確性、中国語・英語のテキスト描画に優れ、中国語コンテンツの理解と生成に強みを持ちます。",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev(32B)は、ソフトウェアエンジニアリングタスク向けのオープンソース32Bモデルで、SWE-Bench Verified において62.4%の解決率を達成し、オープンモデル中で第5位にランクインしています。中間訓練、SFT、RL によって最適化され、コード補完、バグ修正、コードレビューに対応します。",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "優れた言語理解、推論、テキスト生成能力を備えた最先端の小型言語モデルです。",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 は、最も高度な多言語対応のオープンソース Llama モデルで、非常に低コストで 405B に近い性能を発揮します。Transformer ベースで、SFT と RLHF により有用性と安全性が向上しています。命令調整版は多言語チャットに最適化され、業界ベンチマークで多くのオープン・クローズドモデルを上回ります。知識カットオフ:2023年12月。",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick は、効率的なエキスパート活性化により強力な推論性能を実現する大規模 MoE モデルです。",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro は実世界の高負荷エージェントワークフロー向けに設計されています。総パラメータは 1 兆超(42B アクティブ)で、革新的なハイブリッドアテンション構造を採用し、最大 100 万トークンの超長コンテキストをサポートします。強力な基盤モデルをもとに、幅広いエージェントシナリオで計算資源を拡張し、知能の行動範囲を拡大して、コーディングから実世界タスク実行(「claw」)まで高い汎化能力を発揮します。",
|
||||
"MiniMax-Hailuo-02.description": "次世代ビデオ生成モデル「MiniMax Hailuo 02」が正式リリースされ、1080P解像度と10秒間のビデオ生成をサポート。",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "身体動作、物理的リアリズム、指示追従性において全面的にアップグレードされた新しいビデオ生成モデル。",
|
||||
"MiniMax-Hailuo-2.3.description": "身体動作、物理的リアリズム、指示追従性において全面的にアップグレードされた新しいビデオ生成モデル。",
|
||||
"MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。",
|
||||
"MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。",
|
||||
"MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング機能を備え、推論がより高速かつ効率的。",
|
||||
"MiniMax-M2.1-highspeed.description": "強力な多言語プログラミング機能を備え、プログラミング体験を包括的に向上。より高速かつ効率的です。",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1は、MiniMaxが開発したフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスク解決に特化しています。多言語プログラミング能力とエージェントとしての高度なタスク処理能力が主な強みです。",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5と同等の性能で推論速度が向上。",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5は、MiniMaxによるフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスクを解決することに焦点を当てています。その主な強みは、多言語プログラミング能力とエージェントとして複雑なタスクを解決する能力です。",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: M2.7と同等の性能で推論速度が大幅に向上。",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: 再帰的自己改善の旅を開始し、実世界のトップエンジニアリング能力を備えています。",
|
||||
"MiniMax-M2.7.description": "自己進化型モデルの第一弾で、トップクラスのコーディング性能とエージェント能力を備え、約 60 tps の高速性能を発揮します。",
|
||||
"MiniMax-M2.description": "MiniMax M2: 前世代モデル。",
|
||||
"MiniMax-Text-01.description": "MiniMax-01は、従来のTransformerを超える大規模な線形アテンションを導入し、4560億のパラメータと1パスあたり45.9億のアクティブパラメータを持ちます。最大400万トークンのコンテキストをサポートし(GPT-4oの32倍、Claude-3.5-Sonnetの20倍)、最高水準の性能を実現します。",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1はオープンウェイトの大規模ハイブリッドアテンション推論モデルで、総パラメータ数456B、トークンごとに約45.9Bがアクティブです。ネイティブで1Mコンテキストをサポートし、Flash Attentionを使用してDeepSeek R1に比べて100Kトークン生成時のFLOPsを75%削減します。MoEアーキテクチャにCISPOとハイブリッドアテンションRLトレーニングを組み合わせ、長い入力推論や実際のソフトウェアエンジニアリングタスクで優れた性能を発揮します。",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 は、最新かつ最も高性能な Kimi K2 モデルです。1T の総パラメータと 32B のアクティブパラメータを持つ最上位の MoE モデルであり、エージェント型コーディング知能が強化され、ベンチマークおよび実世界のエージェントタスクにおいて大幅な性能向上を実現しています。さらに、フロントエンドのコード美学と使いやすさも改善されています。",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo は、K2 Thinking のマルチステップ推論とツール使用能力を維持しつつ、推論速度とスループットを最適化した Turbo バリアントです。約 1T の総パラメータを持つ MoE モデルで、ネイティブで 256K のコンテキスト長をサポートし、低レイテンシーかつ高同時実行性が求められる本番環境において安定した大規模ツール呼び出しが可能です。",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5は、Kimi-K2-Baseを基盤としたオープンソースのネイティブマルチモーダルエージェントモデルで、約1.5兆の視覚・テキストトークンで訓練されています。MoEアーキテクチャを採用し、総パラメータ数1兆、アクティブパラメータ数32B、256Kのコンテキストウィンドウをサポートし、視覚と言語の理解をシームレスに統合しています。",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1 は MoE(Mixture of Experts)アーキテクチャを採用した次世代フラッグシップモデルで、総パラメータは 754B に達します。プログラミング能力が大幅に強化され、SWE-Bench Pro では最先端の結果を達成し、NL2Repo や Terminal-Bench 2.0 などでも前世代を大きく上回ります。長時間にわたるエージェントタスク向けに設計され、曖昧な質問への判断精度が向上し、複雑タスクの分解、実験実行、結果分析、数百回の反復と数千回のツール呼び出しによる継続的最適化が可能です。",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7は智譜の新世代フラッグシップモデルで、総パラメータ355B、アクティブパラメータ32Bを持ち、一般的な対話、推論、エージェント能力が完全にアップグレードされています。GLM-4.7は交互思考を強化し、保存思考とターンレベル思考を導入しています。",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5は、複雑なシステムエンジニアリングと長期間のエージェントタスクに焦点を当てたZhipuの次世代大規模言語モデルです。モデルパラメータは7440億(アクティブ40億)に拡張され、DeepSeek Sparse Attentionを統合しています。",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ は、推論能力の向上に焦点を当てた実験的研究モデルです。",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507は、高度な推論と指示追従に最適化されており、MoE(Mixture of Experts)を活用して大規模でも効率的な推論を実現します。",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22Bは、思考モードと非思考モードをシームレスに切り替えられるハイブリッド推論モードを導入したMoEモデルです。119の言語と方言に対応した理解と推論をサポートし、ツール呼び出し機能にも優れています。DeepSeek R1、OpenAI o1、o3-mini、Grok 3、Google Gemini 2.5 Proなどの主流モデルと、一般能力、コード・数学、多言語対応、知識推論のベンチマークで競合します。",
|
||||
"Qwen3-32B.description": "Qwen3-32Bは、思考モードと非思考モードを切り替え可能なハイブリッド推論モードを導入した高密度モデルです。アーキテクチャの改良、データの増強、トレーニングの最適化により、Qwen2.5-72Bと同等の性能を発揮します。",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus はテキスト、画像、動画入力に対応します。テキストタスクの性能は Qwen3 Max と同等で、より高性能かつ低コストです。マルチモーダル能力は Qwen3 VL シリーズより大幅に向上しています。",
|
||||
"S2V-01.description": "01シリーズの基盤となる参照からビデオへの変換モデル。",
|
||||
"SenseChat-128K.description": "128Kコンテキストに対応したBase V4モデルで、長文の理解と生成に優れています。",
|
||||
"SenseChat-32K.description": "32Kコンテキストに対応したBase V4モデルで、さまざまなシナリオに柔軟に対応可能です。",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も知的なHaikuモデルで、驚異的な速度と拡張された思考能力を備えています。",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は Anthropic の Haiku モデルで最速かつ最も高性能なモデルで、非常に高速な応答と拡張推論を備えています。",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も賢いHaikuモデルで、驚異的なスピードと高度な推論能力を備えています。",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 は Anthropic の最新かつ最も高性能なモデルで、高度に複雑なタスクにおいて性能、知性、流暢さ、理解力のすべてで優れています。",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4 は Anthropic の最強モデルで、高度に複雑なタスクにおいて性能、知性、流暢さ、理解力で卓越しています。",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6 はエージェント構築やコーディングに最適化された Anthropic の最高知能モデルです。",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、最上級の知能とスケーラブルな性能を組み合わせ、複雑で高品質な推論タスクに対応します。",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4は、Anthropicのこれまでで最も知的なモデルで、APIユーザー向けに即時応答またはステップバイステップの詳細な思考を提供します。",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropicのこれまでで最も知的なモデルです。",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6は、速度と知性の最適な組み合わせを提供します。",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、即時応答と可視化された段階的思考プロセスの両方に対応します。",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 は Anthropic の過去最高の知能モデルです。",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 は速度と知性の最良バランスを提供します。",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5は、これまでで最も知的なAnthropicのモデルです。",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6は、スピードと知能の最適な組み合わせを実現したAnthropicのモデルです。",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4は、ほぼ瞬時の応答や、ユーザーが確認できる段階的な推論を提供できます。APIユーザーは、モデルの思考時間を細かく制御することが可能です。",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2は次世代推論モデルで、複雑な推論と連鎖的思考能力が強化されています。",
|
||||
"deepseek-chat.description": "DeepSeek V3.2は、日常的なQAやエージェントタスクのために推論と出力の長さをバランスさせています。公開ベンチマークでGPT-5レベルに達し、ツール使用に思考を統合した初のモデルであり、オープンソースエージェント評価でリードしています。",
|
||||
"deepseek-chat.description": "一般対話能力と高いコーディング性能を併せ持つ新しいオープンソースモデルです。チャットモデルの対話性とコーダーモデルの強力なコーディング能力を両立し、嗜好整合性が向上しています。DeepSeek-V2.5 では文章生成と指示追従も改善されています。",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
|
||||
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
|
||||
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinkingは、出力前に思考の連鎖を生成する深い推論モデルで、より高い精度を実現します。競争のトップ結果を達成し、Gemini-3.0-Proに匹敵する推論能力を持っています。",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 の思考モードでは、最終回答の前に推論過程(Chain-of-Thought)を生成し、精度を向上させます。",
|
||||
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
|
||||
"ernie-x1.1.description": "ERNIE X1.1は評価とテスト用の思考モデルプレビューです。",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5は、ByteDance Seedチームによって構築され、マルチイメージ編集と構成をサポートします。被写体の一貫性、正確な指示の遵守、空間論理の理解、美的表現、ポスターのレイアウト、ロゴデザイン、高精度のテキスト画像レンダリングが強化されています。",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedによって構築され、プロンプトからの高品質な画像生成を高度に制御可能にするテキストおよび画像入力をサポートします。",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は ByteDance Seed の画像生成モデルで、テキストと画像入力に対応し、高品質で高い制御性のある画像を生成します。テキストプロンプトから画像を生成できます。",
|
||||
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
|
||||
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
|
||||
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
|
||||
"fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味的および外観の編集、正確な中国語/英語のテキスト編集、スタイル転送、回転などをサポートします。",
|
||||
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語のテキストレンダリングと多様な視覚スタイルに優れています。",
|
||||
"fal-ai/qwen-image-edit.description": "Qwen チームのプロフェッショナル画像編集モデルで、意味編集・外観編集に対応し、中国語と英語のテキストを正確に編集できます。スタイル変換、物体の回転など高品質の編集も可能です。",
|
||||
"fal-ai/qwen-image.description": "Qwen チームの強力な画像生成モデルで、中国語テキストの描画精度が高く、多様なビジュアルスタイルに対応します。",
|
||||
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 1~4 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
|
||||
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
|
||||
"flux-dev.description": "非商用の研究開発向けに効率化されたオープンソース画像生成モデルです。",
|
||||
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
|
||||
"flux-kontext-pro.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
|
||||
"flux-merged.description": "FLUX.1 [merged] は、「DEV」で探求された深層機能と「Schnell」の高速性を組み合わせ、性能の限界を拡張し、応用範囲を広げます。",
|
||||
"flux-pro-1.1-ultra.description": "400 万画素の超高解像度画像を 10 秒で生成するモデルです。",
|
||||
"flux-pro-1.1.description": "画像品質とプロンプトの精度に優れた、アップグレードされたプロフェッショナル画像生成モデルです。",
|
||||
"flux-pro.description": "比類なき画像品質と多様な出力を誇る、商用向けの最高クラス画像生成モデルです。",
|
||||
"flux-schnell.description": "FLUX.1 [schnell] は、最も高度なオープンソースの少ステップ画像生成モデルで、Midjourney v6.0 や DALL-E 3 (HD) などの強力な非蒸留モデルをも上回ります。事前学習の多様性を保持するよう精密に調整されており、視覚品質、指示追従性、サイズ・アスペクト比の変化、フォント処理、出力の多様性が大幅に向上しています。",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell は、高速かつ多様なスタイルの出力に対応する高性能画像生成モデルです。",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001(チューニング)は、複雑なタスクに対して安定かつ調整可能な性能を提供します。",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002(チューニング)は、複雑なタスクに対して強力なマルチモーダル対応を提供します。",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Googleの画像生成モデルで、マルチモーダル対話もサポートします。",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)は、Googleの画像生成モデルであり、マルチモーダルチャットもサポートします。",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は Google の画像生成モデルで、マルチモーダルチャットにも対応します。",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)は、Googleの最速のネイティブ画像生成モデルで、思考サポート、対話型画像生成および編集を提供します。",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)は、プロレベルの画像品質をフラッシュ速度で提供し、マルチモーダルチャットをサポートします。",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)は Google の最速ネイティブ画像生成モデルで、思考モード、会話型画像生成、編集をサポートします。",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite PreviewはGoogleの最もコスト効率の高いマルチモーダルモデルで、大量のエージェントタスク、翻訳、データ処理に最適化されています。",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Previewは、Gemini 3 Proの推論能力を強化し、中程度の思考レベルサポートを追加しています。",
|
||||
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "Jamba Large は、複雑な企業向けタスクに対応する最も強力で高度なモデルです。",
|
||||
"jamba-mini.description": "Jamba Mini は、速度と品質のバランスに優れた、同クラスで最も効率的なモデルです。",
|
||||
"jina-deepsearch-v1.description": "DeepSearch は、ウェブ検索、読解、推論を組み合わせて徹底的な調査を行うエージェントのようなモデルです。調査タスクを受け取り、複数回の広範な検索を行った後に回答を生成します。継続的な調査と多角的な問題解決を行う点で、従来の LLM や一度きりの検索に依存する RAG システムとは根本的に異なります。",
|
||||
"k2p5.description": "Kimi K2.5は、これまでで最も多用途なモデルであり、視覚とテキスト入力の両方をサポートするネイティブなマルチモーダルアーキテクチャ、「思考」モードと「非思考」モード、そして会話タスクとエージェントタスクの両方を備えています。",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2 は、強力なコーディングおよびエージェント機能を備えた MoE 基盤モデルです(総パラメータ数 1T、アクティブ 32B)。推論、プログラミング、数学、エージェントベンチマークにおいて、他の主流のオープンモデルを上回る性能を発揮します。",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview は、256k のコンテキストウィンドウ、より強力なエージェント型コーディング、フロントエンドコードの品質向上、文脈理解の改善を提供します。",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct は、コードやQAなどの長文コンテキストに対応した、Kimi公式の推論モデルです。",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に難解な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと競合する中規模の推論モデルです。",
|
||||
"qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。",
|
||||
"r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDanceは、テキストからビデオ、画像からビデオ(最初のフレーム、最初+最後のフレーム)、および視覚と同期した音声生成をサポートします。",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlusは、リアルタイム情報のためのウェブ検索強化生成、複雑なプロンプト解釈の向上、プロフェッショナルな視覚制作のための参照一貫性の向上を特徴とします。",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。",
|
||||
"solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。",
|
||||
"solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2は、新しい強力なメディア生成モデルで、音声と同期したビデオを生成します。自然言語または画像からリッチで詳細な動的クリップを作成できます。",
|
||||
"spark-x.description": "X2機能概要: 1. `thinking`フィールドを介して推論モードの動的調整を導入。2. コンテキスト長の拡張: 64K入力トークンと128K出力トークン。3. Function Call機能をサポート。",
|
||||
"stable-diffusion-3-medium.description": "Stability AI による最新のテキストから画像への変換モデルです。画像品質、テキスト理解、スタイルの多様性が大幅に向上し、複雑な自然言語プロンプトをより正確に解釈し、多様で精密な画像を生成します。",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo は、ADD(敵対的拡散蒸留)を stable-diffusion-3.5-large に適用し、高速化を実現しています。",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large は、800M パラメータの MMDiT テキスト画像変換モデルで、優れた品質とプロンプト整合性を持ち、1 メガピクセルの画像生成と一般的なハードウェアでの効率的な実行をサポートします。",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 は v1.2 チェックポイントから初期化され、「laion-aesthetics v2 5+」で 595k ステップのファインチューニングを行い、テキスト条件付けを 10% 減少させて分類器フリーガイダンスサンプリングを改善しています。",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo は高品質な画像生成に特化し、精密なディテール描写と高いシーン再現性を備えています。",
|
||||
"stable-diffusion-xl-base-1.0.description": "Stability AI によるオープンソースのテキスト画像変換モデルで、業界最高水準の創造的画像生成を実現します。高度な指示理解と、精密な生成のための逆プロンプト定義に対応しています。",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl は v1.5 から大幅に改善され、オープンなテキスト画像変換モデルの中でも最高水準の結果を実現します。3 倍の UNet バックボーン、画像品質向上のためのリファインメントモジュール、効率的なトレーニング技術が導入されています。",
|
||||
"step-1-128k.description": "一般的なシナリオにおいて、性能とコストのバランスを実現します。",
|
||||
"step-1-256k.description": "超長文コンテキスト処理に対応し、長文ドキュメントの分析に最適です。",
|
||||
"step-1-32k.description": "中程度の長さの会話を幅広いシナリオでサポートします。",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "合計で{{count}}個のパラメーターがあります",
|
||||
"arguments.title": "パラメーター一覧",
|
||||
"builtins.lobe-activator.apiName.activateTools": "ツールをアクティブ化",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}} 件が見つかりません",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "利用可能なモデルを取得",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "利用可能なツールを取得",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "設定を取得",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
|
||||
"kimicodingplan.description": "Moonshot AIのKimi Codeは、K2.5を含むKimiモデルへのアクセスを提供します。",
|
||||
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
|
||||
"lobehub.description": "LobeHub Cloudは公式APIを使用してAIモデルにアクセスし、モデルトークンに紐づいたクレジットで使用量を測定します。",
|
||||
"longcat.description": "LongCatは、Meituanが独自に開発した生成AIの大型モデルシリーズです。効率的な計算アーキテクチャと強力なマルチモーダル機能を通じて、企業内部の生産性を向上させ、革新的なアプリケーションを可能にすることを目的としています。",
|
||||
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
|
||||
"minimaxcodingplan.description": "MiniMaxトークンプランは、固定料金のサブスクリプションを通じてM2.7を含むMiniMaxモデルへのアクセスを提供します。",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Sparkは、スマートハードウェア、医療、金融などの分野で革新を可能にする、強力な多言語AIを提供します。",
|
||||
"stepfun.description": "Stepfunのモデルは、マルチモーダル処理と複雑な推論に優れ、長文コンテキスト理解や自律的な検索オーケストレーションに対応します。",
|
||||
"straico.description": "Straicoは、テキスト、画像、音声の生成AIモデルを統合したワークスペースを提供することで、AIの統合を簡素化します。これにより、マーケター、起業家、そして愛好家が多様なAIツールにシームレスにアクセスできるようになります。",
|
||||
"streamlake.description": "StreamLakeは、企業向けのモデルサービスおよびAIコンピューティングクラウドプラットフォームであり、高性能なモデル推論、低コストのモデルカスタマイズ、フルマネージドサービスを統合し、企業が基盤となるコンピューティングリソースの複雑さやコストを気にすることなく、AIアプリケーションのイノベーションに専念できるよう支援します。",
|
||||
"taichu.description": "Taichuは、CASIAと武漢AI研究所が開発した次世代マルチモーダルモデルで、マルチターンQA、文章生成、画像生成、3D理解、信号解析などに対応し、認知力と創造性を強化しています。",
|
||||
"tencentcloud.description": "LLM Knowledge Engine Atomic Powerは、企業や開発者向けに、文書解析、分割、埋め込み、多ターンリライトなどのモジュール型サービスを通じて、カスタムAIソリューションを構築できるエンドツーエンドの知識QAを提供します。",
|
||||
"togetherai.description": "Together AIは、革新的なモデル、高度なカスタマイズ、迅速なスケーリング、シンプルな導入により、企業ニーズに応える高性能AIを提供します。",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "システムツール",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - 高速なコード検索ツール",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - AIエージェント向けヘッドレスブラウザー自動化CLI",
|
||||
"settingSystemTools.tools.bun.desc": "Bun - 高速な JavaScript ランタイム兼パッケージマネージャー",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx - npm パッケージを実行するための Bun パッケージランナー",
|
||||
"settingSystemTools.tools.fd.desc": "fd - 高速で使いやすい find の代替ツール",
|
||||
"settingSystemTools.tools.find.desc": "Unix find - 標準的なファイル検索コマンド",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - 標準的なテキスト検索ツール",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - LobeHub サービスの管理と接続を行うツール",
|
||||
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight 検索(高速なインデックス検索)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - JavaScript/TypeScript を実行するランタイム",
|
||||
"settingSystemTools.tools.npm.desc": "npm - Node.js パッケージマネージャー、依存関係のインストール用",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm - 高速でディスク効率の良いパッケージマネージャー",
|
||||
"settingSystemTools.tools.python.desc": "Python - プログラミング言語ランタイム",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - 非常に高速なテキスト検索ツール",
|
||||
"settingSystemTools.tools.uv.desc": "uv - 非常に高速な Python パッケージマネージャー",
|
||||
"settingTTS.openai.sttModel": "OpenAI 音声認識モデル",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "OpenAI 音声合成モデル",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "モデル",
|
||||
"systemAgent.inputCompletion.modelDesc": "入力の自動補完候補(GitHub Copilotのゴーストテキストのようなもの)に使用されるモデル",
|
||||
"systemAgent.inputCompletion.title": "入力自動補完エージェント",
|
||||
"systemAgent.promptRewrite.label": "モデル",
|
||||
"systemAgent.promptRewrite.modelDesc": "プロンプトを書き換える際に使用するモデルを指定します",
|
||||
"systemAgent.promptRewrite.title": "プロンプトリライトエージェント",
|
||||
"systemAgent.queryRewrite.label": "モデル",
|
||||
"systemAgent.queryRewrite.modelDesc": "ユーザーの質問を最適化するために指定されたモデル",
|
||||
"systemAgent.queryRewrite.title": "リソースライブラリ質問リライトアシスタント",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "ローカルの.zipまたは.skillファイルをアップロード",
|
||||
"tab.usage": "使用状況",
|
||||
"tools.add": "スキルを統合",
|
||||
"tools.builtins.find-skills.description": "ユーザーが「X をどうやるの?」や「X のスキルを探して」などと尋ねた際に、エージェントスキルを発見・インストールするのを支援します",
|
||||
"tools.builtins.find-skills.title": "スキル検索",
|
||||
"tools.builtins.groupName": "組み込み",
|
||||
"tools.builtins.install": "インストール",
|
||||
"tools.builtins.installed": "インストール済み",
|
||||
"tools.builtins.lobe-activator.description": "ツールとスキルを発見して有効化します",
|
||||
"tools.builtins.lobe-activator.title": "ツール & スキルアクティベーター",
|
||||
"tools.builtins.lobe-agent-browser.description": "AI エージェント向けのブラウザ自動化 CLI。ナビゲーション、フォーム入力、クリック、スクリーンショット、データ取得、ログインフロー、E2E テストなど、Web や Electron 操作が必要なタスクに使用します。",
|
||||
"tools.builtins.lobe-agent-browser.title": "エージェントブラウザー",
|
||||
"tools.builtins.lobe-agent-builder.description": "エージェントのメタデータ、モデル設定、プラグイン、システムプロンプトを構成します",
|
||||
"tools.builtins.lobe-agent-builder.title": "エージェントビルダー",
|
||||
"tools.builtins.lobe-agent-documents.description": "エージェントスコープのドキュメントを管理(一覧、作成、読み取り、編集、削除、名称変更)し、読み込みルールを設定します",
|
||||
"tools.builtins.lobe-agent-documents.title": "ドキュメント",
|
||||
"tools.builtins.lobe-agent-management.description": "AI エージェントの作成、管理、オーケストレーションを行います",
|
||||
"tools.builtins.lobe-agent-management.title": "エージェント管理",
|
||||
"tools.builtins.lobe-artifacts.description": "インタラクティブなUIコンポーネント、データ可視化、チャート、SVGグラフィック、Webアプリケーションを生成し、リアルタイムでプレビューします。ユーザーが直接操作できるリッチなビジュアルコンテンツを作成します。",
|
||||
"tools.builtins.lobe-artifacts.readme": "インタラクティブなUIコンポーネント、データビジュアライゼーション、チャート、SVGグラフィック、Webアプリケーションを生成し、リアルタイムでプレビューできます。ユーザーが直接操作できるリッチなビジュアルコンテンツを作成しましょう。",
|
||||
"tools.builtins.lobe-artifacts.title": "アーティファクト",
|
||||
"tools.builtins.lobe-brief.description": "進捗を報告し、結果を提示し、ユーザーの意思決定を求めます",
|
||||
"tools.builtins.lobe-brief.title": "ブリーフツール",
|
||||
"tools.builtins.lobe-calculator.description": "数学計算を行い、方程式を解き、記号式を扱います",
|
||||
"tools.builtins.lobe-calculator.readme": "基本的な算術、代数方程式、微積分操作、記号数学をサポートする高度な数学計算機。基数変換、方程式の解法、微分、積分などを含みます。",
|
||||
"tools.builtins.lobe-calculator.title": "計算機",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "クラウド上の隔離環境でPython、JavaScript、TypeScriptのコードを実行します。シェルコマンドの実行、ファイル管理、正規表現によるコンテンツ検索、結果の安全なエクスポートが可能です。",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "Python、JavaScript、TypeScriptのコードを隔離されたクラウド環境で実行します。シェルコマンドの実行、ファイル管理、正規表現によるコンテンツ検索、結果の安全なエクスポートが可能です。",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "クラウドサンドボックス",
|
||||
"tools.builtins.lobe-creds.description": "認証、環境変数の注入、API 検証のためにユーザー認証情報を管理します。API キー、OAuth トークン、サードパーティ連携用の秘密情報などを扱います。",
|
||||
"tools.builtins.lobe-creds.title": "認証情報",
|
||||
"tools.builtins.lobe-cron.description": "指定時間に自動で実行されるスケジュールタスクを管理します。定期タスクの作成、更新、オン/オフ切替、監視を行います。",
|
||||
"tools.builtins.lobe-cron.title": "スケジュールタスク",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "マルチエージェントグループのメタデータ、メンバー、共有コンテンツを構成します",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "グループエージェントビルダー",
|
||||
"tools.builtins.lobe-group-management.description": "マルチエージェントグループの会話をオーケストレーションおよび管理します",
|
||||
"tools.builtins.lobe-group-management.title": "グループ管理",
|
||||
"tools.builtins.lobe-gtd.description": "GTD(Getting Things Done)手法を用いて目標を計画し、進捗を追跡します。戦略的な計画を立て、ステータス管理付きのToDoリストを作成し、長時間実行される非同期タスクを実行します。",
|
||||
"tools.builtins.lobe-gtd.readme": "GTD(Getting Things Done)手法を用いて目標を計画し、進捗を追跡します。戦略的な計画を立て、ステータス管理付きのToDoリストを作成し、長時間実行される非同期タスクを実行できます。",
|
||||
"tools.builtins.lobe-gtd.title": "GTDツール",
|
||||
"tools.builtins.lobe-knowledge-base.description": "アップロードしたドキュメントやドメイン知識を、セマンティックベクター検索を通じて検索します。永続的で再利用可能なリファレンスとして利用できます。",
|
||||
"tools.builtins.lobe-knowledge-base.title": "ナレッジベース",
|
||||
"tools.builtins.lobe-local-system.description": "デスクトップ上のローカルファイルシステムにアクセスします。ファイルの読み書き、検索、整理が可能です。バックグラウンドタスク対応のシェルコマンド実行や、正規表現によるコンテンツ検索も行えます。",
|
||||
"tools.builtins.lobe-local-system.readme": "デスクトップ上のローカルファイルシステムにアクセスします。ファイルの読み書き、検索、整理が可能です。バックグラウンドタスク対応のシェルコマンド実行や、正規表現によるコンテンツのgrepも行えます。",
|
||||
"tools.builtins.lobe-local-system.title": "ローカルシステム",
|
||||
"tools.builtins.lobe-message.description": "複数のメッセージングプラットフォームにおいて、統一されたインターフェースでメッセージの送信、読み取り、編集、管理を行います",
|
||||
"tools.builtins.lobe-message.readme": "Discord、Telegram、Slack、Google Chat、IRC をサポートするクロスプラットフォームのメッセージングツール。メッセージ操作、リアクション、ピン留め、スレッド、チャンネル管理、投票などプラットフォーム固有機能を統合 API で提供します。",
|
||||
"tools.builtins.lobe-message.title": "メッセージ",
|
||||
"tools.builtins.lobe-notebook.description": "会話トピック内で永続的なドキュメントを作成・管理します。ノート、レポート、記事、Markdownコンテンツを保存し、セッションをまたいでアクセス可能にします。",
|
||||
"tools.builtins.lobe-notebook.readme": "会話トピックごとに永続的なドキュメントを作成・管理します。メモ、レポート、記事、Markdownコンテンツを保存し、セッションをまたいでアクセス可能にします。",
|
||||
"tools.builtins.lobe-notebook.title": "ノートブック",
|
||||
"tools.builtins.lobe-page-agent.description": "XML 構造のドキュメント内のノードを作成、読み取り、更新、削除します",
|
||||
"tools.builtins.lobe-page-agent.readme": "ノードレベルで精密な制御を行いながら、構造化ドキュメントを作成・編集できます。Markdown からの初期化、バッチ挿入/修正/削除、全文置換などをサポートします。",
|
||||
"tools.builtins.lobe-page-agent.title": "ドキュメント編集",
|
||||
"tools.builtins.lobe-remote-device.description": "リモートデスクトップデバイスの接続を検出および管理します",
|
||||
"tools.builtins.lobe-remote-device.readme": "デスクトップデバイスへの接続を管理します。オンラインデバイスの一覧表示、リモート操作のためのデバイス有効化、接続状態の確認が可能です。",
|
||||
"tools.builtins.lobe-remote-device.title": "リモートデバイス",
|
||||
"tools.builtins.lobe-skill-store.description": "LobeHub マーケットプレイスからエージェントスキルを閲覧・インストールします。機能拡張や特定スキルの導入が必要な時に使用します。",
|
||||
"tools.builtins.lobe-skill-store.title": "スキルストア",
|
||||
"tools.builtins.lobe-skills.description": "再利用可能なスキルパッケージを有効化し、使用します",
|
||||
"tools.builtins.lobe-skills.title": "スキル",
|
||||
"tools.builtins.lobe-task.description": "依存関係とレビュー設定を備えたタスクの作成、一覧、編集、削除を行います",
|
||||
"tools.builtins.lobe-task.title": "タスクツール",
|
||||
"tools.builtins.lobe-topic-reference.description": "参照されたトピック会話からコンテキストを取得します",
|
||||
"tools.builtins.lobe-topic-reference.title": "トピック参照",
|
||||
"tools.builtins.lobe-user-interaction.description": "UI を通じてユーザーへ質問し、そのライフサイクル結果を観察します",
|
||||
"tools.builtins.lobe-user-interaction.title": "ユーザーインタラクション",
|
||||
"tools.builtins.lobe-user-memory.description": "あなたに関するパーソナライズされたナレッジベースを構築します。好みを記憶し、活動や体験を追跡し、個人情報を保存して、将来の会話で関連するコンテキストを呼び出します。",
|
||||
"tools.builtins.lobe-user-memory.readme": "あなたに関するパーソナライズされたナレッジベースを構築します。好みを記憶し、活動や体験を追跡し、個人情報を保存し、将来の会話で関連するコンテキストを呼び出せます。",
|
||||
"tools.builtins.lobe-user-memory.title": "メモリー",
|
||||
"tools.builtins.lobe-web-browsing.description": "最新情報の Web 検索や Web ページのクロールを行い、コンテンツを抽出します。複数の検索エンジン、カテゴリ、期間をサポートします。",
|
||||
"tools.builtins.lobe-web-browsing.readme": "最新情報の Web 検索や Web ページのクロールを実行します。複数検索エンジン、カテゴリ、期間指定をサポートし、包括的なリサーチが可能です。",
|
||||
"tools.builtins.lobe-web-browsing.title": "Web ブラウジング",
|
||||
"tools.builtins.lobe-web-onboarding.description": "制御されたエージェントランタイムにより Web オンボーディングフローを実行します",
|
||||
"tools.builtins.lobe-web-onboarding.title": "Web オンボーディング",
|
||||
"tools.builtins.lobehub.description": "CLI を通じて LobeHub プラットフォームを管理します — ナレッジベース、メモリ、エージェント、ファイル、検索、生成など。",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "未インストール",
|
||||
"tools.builtins.task.description": "タスク管理と実行を行います — CLI でタスクの作成、追跡、レビュー、完了が可能です。",
|
||||
"tools.builtins.task.title": "タスク",
|
||||
"tools.builtins.uninstall": "アンインストール",
|
||||
"tools.builtins.uninstallConfirm.desc": "{{name}} をアンインストールしてもよろしいですか?このスキルは現在のエージェントから削除されます。",
|
||||
"tools.builtins.uninstallConfirm.title": "{{name}} のアンインストール",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "{{name}}を切断しますか?",
|
||||
"tools.lobehubSkill.disconnected": "未接続",
|
||||
"tools.lobehubSkill.error": "エラー",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub は、バージョン管理とコラボレーションのためのプラットフォームで、開発者がコードリポジトリをホスト、レビュー、管理できます。",
|
||||
"tools.lobehubSkill.providers.github.readme": "GitHub に接続して、リポジトリへのアクセス、Issue の作成と管理、プルリクエストのレビュー、コードコラボレーションを AI アシスタントとの自然な対話で行えます。",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linearは、高性能なチーム向けに設計された、モダンな課題追跡およびプロジェクト管理ツールです。より良いソフトウェアをより速く構築できます。",
|
||||
"tools.lobehubSkill.providers.linear.readme": "Linearの機能をAIアシスタントに統合します。イシューの作成・更新、スプリントの管理、プロジェクト進捗の追跡、自然な会話による開発ワークフローの最適化が可能です。",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "Outlook カレンダーは、Microsoft Outlookに統合されたスケジューリングツールで、予定の作成、他者との会議の調整、時間とイベントの効果的な管理が可能です。",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "Outlookカレンダーと連携してイベントの表示、作成、管理をシームレスに行います。会議のスケジューリング、空き時間の確認、リマインダーの設定、自然言語による時間調整が可能です。",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X(旧Twitter)は、リアルタイムの更新、ニュースの共有、投稿・返信・DMを通じてオーディエンスと交流できるソーシャルメディアプラットフォームです。",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "X(旧Twitter)と接続してツイートの投稿、タイムラインの管理、オーディエンスとの交流を行います。コンテンツの作成、投稿のスケジューリング、メンションの監視、会話型AIによるSNS運用が可能です。",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel はフロントエンド開発者向けのクラウドプラットフォームで、Web アプリケーションを簡単にデプロイできるホスティングやサーバーレス機能を提供します。",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "Vercel に接続して、デプロイ管理、プロジェクト状況の監視、インフラ制御を行います。アプリのデプロイ、ビルドログの確認、環境変数の管理、スケール調整を会話形式で実行できます。",
|
||||
"tools.notInstalled": "未インストール",
|
||||
"tools.notInstalledWarning": "このスキルはまだインストールされておらず、アシスタントの使用に影響する可能性があります",
|
||||
"tools.plugins.enabled": "{{num}} が有効",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "開始フレーム",
|
||||
"config.prompt.placeholder": "生成したいビデオの内容を説明してください",
|
||||
"config.prompt.placeholderWithRef": "生成したい画像のシーンを説明してください",
|
||||
"config.promptExtend.label": "プロンプト拡張",
|
||||
"config.referenceImage.label": "参照画像",
|
||||
"config.resolution.label": "解像度",
|
||||
"config.seed.label": "シード値",
|
||||
"config.seed.random": "ランダム",
|
||||
"config.size.label": "サイズ",
|
||||
"config.watermark.label": "ウォーターマーク",
|
||||
"config.webSearch.label": "ウェブ検索",
|
||||
"generation.actions.copyError": "エラーメッセージをコピー",
|
||||
"generation.actions.errorCopied": "エラーメッセージをクリップボードにコピーしました",
|
||||
"generation.actions.errorCopyFailed": "エラーメッセージのコピーに失敗しました",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "봇 연결 성공",
|
||||
"channel.connecting": "연결 중...",
|
||||
"channel.connectionConfig": "연결 구성",
|
||||
"channel.connectionMode": "연결 모드",
|
||||
"channel.connectionModeHint": "새로운 봇에는 WebSocket을 권장합니다. 이미 QQ 오픈 플랫폼에서 콜백 URL이 설정된 경우 Webhook을 사용하세요.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "클립보드에 복사됨",
|
||||
"channel.copy": "복사",
|
||||
"channel.credentials": "자격 증명",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "이 URL을 복사하여 {{name}} 개발자 포털의 <bold>{{fieldName}}</bold> 필드에 붙여넣으세요.",
|
||||
"channel.exportConfig": "구성 내보내기",
|
||||
"channel.feishu.description": "이 어시스턴트를 Feishu에 연결하여 개인 및 그룹 채팅을 사용할 수 있습니다.",
|
||||
"channel.feishu.webhookMigrationDesc": "WebSocket 모드는 퍼블릭 콜백 URL 없이도 실시간 이벤트를 제공할 수 있습니다. 마이그레이션하려면 고급 설정에서 연결 모드를 WebSocket으로 변경하세요. Feishu/Lark 오픈 플랫폼에서 추가 설정은 필요하지 않습니다.",
|
||||
"channel.feishu.webhookMigrationTitle": "WebSocket 모드로의 전환을 고려하세요",
|
||||
"channel.historyLimit": "히스토리 메시지 제한",
|
||||
"channel.historyLimitHint": "채널 히스토리를 읽을 때 기본적으로 가져올 메시지 수",
|
||||
"channel.importConfig": "구성 가져오기",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "상호작용 검증에 필요",
|
||||
"channel.qq.appIdHint": "QQ 오픈 플랫폼에서 제공된 QQ 봇 앱 ID를 입력하세요.",
|
||||
"channel.qq.description": "이 어시스턴트를 QQ에 연결하여 그룹 채팅 및 직접 메시지를 이용하세요.",
|
||||
"channel.qq.webhookMigrationDesc": "WebSocket 모드는 콜백 URL 없이도 실시간 이벤트 전달과 자동 재연결 기능을 제공합니다. 마이그레이션하려면 QQ 오픈 플랫폼에서 콜백 URL을 설정하지 않은 새 봇을 생성한 뒤, 고급 설정에서 연결 모드를 WebSocket으로 변경하세요.",
|
||||
"channel.qq.webhookMigrationTitle": "WebSocket 모드로의 전환을 고려하세요",
|
||||
"channel.removeChannel": "채널 제거",
|
||||
"channel.removeFailed": "채널 제거 실패",
|
||||
"channel.removed": "채널이 제거되었습니다",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "서명 비밀키",
|
||||
"channel.signingSecretHint": "웹훅 요청을 검증하는 데 사용됩니다.",
|
||||
"channel.slack.appIdHint": "Slack API 대시보드에서 제공된 Slack App ID (A로 시작).",
|
||||
"channel.slack.appToken": "앱 레벨 토큰",
|
||||
"channel.slack.appTokenHint": "Socket Mode(WebSocket)를 사용하려면 필요합니다. Slack 앱 설정의 기본 정보(Basic Information)에서 앱 레벨 토큰(xapp-...)을 생성하세요.",
|
||||
"channel.slack.description": "이 어시스턴트를 Slack에 연결하여 채널 대화 및 직접 메시지를 지원합니다.",
|
||||
"channel.slack.webhookMigrationDesc": "Socket Mode는 퍼블릭 HTTP 엔드포인트를 노출하지 않고도 WebSocket을 통해 실시간 이벤트를 제공합니다. 마이그레이션하려면 Slack 앱 설정에서 Socket Mode를 활성화하고 앱 레벨 토큰을 생성한 뒤, 고급 설정에서 연결 모드를 WebSocket으로 변경하세요.",
|
||||
"channel.slack.webhookMigrationTitle": "Socket Mode(WebSocket)로의 전환을 고려하세요",
|
||||
"channel.telegram.description": "이 어시스턴트를 Telegram에 연결하여 개인 및 그룹 채팅을 사용할 수 있습니다.",
|
||||
"channel.testConnection": "연결 테스트",
|
||||
"channel.testFailed": "연결 테스트 실패",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "그룹이 삭제되었습니다",
|
||||
"confirmRemoveSessionItemAlert": "이 도우미를 삭제하시겠습니까? 삭제 후 복구할 수 없습니다",
|
||||
"confirmRemoveSessionSuccess": "도우미가 삭제되었습니다",
|
||||
"createModal.createBlank": "빈 항목 만들기",
|
||||
"createModal.groupPlaceholder": "이 그룹이 수행해야 할 작업을 설명하세요...",
|
||||
"createModal.groupTitle": "그룹이 무엇을 해야 하나요?",
|
||||
"createModal.placeholder": "에이전트가 수행해야 할 작업을 설명하세요...",
|
||||
"createModal.title": "에이전트가 무엇을 해야 하나요?",
|
||||
"defaultAgent": "사용자 정의 도우미",
|
||||
"defaultGroupChat": "그룹",
|
||||
"defaultList": "기본 목록",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "컨텍스트가 너무 길어 기록을 압축합니다...",
|
||||
"operation.execAgentRuntime": "응답 준비 중",
|
||||
"operation.execClientTask": "작업 실행 중",
|
||||
"operation.execServerAgentRuntime": "실행 중… 다른 작업으로 전환하거나 페이지를 닫아도 작업은 계속 진행됩니다.",
|
||||
"operation.sendMessage": "메시지 전송 중",
|
||||
"owner": "그룹 소유자",
|
||||
"pageCopilot.title": "문서 코파일럿",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "세부 정보를 불러오는 중...",
|
||||
"task.status.initializing": "작업 시작 중…",
|
||||
"task.subtask": "하위 작업",
|
||||
"task.title": "작업",
|
||||
"thread.divider": "하위 주제",
|
||||
"thread.threadMessageCount": "{{messageCount}}개의 메시지",
|
||||
"thread.title": "하위 주제",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "도우미의 기능 승인을 완료하세요",
|
||||
"topic.checkOpenNewTopic": "새 주제를 열겠습니까?",
|
||||
"topic.checkSaveCurrentMessages": "현재 대화를 주제로 저장하시겠습니까?",
|
||||
"topic.defaultTitle": "제목 없음 주제",
|
||||
"topic.openNewTopic": "새 주제 열기",
|
||||
"topic.recent": "최근 주제",
|
||||
"topic.saveCurrentMessages": "주제로 저장",
|
||||
"topic.viewAll": "모든 주제 보기",
|
||||
"translate.action": "번역",
|
||||
"translate.clear": "번역 삭제",
|
||||
"tts.action": "음성 읽기",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "이메일 지원",
|
||||
"more": "더보기",
|
||||
"navPanel.agent": "도우미",
|
||||
"navPanel.customizeSidebar": "사이드바 사용자 지정",
|
||||
"navPanel.displayItems": "항목 표시",
|
||||
"navPanel.hidden": "숨김",
|
||||
"navPanel.hideSection": "섹션 숨기기",
|
||||
"navPanel.library": "자료실",
|
||||
"navPanel.moveDown": "아래로 이동",
|
||||
"navPanel.moveUp": "위로 이동",
|
||||
"navPanel.pinned": "고정됨",
|
||||
"navPanel.searchAgent": "도우미 검색…",
|
||||
"navPanel.searchRecent": "최근 검색...",
|
||||
"navPanel.searchResultEmpty": "검색 결과가 없습니다",
|
||||
"navPanel.show": "표시",
|
||||
"navPanel.visible": "표시됨",
|
||||
"new": "새로운",
|
||||
"noContent": "내용이 없습니다",
|
||||
"oauth": "SSO 로그인",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "응원하기",
|
||||
"productHunt.description": "Product Hunt에서 저희를 응원해 주세요. 여러분의 응원이 큰 힘이 됩니다!",
|
||||
"productHunt.title": "우리는 Product Hunt에 있어요!",
|
||||
"promptTransform.action": "아이디어 다듬기",
|
||||
"promptTransform.actions.rewrite": "세부 정보 확장",
|
||||
"promptTransform.actions.translate": "번역",
|
||||
"promptTransform.status.rewrite": "세부 정보를 확장하는 중...",
|
||||
"promptTransform.status.translate": "번역 중...",
|
||||
"recents": "최근 항목",
|
||||
"regenerate": "다시 생성",
|
||||
"releaseNotes": "버전 정보",
|
||||
"rename": "이름 변경",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "오디오",
|
||||
"tab.chat": "채팅",
|
||||
"tab.community": "커뮤니티",
|
||||
"tab.create": "생성",
|
||||
"tab.discover": "탐색",
|
||||
"tab.eval": "평가 연구소",
|
||||
"tab.files": "파일",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "모델",
|
||||
"config.prompt.placeholder": "생성하고 싶은 내용을 설명하세요",
|
||||
"config.prompt.placeholderWithRef": "이미지를 어떻게 조정하고 싶은지 설명하세요",
|
||||
"config.promptExtend.label": "프롬프트 확장",
|
||||
"config.quality.label": "이미지 품질",
|
||||
"config.quality.options.hd": "고화질",
|
||||
"config.quality.options.standard": "표준",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "크기",
|
||||
"config.steps.label": "단계 수",
|
||||
"config.title": "구성",
|
||||
"config.watermark.label": "워터마크",
|
||||
"config.webSearch.label": "웹 검색",
|
||||
"config.width.label": "너비",
|
||||
"generation.actions.applySeed": "시드 적용",
|
||||
"generation.actions.copyError": "오류 정보 복사",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,8 @@
|
|||
{
|
||||
"features.assistantMessageGroup.desc": "도우미 메시지와 해당 도구 호출 결과를 그룹으로 묶어 표시합니다",
|
||||
"features.assistantMessageGroup.title": "도우미 메시지 그룹화",
|
||||
"features.gatewayMode.desc": "로컬에서 실행하는 대신 Gateway WebSocket을 통해 서버에서 에이전트 작업을 실행합니다. 더 빠른 처리 속도를 제공하고 클라이언트 리소스 사용을 줄여줍니다.",
|
||||
"features.gatewayMode.title": "서버 사이드 에이전트 실행(Gateway)",
|
||||
"features.groupChat.desc": "다중 도우미 그룹 채팅 조정 기능을 활성화합니다.",
|
||||
"features.groupChat.title": "그룹 채팅 (다중 도우미)",
|
||||
"features.inputMarkdown.desc": "입력 영역에서 실시간으로 Markdown을 렌더링합니다 (굵은 글씨, 코드 블록, 표 등).",
|
||||
|
|
|
|||
|
|
@ -20,6 +20,7 @@
|
|||
"Baichuan4-Turbo.description": "중국 내 최고 성능을 자랑하는 모델로, 지식, 장문 텍스트, 창의적 생성 등 중국어 과제에서 주요 해외 모델을 능가합니다. 또한 업계 최고 수준의 멀티모달 기능을 갖추고 있으며, 권위 있는 벤치마크에서 우수한 성과를 보입니다.",
|
||||
"Baichuan4.description": "국내 최고 성능을 자랑하며, 백과사전식 지식, 장문 텍스트, 창의적 생성 등 중국어 과제에서 주요 해외 모델을 능가합니다. 업계 최고 수준의 멀티모달 기능과 뛰어난 벤치마크 성능도 제공합니다.",
|
||||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS는 ByteDance Seed에서 개발한 오픈소스 LLM 시리즈로, 장문 컨텍스트 처리, 추론, 에이전트, 일반 능력에 강점을 지닙니다. Seed-OSS-36B-Instruct는 360억 파라미터의 명령어 튜닝 모델로, 대규모 문서나 코드베이스를 처리할 수 있는 초장문 컨텍스트를 기본 지원합니다. 추론, 코드 생성, 도구 사용 등 에이전트 작업에 최적화되어 있으며, \"사고 예산(Thinking Budget)\" 기능을 통해 유연한 추론 길이 조절이 가능합니다.",
|
||||
"DeepSeek-OCR.description": "DeepSeek-OCR은 DeepSeek AI가 개발한 OCR 및 \"문맥 광학 압축\"에 특화된 비전-언어 모델입니다. 이미지에서 문맥을 압축하는 방식을 탐구하며, 문서를 효율적으로 처리해 Markdown과 같은 구조화된 텍스트로 변환합니다. 이미지 내 텍스트를 정확하게 인식해 문서 디지털화, 텍스트 추출, 구조적 처리에 적합합니다.",
|
||||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1은 DeepSeek 제품군 중 더 크고 똑똑한 모델로, Llama 70B 아키텍처에 증류되었습니다. 벤치마크 및 인간 평가에서 수학 및 사실 기반 정확도 과제에서 기본 Llama 70B보다 우수한 성능을 보입니다.",
|
||||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Qwen2.5-Math-1.5B 기반의 DeepSeek-R1 증류 모델입니다. 강화학습과 콜드스타트 데이터를 통해 추론 성능을 최적화하였으며, 오픈 모델 중 새로운 멀티태스크 벤치마크를 설정하였습니다.",
|
||||
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill 모델은 DeepSeek-R1이 생성한 샘플 데이터를 활용하여 오픈소스 모델을 파인튜닝한 것입니다.",
|
||||
|
|
@ -30,6 +31,7 @@
|
|||
"DeepSeek-V3-Fast.description": "제공자: sophnet. DeepSeek V3 Fast는 DeepSeek V3 0324의 고TPS 버전으로, 정밀도 손실 없는(full-precision) 모델입니다. 코드 및 수학 성능이 강력하며, 응답 속도가 빠릅니다.",
|
||||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast는 DeepSeek V3.1의 고TPS 빠른 변형 모델입니다. 하이브리드 사고 모드를 지원하며, 채팅 템플릿을 통해 사고/비사고 모드를 전환할 수 있습니다. 도구 사용 능력도 향상되었습니다.",
|
||||
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 사고 모드는 사고/비사고 모드를 모두 지원하는 새로운 하이브리드 추론 모델로, DeepSeek-R1-0528보다 효율적입니다. 후학습 최적화를 통해 에이전트 도구 사용 및 작업 성능이 크게 향상되었습니다.",
|
||||
"DeepSeek-V3.2.description": "deepseek-v3.2는 희소 어텐션 메커니즘을 도입해 긴 텍스트 처리 시 학습 및 추론 효율을 개선하며, deepseek-v3.1보다 낮은 비용으로 제공됩니다.",
|
||||
"DeepSeek-V3.description": "DeepSeek-V3는 DeepSeek에서 개발한 MoE 모델로, Qwen2.5-72B 및 Llama-3.1-405B와 같은 오픈 모델을 능가하며, GPT-4o 및 Claude 3.5 Sonnet과 같은 주요 폐쇄형 모델과 경쟁할 수 있는 성능을 보입니다.",
|
||||
"Doubao-lite-128k.description": "Doubao-lite는 초고속 응답과 뛰어난 가성비를 제공하며, 다양한 시나리오에 유연하게 대응할 수 있습니다. 128K 컨텍스트를 지원하여 추론 및 파인튜닝이 가능합니다.",
|
||||
"Doubao-lite-32k.description": "Doubao-lite는 초고속 응답과 뛰어난 가성비를 제공하며, 다양한 시나리오에 유연하게 대응할 수 있습니다. 32K 컨텍스트를 지원하여 추론 및 파인튜닝이 가능합니다.",
|
||||
|
|
@ -57,9 +59,9 @@
|
|||
"GLM-4.5.description": "GLM-4.5: 추론, 코딩 및 에이전트 작업을 위한 고성능 모델.",
|
||||
"GLM-4.6.description": "GLM-4.6: 이전 세대 모델.",
|
||||
"GLM-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 에이전트 코딩 시나리오를 위해 향상된 코딩 기능, 장기 작업 계획 및 도구 협업을 제공합니다.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo: 코딩 작업을 위한 추론 속도가 최적화된 GLM-5의 버전.",
|
||||
"GLM-5-Turbo.description": "GLM-5-Turbo는 에이전트 시나리오에 최적화된 기반 모델로, 학습 단계부터 도구 호출, 명령 수행, 장기 연쇄 실행 등 에이전트 작업의 핵심 요구사항을 강화했습니다. 고성능 에이전트 어시스턴트 구축에 적합합니다.",
|
||||
"GLM-5.1.description": "GLM-5.1은 Zhipu의 최신 플래그십 모델로, 복잡한 시스템 엔지니어링과 장기 과제를 위한 향상된 에이전트 엔지니어링 기능을 갖춘 GLM-5의 개선된 버전입니다.",
|
||||
"GLM-5.description": "GLM-5는 Zhipu의 차세대 플래그십 기초 모델로, 에이전트 엔지니어링을 위해 설계되었습니다. 복잡한 시스템 엔지니어링 및 장기 에이전트 작업에서 신뢰할 수 있는 생산성을 제공합니다. 코딩 및 에이전트 기능에서 GLM-5는 오픈소스 모델 중 최첨단 성능을 달성합니다.",
|
||||
"GLM-5.description": "GLM-5는 지푸(Zhipu)의 차세대 플래그십 기반 모델로, 에이전트 엔지니어링을 위해 설계되었습니다. 복잡한 시스템 엔지니어링과 장기적 에이전트 작업에서 안정적인 생산성을 제공합니다. 코딩과 에이전트 능력에서 오픈소스 모델 중 최고 성능을 달성하며, 실제 프로그래밍 환경에서 Claude Opus 4.5에 근접한 사용자 경험을 제공합니다. 복잡한 시스템 엔지니어링과 장기 에이전트 작업에 뛰어나 범용 에이전트 어시스턴트의 이상적인 기반 모델입니다.",
|
||||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B)는 다양한 분야와 복잡한 작업을 위한 혁신적인 모델입니다.",
|
||||
"HY-Image-V3.0.description": "강력한 원본 이미지 특징 추출 및 세부 보존 기능을 통해 풍부한 시각적 텍스처를 제공하며, 높은 정확도와 잘 구성된 제작 등급의 비주얼을 생성합니다.",
|
||||
"HelloMeme.description": "HelloMeme은 사용자가 제공한 이미지나 동작을 기반으로 밈, GIF, 짧은 영상을 생성하는 AI 도구입니다. 그림이나 코딩 기술 없이도 참조 이미지 하나만으로 재미있고 매력적이며 스타일이 일관된 콘텐츠를 만들 수 있습니다.",
|
||||
|
|
@ -72,6 +74,11 @@
|
|||
"InstantCharacter.description": "InstantCharacter는 2025년 텐센트 AI에서 출시한 튜닝이 필요 없는 개인화 캐릭터 생성 모델로, 고정밀도 및 다양한 시나리오에서 일관된 캐릭터 생성을 목표로 합니다. 단 하나의 참조 이미지로 캐릭터를 모델링하고, 스타일, 동작, 배경에 유연하게 적용할 수 있습니다.",
|
||||
"InternVL2-8B.description": "InternVL2-8B는 강력한 비전-언어 모델로, 이미지-텍스트 다중 모달 처리를 지원하며 이미지 내용을 정확히 인식하고 관련 설명이나 답변을 생성할 수 있습니다.",
|
||||
"InternVL2.5-26B.description": "InternVL2.5-26B는 강력한 비전-언어 모델로, 이미지-텍스트 다중 모달 처리를 지원하며 이미지 내용을 정확히 인식하고 관련 설명이나 답변을 생성할 수 있습니다.",
|
||||
"KAT-Coder-Air-V1.description": "KAT-Coder 시리즈의 경량 버전으로, 에이전트 코딩을 위해 설계되었습니다. 다양한 프로그래밍 작업과 시나리오를 폭넓게 다루며, 대규모 에이전트 기반 강화학습을 통해 지능적 행동이 발현되고 코드 성능에서 유사 모델을 크게 앞섭니다.",
|
||||
"KAT-Coder-Exp-72B-1010.description": "KAT-Coder-Exp-72B는 KAT-Coder 시리즈의 강화학습 혁신 실험 버전으로, SWE-Bench Verified 벤치마크에서 74.6%라는 뛰어난 성능을 기록하며 오픈소스 모델 신기록을 세웠습니다. 에이전트 코딩에 중점을 두며 현재 SWE-Agent 스캐폴드만 지원하지만 간단한 대화도 가능합니다.",
|
||||
"KAT-Coder-Pro-V1.description": "에이전트 코딩을 위해 설계된 모델로, 다양한 프로그래밍 작업과 시나리오를 포괄적으로 처리합니다. 대규모 강화학습을 통해 지능적 행동을 발현하며, 코드 작성 성능에서 동급 모델을 크게 능가합니다.",
|
||||
"KAT-Coder-Pro-V2.description": "콰이쇼우(Kuaishou) Kwaipilot 팀의 최신 고성능 모델로, 복잡한 엔터프라이즈 프로젝트 및 SaaS 통합을 위해 설계되었습니다. 코드 관련 시나리오에 강점을 보이며 다양한 에이전트 프레임워크(Claude Code, OpenCode, KiloCode)와 호환되고, OpenClaw를 기본 지원하며 프런트엔드 페이지 미학에 특화된 최적화를 제공합니다.",
|
||||
"Kimi-K2.5.description": "Kimi K2.5는 가장 강력한 Kimi 모델로, 에이전트 작업, 코딩, 비전 이해 분야에서 오픈소스 SOTA 수준의 성능을 제공합니다. 멀티모달 입력을 지원하며 사고(thinking) 모드와 비사고 모드를 모두 지원합니다.",
|
||||
"Kolors.description": "Kolors는 Kuaishou Kolors 팀이 개발한 텍스트-이미지 생성 모델로, 수십억 개의 파라미터로 학습되어 시각적 품질, 중국어 의미 이해, 텍스트 렌더링에서 뛰어난 성능을 보입니다.",
|
||||
"Kwai-Kolors/Kolors.description": "Kolors는 Kuaishou Kolors 팀이 개발한 대규모 잠재 디퓨전 기반 텍스트-이미지 생성 모델로, 수십억 개의 텍스트-이미지 쌍으로 학습되어 시각적 품질, 복잡한 의미 정확도, 중/영문 텍스트 렌더링에서 뛰어난 성능을 보이며, 중국어 콘텐츠 이해 및 생성 능력이 우수합니다.",
|
||||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B)는 소프트웨어 엔지니어링 작업을 위한 오픈소스 32B 모델입니다. SWE-Bench Verified에서 62.4% 해결률을 기록하며 오픈 모델 중 5위를 차지했습니다. 코드 완성, 버그 수정, 코드 리뷰를 위해 중간 학습, SFT, RL을 통해 최적화되었습니다.",
|
||||
|
|
@ -90,18 +97,18 @@
|
|||
"Meta-Llama-3.2-3B-Instruct.description": "최신 소형 언어 모델로, 뛰어난 언어 이해, 우수한 추론, 텍스트 생성 능력을 갖추고 있습니다.",
|
||||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. 트랜스포머 기반이며, SFT 및 RLHF를 통해 유용성과 안전성이 향상되었습니다. 지시 튜닝 버전은 다국어 대화에 최적화되어 있으며, 업계 벤치마크에서 많은 오픈 및 클로즈드 챗 모델을 능가합니다. 지식 기준일: 2023년 12월.",
|
||||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick은 효율적인 전문가 활성화를 통해 강력한 추론 성능을 제공하는 대형 MoE 모델입니다.",
|
||||
"MiMo-V2-Pro.description": "MiMo-V2-Pro는 실제 환경에서의 고강도 에이전트 워크플로우를 위해 설계되었습니다. 총 1조 개 이상의 파라미터(활성 파라미터 420억)를 갖추고 혁신적인 하이브리드 어텐션 아키텍처를 채택했으며 최대 100만 토큰의 초장문 컨텍스트를 지원합니다. 강력한 기반 모델을 바탕으로 더 폭넓은 에이전트 시나리오에 연산 자원을 지속적으로 확장해 지능의 행동 공간을 넓히고, 코딩부터 실제 작업 수행(“claw”)까지 뛰어난 일반화를 달성합니다.",
|
||||
"MiniMax-Hailuo-02.description": "차세대 비디오 생성 모델 MiniMax Hailuo 02가 공식적으로 출시되어 1080P 해상도와 10초 비디오 생성을 지원합니다.",
|
||||
"MiniMax-Hailuo-2.3-Fast.description": "신규 비디오 생성 모델로 신체 움직임, 물리적 사실성, 지침 준수에서 전반적인 업그레이드 제공.",
|
||||
"MiniMax-Hailuo-2.3.description": "신규 비디오 생성 모델로 신체 움직임, 물리적 사실성, 지침 준수에서 전반적인 업그레이드 제공.",
|
||||
"MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.",
|
||||
"MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
|
||||
"MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 기능과 더 빠르고 효율적인 추론 제공.",
|
||||
"MiniMax-M2.1-highspeed.description": "강력한 다국어 프로그래밍 기능과 종합적으로 업그레이드된 프로그래밍 경험. 더 빠르고 효율적입니다.",
|
||||
"MiniMax-M2.1.description": "MiniMax-M2.1은 MiniMax에서 개발한 대표적인 오픈소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 다국어 프로그래밍 능력과 에이전트로서 복잡한 작업을 수행하는 능력이 핵심 강점입니다.",
|
||||
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5와 동일한 성능을 제공하며 추론 속도가 더 빠릅니다.",
|
||||
"MiniMax-M2.5.description": "MiniMax-M2.5는 MiniMax의 플래그십 오픈 소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 이 모델의 핵심 강점은 다중 언어 프로그래밍 기능과 에이전트로서 복잡한 작업을 해결하는 능력입니다.",
|
||||
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: M2.7과 동일한 성능을 제공하며 추론 속도가 크게 향상되었습니다.",
|
||||
"MiniMax-M2.7.description": "MiniMax M2.7: 재귀적 자기 개선의 여정을 시작하며, 최고 수준의 실제 엔지니어링 기능을 제공합니다.",
|
||||
"MiniMax-M2.7.description": "최초의 자기 진화형 모델로, 최고 수준의 코딩 및 에이전트 성능(~60 tps)을 제공합니다.",
|
||||
"MiniMax-M2.description": "MiniMax M2: 이전 세대 모델.",
|
||||
"MiniMax-Text-01.description": "MiniMax-01은 기존 트랜스포머를 넘어선 대규모 선형 어텐션을 도입한 모델로, 4560억 파라미터 중 459억이 활성화됩니다. 최대 400만 토큰의 문맥을 지원하며, GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다.",
|
||||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1은 456B 총 매개변수와 토큰당 약 45.9B 활성 매개변수를 가진 오픈 가중치 대규모 하이브리드 주의 추론 모델입니다. 1M 컨텍스트를 기본적으로 지원하며, Flash Attention을 사용하여 DeepSeek R1 대비 100K 토큰 생성 시 FLOPs를 75% 절감합니다. MoE 아키텍처와 CISPO 및 하이브리드 주의 RL 훈련을 통해 긴 입력 추론 및 실제 소프트웨어 엔지니어링 작업에서 선도적인 성능을 달성합니다.",
|
||||
|
|
@ -129,6 +136,7 @@
|
|||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905는 최신이자 가장 강력한 Kimi K2 모델입니다. 총 1조, 활성 320억 매개변수를 가진 최상급 MoE 모델로, 에이전트 기반 코딩 지능이 강화되어 벤치마크 및 실제 에이전트 작업에서 큰 성능 향상을 보입니다. 프론트엔드 코드의 미적 품질과 사용성도 개선되었습니다.",
|
||||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo는 추론 속도와 처리량을 최적화한 Turbo 버전으로, K2 Thinking의 다단계 추론 및 도구 사용 능력을 유지합니다. 약 1조 매개변수를 가진 MoE 모델로, 기본 256K 컨텍스트를 지원하며, 대규모 도구 호출이 필요한 실시간 및 동시성 높은 환경에 적합합니다.",
|
||||
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5는 Kimi-K2-Base를 기반으로 구축된 오픈소스 네이티브 멀티모달 에이전트 모델로, 약 1.5조 개의 비전 및 텍스트 토큰으로 학습되었습니다. MoE 아키텍처를 채택하여 총 1조 파라미터 중 320억 개가 활성화되며, 256K 컨텍스트 윈도우를 지원하여 비전과 언어 이해를 자연스럽게 통합합니다.",
|
||||
"Pro/zai-org/GLM-5.1.description": "GLM-5.1은 754B 파라미터의 MoE(Mixture of Experts) 아키텍처를 사용하는 차세대 플래그십 에이전트 엔지니어링 모델입니다. SWE-Bench Pro에서 선도적 성능을 달성했으며 NL2Repo, Terminal-Bench 2.0 등에서 전작 대비 큰 폭의 향상을 보였습니다. 장기적 에이전트 작업을 위해 설계되어 모호한 질문에 대한 판단력이 향상되었고, 복잡한 작업을 분해하고 실험을 수행하며 결과를 분석하고 수백 번의 반복과 수천 번의 도구 호출을 통해 지속적으로 최적화합니다.",
|
||||
"Pro/zai-org/glm-4.7.description": "GLM-4.7은 Zhipu의 새로운 세대 플래그십 모델로, 355B 총 매개변수와 32B 활성 매개변수를 가지고 있으며 일반 대화, 추론 및 에이전트 기능에서 완전히 업그레이드되었습니다. GLM-4.7은 교차적 사고를 강화하고 보존적 사고 및 턴 수준 사고를 도입합니다.",
|
||||
"Pro/zai-org/glm-5.description": "GLM-5는 Zhipu의 차세대 대형 언어 모델로, 복잡한 시스템 엔지니어링과 장기 지속 에이전트 작업에 중점을 둡니다. 모델 파라미터는 7440억 개(활성화된 40억 개)로 확장되었으며, DeepSeek Sparse Attention을 통합합니다.",
|
||||
"QwQ-32B-Preview.description": "Qwen QwQ는 추론 능력 향상을 목표로 한 실험적 연구 모델입니다.",
|
||||
|
|
@ -189,6 +197,7 @@
|
|||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507은 대규모 추론을 효율적으로 수행할 수 있도록 MoE를 활용하여 고급 추론 및 지시 따르기에 최적화된 모델입니다.",
|
||||
"Qwen3-235B.description": "Qwen3-235B-A22B는 MoE 모델로, 사고 모드와 비사고 모드를 자유롭게 전환할 수 있는 하이브리드 추론 모드를 도입하였습니다. 119개 언어 및 방언에 대한 이해와 추론을 지원하며, 강력한 도구 호출 기능을 갖추고 있습니다. DeepSeek R1, OpenAI o1, o3-mini, Grok 3, Google Gemini 2.5 Pro 등 주요 모델들과 일반 능력, 코드 및 수학, 다국어 능력, 지식 추론 벤치마크에서 경쟁합니다.",
|
||||
"Qwen3-32B.description": "Qwen3-32B는 사고 모드와 비사고 모드를 전환할 수 있는 하이브리드 추론 모드를 도입한 밀집 모델입니다. 아키텍처 개선, 데이터 확장, 훈련 품질 향상을 통해 Qwen2.5-72B와 동등한 성능을 발휘합니다.",
|
||||
"Qwen3.5-Plus.description": "Qwen3.5 Plus는 텍스트, 이미지, 비디오 입력을 지원합니다. 순수 텍스트 작업 성능은 Qwen3 Max에 필적하며 더 나은 성능과 낮은 비용을 제공합니다. 멀티모달 능력은 Qwen3 VL 시리즈 대비 크게 향상되었습니다.",
|
||||
"S2V-01.description": "01 시리즈의 기본 참조-비디오 모델.",
|
||||
"SenseChat-128K.description": "128K 컨텍스트를 지원하는 Base V4 모델로, 장문 이해 및 생성에 강점을 가집니다.",
|
||||
"SenseChat-32K.description": "32K 컨텍스트를 지원하는 Base V4 모델로, 다양한 상황에 유연하게 대응합니다.",
|
||||
|
|
@ -310,20 +319,20 @@
|
|||
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
||||
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
||||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 사고력을 제공합니다.",
|
||||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 스마트한 Haiku 모델로, 매우 빠른 속도와 확장된 추론 능력을 갖추고 있습니다.",
|
||||
"claude-haiku-4.5.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 똑똑한 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 자랑합니다.",
|
||||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
||||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 뛰어난 모델로, 매우 복잡한 작업에서 탁월한 성능, 지능, 유창성, 이해력을 제공합니다.",
|
||||
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 발휘합니다.",
|
||||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축 및 코딩에 가장 지능적인 Anthropic 모델입니다.",
|
||||
"claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축 및 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
|
||||
"claude-opus-4.5.description": "Claude Opus 4.5는 Anthropic의 대표 모델로, 최상급 지능과 확장 가능한 성능을 결합하여 복잡하고 고품질의 추론 작업을 수행합니다.",
|
||||
"claude-opus-4.6-fast.description": "Claude Opus 4.6은 에이전트 구축과 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
|
||||
"claude-opus-4.6.description": "Claude Opus 4.6은 에이전트 구축과 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
|
||||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic의 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 제공합니다.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic의 가장 지능적인 모델입니다.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공합니다.",
|
||||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 거의 즉각적인 응답 또는 단계별 사고 과정을 보여주는 확장된 추론을 모두 생성할 수 있습니다.",
|
||||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 지금까지 출시된 Sonnet 모델 중 가장 지능적인 모델입니다.",
|
||||
"claude-sonnet-4-6.description": "Claude Sonnet 4.6은 속도와 지능의 최적 균형을 제공하는 모델입니다.",
|
||||
"claude-sonnet-4.5.description": "Claude Sonnet 4.5는 지금까지의 Anthropic 모델 중 가장 지능적인 모델입니다.",
|
||||
"claude-sonnet-4.6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공합니다.",
|
||||
"claude-sonnet-4.description": "Claude Sonnet 4는 거의 즉각적인 응답을 생성하거나 사용자가 볼 수 있는 단계별 추론을 확장하여 제공합니다. API 사용자는 모델의 사고 시간을 세밀하게 제어할 수 있습니다.",
|
||||
|
|
@ -397,7 +406,7 @@
|
|||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
||||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
||||
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2는 복잡한 추론과 연쇄 사고 능력이 강화된 차세대 추론 모델입니다.",
|
||||
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 QA 및 에이전트 작업을 위해 추론과 출력 길이를 균형 있게 조정합니다. 공개 벤치마크에서 GPT-5 수준에 도달하며, 도구 사용에 사고를 통합한 최초의 모델로, 오픈소스 에이전트 평가를 선도합니다.",
|
||||
"deepseek-chat.description": "일반 능력과 코드 능력을 결합한 새로운 오픈소스 모델입니다. 챗 모델의 일반 대화 능력과 코더 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 개선되었습니다. DeepSeek-V2.5는 글쓰기와 지시 수행 능력도 향상했습니다.",
|
||||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
||||
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
||||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
||||
|
|
@ -420,7 +429,7 @@
|
|||
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
||||
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
||||
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 더 높은 정확도를 제공하는 심층 추론 모델로, 주요 경쟁 결과와 Gemini-3.0-Pro에 필적하는 추론 능력을 제공합니다.",
|
||||
"deepseek-reasoner.description": "DeepSeek V3.2 사고(thinking) 모드는 정확도 향상을 위해 최종 답변 전에 사고 과정(chain-of-thought)을 출력합니다.",
|
||||
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
||||
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
||||
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
||||
|
|
@ -523,8 +532,7 @@
|
|||
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
||||
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
||||
"ernie-x1.1.description": "ERNIE X1.1은 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
||||
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5는 ByteDance Seed 팀에서 개발한 모델로, 다중 이미지 편집 및 구성, 주제 일관성 강화, 정확한 지침 준수, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인을 지원하며 고정밀 텍스트-이미지 렌더링을 제공합니다.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 모델로, 텍스트 및 이미지 입력을 지원하여 프롬프트에서 고도로 제어 가능한 고품질 이미지 생성을 제공합니다.",
|
||||
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며 높은 제어력과 고품질 이미지 생성 능력을 갖추고 있습니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
||||
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
||||
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
||||
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
||||
|
|
@ -532,17 +540,15 @@
|
|||
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
||||
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
||||
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
||||
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 및 외형 편집, 정확한 중국어/영어 텍스트 편집, 스타일 전환, 회전 등을 지원합니다.",
|
||||
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 강력한 중국어 텍스트 렌더링과 다양한 시각적 스타일을 제공합니다.",
|
||||
"fal-ai/qwen-image-edit.description": "Qwen 팀의 전문 이미지 편집 모델로, 의미 및 외형 수정, 중문 및 영문 텍스트의 정밀 편집, 스타일 변환 및 객체 회전 등 고품질 편집을 지원합니다.",
|
||||
"fal-ai/qwen-image.description": "Qwen 팀의 강력한 이미지 생성 모델로, 뛰어난 중문 텍스트 렌더링과 다양한 시각 스타일을 제공합니다.",
|
||||
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
||||
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
|
||||
"flux-dev.description": "비상업적 혁신 연구를 위해 효율적으로 최적화된 오픈소스 R&D 이미지 생성 모델입니다.",
|
||||
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
||||
"flux-kontext-pro.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
||||
"flux-merged.description": "FLUX.1 [merged]는 \"DEV\"에서 탐구된 심층 기능과 \"Schnell\"의 고속 장점을 결합하여 성능 한계를 확장하고 응용 범위를 넓힙니다.",
|
||||
"flux-pro-1.1-ultra.description": "4MP 해상도의 초고해상도 이미지 생성 모델로, 10초 내에 선명한 이미지를 생성합니다.",
|
||||
"flux-pro-1.1.description": "우수한 이미지 품질과 정밀한 프롬프트 반응을 제공하는 업그레이드된 전문가급 이미지 생성 모델입니다.",
|
||||
"flux-pro.description": "비교할 수 없는 이미지 품질과 다양한 출력을 제공하는 최고급 상업용 이미지 생성 모델입니다.",
|
||||
"flux-schnell.description": "FLUX.1 [schnell]은 가장 진보된 오픈소스 소수 단계 모델로, Midjourney v6.0 및 DALL-E 3 (HD)와 같은 강력한 비증류 모델을 능가합니다. 사전 학습의 다양성을 유지하도록 정밀 조정되어 시각 품질, 지시 따르기, 크기/비율 다양성, 글꼴 처리, 출력 다양성이 크게 향상되었습니다.",
|
||||
"flux.1-schnell.description": "FLUX.1-schnell은 빠른 다중 스타일 출력을 위한 고성능 이미지 생성 모델입니다.",
|
||||
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (튜닝)은 복잡한 작업을 위한 안정적이고 조정 가능한 성능을 제공합니다.",
|
||||
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (튜닝)은 복잡한 작업을 위한 강력한 멀티모달 지원을 제공합니다.",
|
||||
|
|
@ -575,10 +581,10 @@
|
|||
"gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.",
|
||||
"gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 스마트한 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.",
|
||||
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro)는 구글의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)는 Google의 이미지 생성 모델로, 다중 모달 채팅도 지원합니다.",
|
||||
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
||||
"gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
|
||||
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 구글의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집을 제공합니다.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 Pro 수준의 이미지 품질을 Flash 속도로 제공하며, 다중 모달 채팅을 지원합니다.",
|
||||
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)는 Google의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집 기능을 제공합니다.",
|
||||
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview는 Google의 가장 비용 효율적인 다중 모드 모델로, 대량 에이전트 작업, 번역 및 데이터 처리에 최적화되어 있습니다.",
|
||||
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview는 Gemini 3 Pro의 추론 능력을 강화하고 중간 사고 수준 지원을 추가합니다.",
|
||||
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
|
||||
|
|
@ -806,7 +812,6 @@
|
|||
"jamba-large.description": "복잡한 기업용 작업을 위해 설계된 가장 강력하고 고급화된 모델로, 탁월한 성능을 제공합니다.",
|
||||
"jamba-mini.description": "동급 모델 중 가장 효율적인 모델로, 속도와 품질의 균형을 유지하면서도 경량화된 구조를 갖추고 있습니다.",
|
||||
"jina-deepsearch-v1.description": "DeepSearch는 웹 검색, 문서 읽기, 추론을 결합하여 심층적인 조사를 수행합니다. 사용자의 연구 과제를 받아 반복적인 검색을 통해 정보를 수집하고, 그 후에야 답변을 생성합니다. 이 과정은 지속적인 조사와 다각적 문제 해결을 포함하며, 사전 학습 데이터나 단일 검색에 의존하는 기존 LLM 또는 RAG 시스템과는 근본적으로 다릅니다.",
|
||||
"k2p5.description": "Kimi K2.5는 Kimi의 가장 다재다능한 모델로, 시각 및 텍스트 입력을 지원하는 네이티브 멀티모달 아키텍처, '사고' 및 '비사고' 모드, 그리고 대화 및 에이전트 작업을 포함합니다.",
|
||||
"kimi-k2-0711-preview.description": "kimi-k2는 MoE 기반의 모델로, 강력한 코딩 및 에이전트 기능을 갖추고 있으며(총 1조 파라미터, 활성 320억), 추론, 프로그래밍, 수학, 에이전트 벤치마크에서 주요 오픈 모델들을 능가합니다.",
|
||||
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview는 256K 컨텍스트 윈도우를 지원하며, 향상된 에이전트 코딩 능력, 개선된 프론트엔드 코드 품질, 더 나은 문맥 이해력을 제공합니다.",
|
||||
"kimi-k2-instruct.description": "Kimi K2 Instruct는 코드, 질의응답 등 다양한 작업을 위한 장문 문맥 추론 모델로, Kimi의 공식 추론 모델입니다.",
|
||||
|
|
@ -1234,8 +1239,6 @@
|
|||
"qwq.description": "QwQ는 Qwen 계열의 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 사고 및 추론 능력이 뛰어나며, 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다. QwQ-32B는 DeepSeek-R1 및 o1-mini와 경쟁할 수 있는 중형 추론 모델입니다.",
|
||||
"qwq_32b.description": "Qwen 계열의 중형 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 QwQ의 사고 및 추론 능력은 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다.",
|
||||
"r1-1776.description": "R1-1776은 DeepSeek R1의 후속 학습 버전으로, 검열되지 않고 편향 없는 사실 정보를 제공합니다.",
|
||||
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance는 텍스트-비디오, 이미지-비디오(첫 프레임, 첫+마지막 프레임), 시각과 동기화된 오디오 생성을 지원합니다.",
|
||||
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus는 실시간 정보를 위한 웹 검색 증강 생성, 복잡한 프롬프트 해석 강화, 전문적인 시각적 창작을 위한 참조 일관성 개선을 특징으로 합니다.",
|
||||
"solar-mini-ja.description": "Solar Mini (Ja)는 Solar Mini의 일본어 특화 버전으로, 영어와 한국어에서도 효율적이고 강력한 성능을 유지합니다.",
|
||||
"solar-mini.description": "Solar Mini는 GPT-3.5를 능가하는 성능을 가진 소형 LLM으로, 영어와 한국어를 지원하는 강력한 다국어 기능을 갖추고 있으며, 효율적인 경량 솔루션을 제공합니다.",
|
||||
"solar-pro.description": "Solar Pro는 Upstage의 고지능 LLM으로, 단일 GPU에서 지시 수행에 최적화되어 있으며, IFEval 점수 80 이상을 기록합니다. 현재는 영어를 지원하며, 2024년 11월 전체 릴리스 시 더 많은 언어와 긴 컨텍스트를 지원할 예정입니다.",
|
||||
|
|
@ -1249,11 +1252,8 @@
|
|||
"sora-2.description": "Sora 2는 새로운 강력한 미디어 생성 모델로, 동기화된 오디오와 함께 비디오를 생성합니다. 자연어 또는 이미지를 사용하여 풍부한 세부 사항과 역동적인 클립을 생성할 수 있습니다.",
|
||||
"spark-x.description": "X2 기능 개요: 1. `thinking` 필드를 통해 추론 모드의 동적 조정을 도입합니다. 2. 컨텍스트 길이 확장: 64K 입력 토큰 및 128K 출력 토큰. 3. Function Call 기능을 지원합니다.",
|
||||
"stable-diffusion-3-medium.description": "Stability AI의 최신 텍스트-이미지 모델입니다. 이미지 품질, 텍스트 이해, 스타일 다양성이 크게 향상되었으며, 복잡한 자연어 프롬프트를 더 정확하게 해석하고 정밀하고 다양한 이미지를 생성합니다.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo는 stable-diffusion-3.5-large에 적대적 확산 증류(ADD)를 적용하여 속도를 향상시킨 버전입니다.",
|
||||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large는 800M 파라미터의 MMDiT 텍스트-이미지 모델로, 우수한 품질과 프롬프트 정렬을 제공하며, 1메가픽셀 이미지를 지원하고 소비자 하드웨어에서 효율적으로 실행됩니다.",
|
||||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5는 v1.2 체크포인트에서 초기화되어 \"laion-aesthetics v2 5+\" 데이터셋으로 595k 스텝 파인튜닝되었으며, 텍스트 조건화를 10% 줄여 classifier-free guidance 샘플링을 개선했습니다.",
|
||||
"stable-diffusion-3.5-large-turbo.description": "Stable Diffusion 3.5 Large Turbo는 높은 디테일 표현과 장면 충실도를 갖춘 고품질 이미지 생성에 중점을 둡니다.",
|
||||
"stable-diffusion-xl-base-1.0.description": "Stability AI의 오픈소스 텍스트-이미지 모델로, 업계 최고 수준의 창의적 이미지 생성을 제공합니다. 지시 이해력이 뛰어나며, 정밀한 생성을 위한 역 프롬프트 정의도 지원합니다.",
|
||||
"stable-diffusion-xl.description": "stable-diffusion-xl은 v1.5 대비 큰 개선을 이루었으며, 최고 수준의 오픈 텍스트-이미지 결과와 견줄 만합니다. 개선 사항에는 3배 더 큰 UNet 백본, 이미지 품질 향상을 위한 리파인먼트 모듈, 더 효율적인 학습 기법이 포함됩니다.",
|
||||
"step-1-128k.description": "일반적인 시나리오에서 성능과 비용의 균형을 제공합니다.",
|
||||
"step-1-256k.description": "장문 문서 분석에 적합한 초장문 컨텍스트 처리 지원.",
|
||||
"step-1-32k.description": "다양한 시나리오에 적합한 중간 길이 대화 지원.",
|
||||
|
|
|
|||
|
|
@ -2,6 +2,7 @@
|
|||
"arguments.moreParams": "총 {{count}}개의 매개변수가 있습니다",
|
||||
"arguments.title": "매개변수 목록",
|
||||
"builtins.lobe-activator.apiName.activateTools": "도구 활성화",
|
||||
"builtins.lobe-activator.inspector.activateTools.notFoundCount": "{{count}}개를 찾을 수 없음",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableModels": "사용 가능한 모델 가져오기",
|
||||
"builtins.lobe-agent-builder.apiName.getAvailableTools": "사용 가능한 도구 가져오기",
|
||||
"builtins.lobe-agent-builder.apiName.getConfig": "설정 가져오기",
|
||||
|
|
|
|||
|
|
@ -33,7 +33,6 @@
|
|||
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
||||
"kimicodingplan.description": "문샷 AI의 Kimi Code는 K2.5를 포함한 Kimi 모델에 접근하여 코딩 작업을 수행할 수 있습니다.",
|
||||
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
||||
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연계된 크레딧으로 사용량을 측정합니다.",
|
||||
"longcat.description": "LongCat은 Meituan에서 독자적으로 개발한 생성형 AI 대형 모델 시리즈입니다. 이는 효율적인 계산 아키텍처와 강력한 멀티모달 기능을 통해 내부 기업 생산성을 향상시키고 혁신적인 애플리케이션을 가능하게 하기 위해 설계되었습니다.",
|
||||
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
||||
"minimaxcodingplan.description": "MiniMax 토큰 플랜은 고정 요금 구독을 통해 M2.7을 포함한 MiniMax 모델에 접근하여 코딩 작업을 수행할 수 있습니다.",
|
||||
|
|
@ -60,6 +59,7 @@
|
|||
"spark.description": "iFLYTEK Spark는 다양한 분야에서 강력한 다국어 AI를 제공하여 스마트 하드웨어, 헬스케어, 금융 등에서 혁신을 가능하게 합니다.",
|
||||
"stepfun.description": "Stepfun 모델은 멀티모달 및 복잡한 추론 능력, 장문 문맥 이해, 강력한 자율 검색 조정 기능을 제공합니다.",
|
||||
"straico.description": "Straico는 최고의 텍스트, 이미지 및 오디오 생성 AI 모델을 하나로 통합한 통합 작업 공간을 제공하여 마케터, 기업가 및 열정적인 사용자들이 다양한 AI 도구에 원활하게 접근할 수 있도록 지원합니다.",
|
||||
"streamlake.description": "StreamLake는 엔터프라이즈급 모델 서비스와 AI 컴퓨팅 클라우드를 제공하는 플랫폼으로, 고성능 모델 추론, 저비용 모델 커스터마이징, 완전 관리형 서비스를 통합하여 기업이 복잡한 인프라 운영이나 비용 부담 없이 AI 애플리케이션 혁신에 집중할 수 있도록 지원합니다.",
|
||||
"taichu.description": "Taichu는 CASIA와 우한 인공지능연구원이 공동 개발한 차세대 멀티모달 모델로, 다중 회차 QA, 작문, 이미지 생성, 3D 이해, 신호 분석 등에서 뛰어난 인지력과 창의성을 발휘합니다.",
|
||||
"tencentcloud.description": "LLM 지식 엔진 Atomic Power는 문서 파싱, 청킹, 임베딩, 다중 회차 재작성 등 모듈형 서비스를 통해 기업과 개발자를 위한 맞춤형 AI 솔루션을 제공합니다.",
|
||||
"togetherai.description": "Together AI는 혁신적인 모델, 폭넓은 커스터마이징, 빠른 확장성, 간편한 배포를 통해 기업의 요구에 맞는 최고의 성능을 제공합니다.",
|
||||
|
|
|
|||
|
|
@ -673,14 +673,19 @@
|
|||
"settingSystemTools.title": "시스템 도구",
|
||||
"settingSystemTools.tools.ag.desc": "The Silver Searcher - 빠른 코드 검색 도구",
|
||||
"settingSystemTools.tools.agentBrowser.desc": "Agent-browser - AI 에이전트를 위한 헤드리스 브라우저 자동화 CLI",
|
||||
"settingSystemTools.tools.bun.desc": "Bun - 빠른 JavaScript 런타임 및 패키지 관리자",
|
||||
"settingSystemTools.tools.bunx.desc": "bunx - npm 패키지 실행을 위한 Bun 패키지 실행기",
|
||||
"settingSystemTools.tools.fd.desc": "fd - 빠르고 사용하기 쉬운 find 명령어 대체 도구",
|
||||
"settingSystemTools.tools.find.desc": "Unix find - 표준 파일 검색 명령어",
|
||||
"settingSystemTools.tools.grep.desc": "GNU grep - 표준 텍스트 검색 도구",
|
||||
"settingSystemTools.tools.lobehub.desc": "LobeHub CLI - LobeHub 서비스를 관리하고 연결",
|
||||
"settingSystemTools.tools.mdfind.desc": "macOS Spotlight 검색 (빠른 인덱스 기반 검색)",
|
||||
"settingSystemTools.tools.node.desc": "Node.js - JavaScript/TypeScript 실행을 위한 런타임",
|
||||
"settingSystemTools.tools.npm.desc": "npm - Node.js 패키지 매니저, 의존성 설치용",
|
||||
"settingSystemTools.tools.pnpm.desc": "pnpm - 빠르고 디스크 공간 효율적인 패키지 관리자",
|
||||
"settingSystemTools.tools.python.desc": "Python - 프로그래밍 언어 런타임",
|
||||
"settingSystemTools.tools.rg.desc": "ripgrep - 매우 빠른 텍스트 검색 도구",
|
||||
"settingSystemTools.tools.uv.desc": "uv - 매우 빠른 Python 패키지 관리자",
|
||||
"settingTTS.openai.sttModel": "OpenAI 음성 인식 모델",
|
||||
"settingTTS.openai.title": "OpenAI",
|
||||
"settingTTS.openai.ttsModel": "OpenAI 음성 합성 모델",
|
||||
|
|
@ -777,6 +782,9 @@
|
|||
"systemAgent.inputCompletion.label": "모델",
|
||||
"systemAgent.inputCompletion.modelDesc": "입력 자동 완성 제안에 사용되는 모델 (예: GitHub Copilot의 고스트 텍스트)",
|
||||
"systemAgent.inputCompletion.title": "입력 자동 완성 에이전트",
|
||||
"systemAgent.promptRewrite.label": "모델",
|
||||
"systemAgent.promptRewrite.modelDesc": "프롬프트 재작성에 사용할 모델을 지정합니다",
|
||||
"systemAgent.promptRewrite.title": "프롬프트 재작성 에이전트",
|
||||
"systemAgent.queryRewrite.label": "모델",
|
||||
"systemAgent.queryRewrite.modelDesc": "사용자의 질문을 최적화하는 데 사용되는 모델 지정",
|
||||
"systemAgent.queryRewrite.title": "자료실 질문 재작성 도우미",
|
||||
|
|
@ -843,31 +851,83 @@
|
|||
"tab.uploadZip.desc": "로컬 .zip 또는 .skill 파일 업로드",
|
||||
"tab.usage": "사용량 통계",
|
||||
"tools.add": "기능 통합",
|
||||
"tools.builtins.find-skills.description": "사용자가 'X를 어떻게 하나요', 'X에 필요한 스킬을 찾아줘' 등의 질문을 할 때 에이전트 스킬을 탐색하고 설치하도록 도와줍니다",
|
||||
"tools.builtins.find-skills.title": "스킬 찾기",
|
||||
"tools.builtins.groupName": "내장",
|
||||
"tools.builtins.install": "설치",
|
||||
"tools.builtins.installed": "설치됨",
|
||||
"tools.builtins.lobe-activator.description": "도구와 스킬을 탐색하고 활성화합니다",
|
||||
"tools.builtins.lobe-activator.title": "도구 및 스킬 활성화",
|
||||
"tools.builtins.lobe-agent-browser.description": "AI 에이전트를 위한 브라우저 자동화 CLI. 웹사이트 또는 Electron 상호작용(네비게이션, 폼 작성, 클릭, 스크린샷, 데이터 스크래핑, 로그인 흐름, E2E 테스트 등) 작업에 사용합니다.",
|
||||
"tools.builtins.lobe-agent-browser.title": "에이전트 브라우저",
|
||||
"tools.builtins.lobe-agent-builder.description": "에이전트 메타데이터, 모델 설정, 플러그인, 시스템 프롬프트를 구성합니다",
|
||||
"tools.builtins.lobe-agent-builder.title": "에이전트 빌더",
|
||||
"tools.builtins.lobe-agent-documents.description": "에이전트 범위의 문서를 관리합니다(목록, 생성, 읽기, 편집, 삭제, 이름 변경) 및 로드 규칙 설정",
|
||||
"tools.builtins.lobe-agent-documents.title": "문서",
|
||||
"tools.builtins.lobe-agent-management.description": "AI 에이전트를 생성, 관리, 오케스트레이션합니다",
|
||||
"tools.builtins.lobe-agent-management.title": "에이전트 관리",
|
||||
"tools.builtins.lobe-artifacts.description": "인터랙티브 UI 구성 요소, 차트 및 웹 콘텐츠를 생성하고 미리보기",
|
||||
"tools.builtins.lobe-artifacts.readme": "인터랙티브 UI 구성 요소, 데이터 시각화, 차트, SVG 그래픽 및 웹 애플리케이션을 생성하고 실시간으로 미리보기할 수 있습니다. 사용자가 직접 상호작용할 수 있는 풍부한 시각 콘텐츠를 만들어보세요.",
|
||||
"tools.builtins.lobe-artifacts.title": "아티팩트",
|
||||
"tools.builtins.lobe-brief.description": "진행 상황을 보고하고 결과를 전달하며 사용자 결정을 요청합니다",
|
||||
"tools.builtins.lobe-brief.title": "브리프 도구",
|
||||
"tools.builtins.lobe-calculator.description": "수학 계산을 수행하고, 방정식을 풀며, 기호 표현을 다룹니다",
|
||||
"tools.builtins.lobe-calculator.readme": "기본 산술, 대수 방정식, 미적분 연산 및 기호 수학을 지원하는 고급 수학 계산기입니다. 진법 변환, 방정식 풀이, 미분, 적분 등을 포함합니다.",
|
||||
"tools.builtins.lobe-calculator.title": "계산기",
|
||||
"tools.builtins.lobe-cloud-sandbox.description": "보안된 클라우드 환경에서 코드 실행, 명령어 실행 및 파일 관리",
|
||||
"tools.builtins.lobe-cloud-sandbox.readme": "격리된 클라우드 환경에서 Python, JavaScript, TypeScript 코드를 실행하세요. 셸 명령 실행, 파일 관리, 정규식으로 콘텐츠 검색, 결과 안전하게 내보내기를 지원합니다.",
|
||||
"tools.builtins.lobe-cloud-sandbox.title": "클라우드 샌드박스",
|
||||
"tools.builtins.lobe-creds.description": "인증, 환경 변수 주입, API 검증을 위한 사용자 자격 증명을 관리합니다 — API 키, OAuth 토큰, 서드파티 연동 비밀키 등을 처리합니다.",
|
||||
"tools.builtins.lobe-creds.title": "자격 증명",
|
||||
"tools.builtins.lobe-cron.description": "지정된 시간에 자동으로 실행되는 예약 작업을 관리합니다. 반복 작업 생성, 수정, 활성/비활성, 모니터링을 지원합니다.",
|
||||
"tools.builtins.lobe-cron.title": "예약 작업",
|
||||
"tools.builtins.lobe-group-agent-builder.description": "멀티 에이전트 그룹을 위한 그룹 메타데이터, 구성원, 공유 콘텐츠를 설정합니다",
|
||||
"tools.builtins.lobe-group-agent-builder.title": "그룹 에이전트 빌더",
|
||||
"tools.builtins.lobe-group-management.description": "멀티 에이전트 그룹 대화를 오케스트레이션하고 관리합니다",
|
||||
"tools.builtins.lobe-group-management.title": "그룹 관리",
|
||||
"tools.builtins.lobe-gtd.description": "GTD 방법론으로 목표를 계획하고 진행 상황을 추적",
|
||||
"tools.builtins.lobe-gtd.readme": "GTD(Getting Things Done) 방법론을 활용해 목표를 계획하고 진행 상황을 추적하세요. 전략적 계획 수립, 상태 추적이 가능한 할 일 목록 관리, 장기 비동기 작업 실행이 가능합니다.",
|
||||
"tools.builtins.lobe-gtd.title": "GTD 도구",
|
||||
"tools.builtins.lobe-knowledge-base.description": "업로드된 문서와 도메인 지식을 시맨틱 벡터 검색으로 탐색합니다 — 지속적이고 재사용 가능한 참고 자료 제공",
|
||||
"tools.builtins.lobe-knowledge-base.title": "지식 베이스",
|
||||
"tools.builtins.lobe-local-system.description": "로컬 파일에 접근하고 데스크탑에서 셸 명령어 실행",
|
||||
"tools.builtins.lobe-local-system.readme": "데스크톱에서 로컬 파일 시스템에 접근하세요. 파일 읽기, 쓰기, 검색 및 정리, 백그라운드 작업 지원 셸 명령 실행, 정규식으로 콘텐츠 검색이 가능합니다.",
|
||||
"tools.builtins.lobe-local-system.title": "로컬 시스템",
|
||||
"tools.builtins.lobe-message.description": "여러 메시징 플랫폼의 메시지를 통합 인터페이스로 보내고, 읽고, 편집하고, 관리합니다",
|
||||
"tools.builtins.lobe-message.readme": "Discord, Telegram, Slack, Google Chat, IRC를 지원하는 크로스플랫폼 메시징 도구입니다. 메시지 작업, 반응, 고정, 스레드, 채널 관리 및 투표와 같은 플랫폼별 기능을 위한 통합 API를 제공합니다.",
|
||||
"tools.builtins.lobe-message.title": "메시지",
|
||||
"tools.builtins.lobe-notebook.description": "주제별 노트북에서 문서를 생성하고 관리",
|
||||
"tools.builtins.lobe-notebook.readme": "대화 주제 내에서 지속적인 문서를 생성하고 관리하세요. 노트, 보고서, 기사, 마크다운 콘텐츠를 저장하고 세션 간에도 접근할 수 있습니다.",
|
||||
"tools.builtins.lobe-notebook.title": "노트북",
|
||||
"tools.builtins.lobe-page-agent.description": "XML 구조 문서의 노드를 생성, 읽기, 수정, 삭제합니다",
|
||||
"tools.builtins.lobe-page-agent.readme": "정교한 노드 단위 제어로 구조화된 문서를 생성하고 편집합니다. Markdown에서 초기화하고, 대량 삽입/수정/삭제 작업을 수행하며, 문서 전체의 텍스트 찾기 및 바꾸기를 지원합니다.",
|
||||
"tools.builtins.lobe-page-agent.title": "문서",
|
||||
"tools.builtins.lobe-remote-device.description": "원격 데스크톱 기기 연결을 탐색하고 관리합니다",
|
||||
"tools.builtins.lobe-remote-device.readme": "데스크톱 기기 연결을 관리합니다. 온라인 기기 목록을 확인하고, 원격 작업을 위해 기기를 활성화하며, 연결 상태를 조회합니다.",
|
||||
"tools.builtins.lobe-remote-device.title": "원격 기기",
|
||||
"tools.builtins.lobe-skill-store.description": "LobeHub 마켓플레이스에서 에이전트 스킬을 탐색하고 설치합니다. 확장 기능이 필요하거나 특정 스킬을 설치할 때 사용합니다.",
|
||||
"tools.builtins.lobe-skill-store.title": "스킬 스토어",
|
||||
"tools.builtins.lobe-skills.description": "재사용 가능한 스킬 패키지를 활성화하고 사용합니다",
|
||||
"tools.builtins.lobe-skills.title": "스킬",
|
||||
"tools.builtins.lobe-task.description": "의존성과 검토 설정이 포함된 작업을 생성, 목록 조회, 편집, 삭제합니다",
|
||||
"tools.builtins.lobe-task.title": "작업 도구",
|
||||
"tools.builtins.lobe-topic-reference.description": "참조된 주제 대화에서 컨텍스트를 가져옵니다",
|
||||
"tools.builtins.lobe-topic-reference.title": "토픽 참조",
|
||||
"tools.builtins.lobe-user-interaction.description": "UI 상호작용을 통해 사용자에게 질문하고 그 결과를 관찰합니다",
|
||||
"tools.builtins.lobe-user-interaction.title": "사용자 상호작용",
|
||||
"tools.builtins.lobe-user-memory.description": "사용자의 선호도, 활동 및 경험을 대화 전반에 걸쳐 기억",
|
||||
"tools.builtins.lobe-user-memory.readme": "당신에 대한 개인화된 지식 베이스를 구축하세요. 선호도 기억, 활동 및 경험 추적, 신원 정보 저장, 향후 대화에서 관련 맥락을 기억할 수 있습니다.",
|
||||
"tools.builtins.lobe-user-memory.title": "메모리",
|
||||
"tools.builtins.lobe-web-browsing.description": "웹에서 최신 정보를 검색하고 웹페이지를 크롤링해 콘텐츠를 추출합니다. 다중 검색 엔진, 카테고리, 기간을 지원합니다.",
|
||||
"tools.builtins.lobe-web-browsing.readme": "웹에서 최신 정보를 검색하고 웹페이지를 크롤링해 콘텐츠를 추출합니다. 다양한 검색 엔진, 카테고리, 시간 범위를 지원하여 폭넓은 리서치를 수행할 수 있습니다.",
|
||||
"tools.builtins.lobe-web-browsing.title": "웹 브라우징",
|
||||
"tools.builtins.lobe-web-onboarding.description": "제어된 에이전트 런타임으로 웹 온보딩 흐름을 진행합니다",
|
||||
"tools.builtins.lobe-web-onboarding.title": "웹 온보딩",
|
||||
"tools.builtins.lobehub.description": "CLI를 통해 LobeHub 플랫폼을 관리합니다 — 지식 베이스, 메모리, 에이전트, 파일, 검색, 생성 등.",
|
||||
"tools.builtins.lobehub.title": "LobeHub",
|
||||
"tools.builtins.notInstalled": "설치되지 않음",
|
||||
"tools.builtins.task.description": "작업 관리 및 실행 — CLI로 작업을 생성, 추적, 검토, 완료합니다.",
|
||||
"tools.builtins.task.title": "작업",
|
||||
"tools.builtins.uninstall": "제거",
|
||||
"tools.builtins.uninstallConfirm.desc": "{{name}}을(를) 제거하시겠습니까? 이 기능은 현재 에이전트에서 삭제됩니다.",
|
||||
"tools.builtins.uninstallConfirm.title": "{{name}} 제거",
|
||||
|
|
@ -949,12 +1009,16 @@
|
|||
"tools.lobehubSkill.disconnectConfirm.title": "{{name}} 연결을 해제하시겠습니까?",
|
||||
"tools.lobehubSkill.disconnected": "연결 끊김",
|
||||
"tools.lobehubSkill.error": "오류",
|
||||
"tools.lobehubSkill.providers.github.description": "GitHub는 버전 관리와 협업을 위한 플랫폼으로, 개발자가 코드 저장소를 호스팅, 검토, 관리할 수 있게 합니다.",
|
||||
"tools.lobehubSkill.providers.github.readme": "GitHub에 연결해 저장소 접근, 이슈 생성·관리, PR 검토, 코드 협업을 자연스러운 대화 형태로 수행할 수 있습니다.",
|
||||
"tools.lobehubSkill.providers.linear.description": "Linear는 고성능 팀을 위해 설계된 현대적인 이슈 추적 및 프로젝트 관리 도구로, 더 나은 소프트웨어를 더 빠르게 개발할 수 있도록 지원합니다.",
|
||||
"tools.lobehubSkill.providers.linear.readme": "Linear의 기능을 AI 어시스턴트에 통합하세요. 이슈 생성 및 업데이트, 스프린트 관리, 프로젝트 진행 상황 추적, 개발 워크플로우를 자연어 대화로 간소화할 수 있습니다.",
|
||||
"tools.lobehubSkill.providers.microsoft.description": "Outlook Calendar는 Microsoft Outlook에 통합된 일정 관리 도구로, 약속 생성, 회의 조직, 시간 및 이벤트 관리를 효과적으로 수행할 수 있습니다.",
|
||||
"tools.lobehubSkill.providers.microsoft.readme": "Outlook 캘린더와 통합하여 이벤트를 확인, 생성, 관리하세요. 미팅 예약, 가용 시간 확인, 알림 설정, 자연어 명령을 통한 시간 조율이 가능합니다.",
|
||||
"tools.lobehubSkill.providers.twitter.description": "X (Twitter)는 실시간 업데이트, 뉴스 공유, 게시물, 답글, 다이렉트 메시지를 통해 청중과 소통할 수 있는 소셜 미디어 플랫폼입니다.",
|
||||
"tools.lobehubSkill.providers.twitter.readme": "X(트위터)와 연결하여 트윗을 게시하고, 타임라인을 관리하며, 팔로워와 소통하세요. 콘텐츠 생성, 게시 예약, 멘션 모니터링, 대화형 AI를 통한 소셜 미디어 운영이 가능합니다.",
|
||||
"tools.lobehubSkill.providers.vercel.description": "Vercel은 프론트엔드 개발자를 위한 클라우드 플랫폼으로, 웹 애플리케이션을 손쉽게 배포할 수 있는 호스팅 및 서버리스 기능을 제공합니다.",
|
||||
"tools.lobehubSkill.providers.vercel.readme": "Vercel에 연결해 배포를 관리하고 프로젝트 상태를 모니터링하며 인프라를 제어하세요. 앱 배포, 빌드 로그 확인, 환경 변수 관리, 확장 작업을 대화형 AI로 수행할 수 있습니다.",
|
||||
"tools.notInstalled": "설치되지 않음",
|
||||
"tools.notInstalledWarning": "현재 기능이 설치되지 않아 도우미 사용에 영향을 줄 수 있습니다",
|
||||
"tools.plugins.enabled": "활성화됨 {{num}}",
|
||||
|
|
|
|||
|
|
@ -8,11 +8,14 @@
|
|||
"config.imageUrl.label": "시작 프레임",
|
||||
"config.prompt.placeholder": "생성하고 싶은 비디오를 설명하세요",
|
||||
"config.prompt.placeholderWithRef": "생성하고자 하는 이미지의 장면을 설명하세요",
|
||||
"config.promptExtend.label": "프롬프트 확장",
|
||||
"config.referenceImage.label": "참조 이미지",
|
||||
"config.resolution.label": "해상도",
|
||||
"config.seed.label": "시드",
|
||||
"config.seed.random": "무작위",
|
||||
"config.size.label": "크기",
|
||||
"config.watermark.label": "워터마크",
|
||||
"config.webSearch.label": "웹 검색",
|
||||
"generation.actions.copyError": "오류 메시지 복사",
|
||||
"generation.actions.errorCopied": "오류 메시지가 클립보드에 복사되었습니다",
|
||||
"generation.actions.errorCopyFailed": "오류 메시지 복사에 실패했습니다",
|
||||
|
|
|
|||
|
|
@ -22,6 +22,10 @@
|
|||
"channel.connectSuccess": "Bot succesvol verbonden",
|
||||
"channel.connecting": "Verbinden...",
|
||||
"channel.connectionConfig": "Verbindingsconfiguratie",
|
||||
"channel.connectionMode": "Verbindingsmodus",
|
||||
"channel.connectionModeHint": "WebSocket wordt aanbevolen voor nieuwe bots. Gebruik Webhook als je bot al een callback-URL heeft ingesteld op het QQ Open Platform.",
|
||||
"channel.connectionModeWebSocket": "WebSocket",
|
||||
"channel.connectionModeWebhook": "Webhook",
|
||||
"channel.copied": "Gekopieerd naar klembord",
|
||||
"channel.copy": "Kopiëren",
|
||||
"channel.credentials": "Inloggegevens",
|
||||
|
|
@ -57,6 +61,8 @@
|
|||
"channel.endpointUrlHint": "Kopieer deze URL en plak deze in het <bold>{{fieldName}}</bold>-veld in de {{name}} Developer Portal.",
|
||||
"channel.exportConfig": "Configuratie Exporteren",
|
||||
"channel.feishu.description": "Verbind deze assistent met Feishu voor privé- en groepschats.",
|
||||
"channel.feishu.webhookMigrationDesc": "De WebSocket-modus biedt realtime aflevering van events zonder dat een openbare callback-URL nodig is. Om te migreren, schakel je in Geavanceerde instellingen de Verbindingsmodus over naar WebSocket. Er is geen extra configuratie nodig op het Feishu/Lark Open Platform.",
|
||||
"channel.feishu.webhookMigrationTitle": "Overweeg om over te stappen op de WebSocket-modus",
|
||||
"channel.historyLimit": "Limiet voor berichtgeschiedenis",
|
||||
"channel.historyLimitHint": "Standaard aantal berichten om op te halen bij het lezen van kanaalgeschiedenis",
|
||||
"channel.importConfig": "Configuratie Importeren",
|
||||
|
|
@ -71,6 +77,8 @@
|
|||
"channel.publicKeyPlaceholder": "Vereist voor interactieverificatie",
|
||||
"channel.qq.appIdHint": "Uw QQ Bot App ID van het QQ Open Platform",
|
||||
"channel.qq.description": "Verbind deze assistent met QQ voor groepschats en directe berichten.",
|
||||
"channel.qq.webhookMigrationDesc": "De WebSocket-modus biedt realtime aflevering van events en automatische herverbinding, zonder dat een callback-URL nodig is. Om te migreren, maak je een nieuwe bot aan op het QQ Open Platform zonder een callback-URL te configureren en schakel je vervolgens in Geavanceerde instellingen de Verbindingsmodus over naar WebSocket.",
|
||||
"channel.qq.webhookMigrationTitle": "Overweeg om over te stappen op de WebSocket-modus",
|
||||
"channel.removeChannel": "Kanaal verwijderen",
|
||||
"channel.removeFailed": "Verwijderen van kanaal mislukt",
|
||||
"channel.removed": "Kanaal verwijderd",
|
||||
|
|
@ -93,7 +101,11 @@
|
|||
"channel.signingSecret": "Signing Secret",
|
||||
"channel.signingSecretHint": "Gebruikt om webhookverzoeken te verifiëren.",
|
||||
"channel.slack.appIdHint": "Uw Slack App ID van het Slack API-dashboard (begint met A).",
|
||||
"channel.slack.appToken": "App-niveautoken",
|
||||
"channel.slack.appTokenHint": "Vereist voor Socket Mode (WebSocket). Genereer een app-niveautoken (xapp-...) onder Basisinformatie in de Slack-app-instellingen.",
|
||||
"channel.slack.description": "Verbind deze assistent met Slack voor kanaalgesprekken en directe berichten.",
|
||||
"channel.slack.webhookMigrationDesc": "Socket Mode biedt realtime aflevering van events via WebSocket zonder dat je een openbare HTTP-endpoint hoeft bloot te stellen. Om te migreren, schakel je Socket Mode in binnen de Slack-app-instellingen, genereer je een app-niveautoken en schakel je vervolgens in Geavanceerde instellingen de Verbindingsmodus over naar WebSocket.",
|
||||
"channel.slack.webhookMigrationTitle": "Overweeg om over te stappen op Socket Mode (WebSocket)",
|
||||
"channel.telegram.description": "Verbind deze assistent met Telegram voor privé- en groepschats.",
|
||||
"channel.testConnection": "Verbinding testen",
|
||||
"channel.testFailed": "Verbindingstest mislukt",
|
||||
|
|
|
|||
|
|
@ -42,6 +42,11 @@
|
|||
"confirmRemoveGroupSuccess": "Groep succesvol verwijderd",
|
||||
"confirmRemoveSessionItemAlert": "Je staat op het punt deze agent te verwijderen. Na verwijdering kan deze niet worden hersteld. Bevestig je actie.",
|
||||
"confirmRemoveSessionSuccess": "Agent succesvol verwijderd",
|
||||
"createModal.createBlank": "Blanco maken",
|
||||
"createModal.groupPlaceholder": "Beschrijf wat deze groep moet doen...",
|
||||
"createModal.groupTitle": "Wat moet je groep doen?",
|
||||
"createModal.placeholder": "Beschrijf wat je agent moet doen...",
|
||||
"createModal.title": "Wat moet je agent doen?",
|
||||
"defaultAgent": "Standaard Agent",
|
||||
"defaultGroupChat": "Groep",
|
||||
"defaultList": "Standaardlijst",
|
||||
|
|
@ -229,6 +234,7 @@
|
|||
"operation.contextCompression": "Context te lang, geschiedenis wordt samengevat...",
|
||||
"operation.execAgentRuntime": "Reactie voorbereiden",
|
||||
"operation.execClientTask": "Taak wordt uitgevoerd",
|
||||
"operation.execServerAgentRuntime": "Bezig… Je kunt van taak wisselen of de pagina sluiten — de taak gaat gewoon door.",
|
||||
"operation.sendMessage": "Bericht verzenden",
|
||||
"owner": "Groepseigenaar",
|
||||
"pageCopilot.title": "Pagina-agent",
|
||||
|
|
@ -382,6 +388,7 @@
|
|||
"task.status.fetchingDetails": "Details ophalen...",
|
||||
"task.status.initializing": "Taak initialiseren...",
|
||||
"task.subtask": "Subtaak",
|
||||
"task.title": "Taken",
|
||||
"thread.divider": "Subonderwerp",
|
||||
"thread.threadMessageCount": "{{messageCount}} berichten",
|
||||
"thread.title": "Subonderwerp",
|
||||
|
|
@ -429,9 +436,11 @@
|
|||
"toolAuth.title": "Autoriseer Skills voor deze agent",
|
||||
"topic.checkOpenNewTopic": "Nieuw onderwerp starten?",
|
||||
"topic.checkSaveCurrentMessages": "Wil je het huidige gesprek opslaan als onderwerp?",
|
||||
"topic.defaultTitle": "Naamloos onderwerp",
|
||||
"topic.openNewTopic": "Nieuw onderwerp openen",
|
||||
"topic.recent": "Recente onderwerpen",
|
||||
"topic.saveCurrentMessages": "Huidige sessie opslaan als onderwerp",
|
||||
"topic.viewAll": "Alle onderwerpen bekijken",
|
||||
"translate.action": "Vertalen",
|
||||
"translate.clear": "Vertaling wissen",
|
||||
"tts.action": "Tekst-naar-spraak",
|
||||
|
|
|
|||
|
|
@ -343,10 +343,19 @@
|
|||
"mail.support": "E-mailondersteuning",
|
||||
"more": "Meer",
|
||||
"navPanel.agent": "Agent",
|
||||
"navPanel.customizeSidebar": "Zijbalk aanpassen",
|
||||
"navPanel.displayItems": "Weergegeven items",
|
||||
"navPanel.hidden": "Verborgen",
|
||||
"navPanel.hideSection": "Sectie verbergen",
|
||||
"navPanel.library": "Bibliotheek",
|
||||
"navPanel.moveDown": "Omlaag verplaatsen",
|
||||
"navPanel.moveUp": "Omhoog verplaatsen",
|
||||
"navPanel.pinned": "Vastgemaakt",
|
||||
"navPanel.searchAgent": "Zoek agent...",
|
||||
"navPanel.searchRecent": "Recente items zoeken...",
|
||||
"navPanel.searchResultEmpty": "Geen zoekresultaten gevonden",
|
||||
"navPanel.show": "Weergeven",
|
||||
"navPanel.visible": "Zichtbaar",
|
||||
"new": "Nieuw",
|
||||
"noContent": "Geen inhoud",
|
||||
"oauth": "SSO-login",
|
||||
|
|
@ -362,6 +371,12 @@
|
|||
"productHunt.actionLabel": "Steun ons",
|
||||
"productHunt.description": "Steun ons op Product Hunt. Jouw steun betekent veel voor ons!",
|
||||
"productHunt.title": "We staan op Product Hunt!",
|
||||
"promptTransform.action": "Idee verfijnen",
|
||||
"promptTransform.actions.rewrite": "Details uitbreiden",
|
||||
"promptTransform.actions.translate": "Vertalen",
|
||||
"promptTransform.status.rewrite": "Details worden uitgebreid...",
|
||||
"promptTransform.status.translate": "Bezig met vertalen...",
|
||||
"recents": "Recent",
|
||||
"regenerate": "Opnieuw genereren",
|
||||
"releaseNotes": "Versiedetails",
|
||||
"rename": "Hernoemen",
|
||||
|
|
@ -400,6 +415,7 @@
|
|||
"tab.audio": "Audio",
|
||||
"tab.chat": "Chat",
|
||||
"tab.community": "Community",
|
||||
"tab.create": "Maken",
|
||||
"tab.discover": "Ontdekken",
|
||||
"tab.eval": "Evaluatie Lab",
|
||||
"tab.files": "Bestanden",
|
||||
|
|
|
|||
|
|
@ -12,6 +12,7 @@
|
|||
"config.model.label": "Model",
|
||||
"config.prompt.placeholder": "Beschrijf wat je wilt genereren",
|
||||
"config.prompt.placeholderWithRef": "Beschrijf hoe u de afbeelding wilt aanpassen",
|
||||
"config.promptExtend.label": "Prompt uitbreiden",
|
||||
"config.quality.label": "Beeldkwaliteit",
|
||||
"config.quality.options.hd": "Hoge definitie",
|
||||
"config.quality.options.standard": "Standaard",
|
||||
|
|
@ -24,6 +25,8 @@
|
|||
"config.size.label": "Formaat",
|
||||
"config.steps.label": "Stappen",
|
||||
"config.title": "Configuratie",
|
||||
"config.watermark.label": "Watermerk",
|
||||
"config.webSearch.label": "Webzoekopdracht",
|
||||
"config.width.label": "Breedte",
|
||||
"generation.actions.applySeed": "Seed toepassen",
|
||||
"generation.actions.copyError": "Foutmelding kopiëren",
|
||||
|
|
|
|||
Some files were not shown because too many files have changed in this diff Show more
Loading…
Reference in a new issue