feat: betterauth username signin (#10607)

This commit is contained in:
YuTengjing 2025-12-05 01:35:20 +08:00 committed by GitHub
parent 67824a097e
commit f72a5e6cc1
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
62 changed files with 9616 additions and 374 deletions

2
.nvmrc
View file

@ -1 +1 @@
lts/Krypton
lts/krypton

View file

@ -1046,6 +1046,7 @@ table users {
id text [pk, not null]
username text [unique]
email text [unique]
normalized_email text [unique]
avatar text
phone text [unique]
first_name text
@ -1065,6 +1066,11 @@ table users {
accessed_at "timestamp with time zone" [not null, default: `now()`]
created_at "timestamp with time zone" [not null, default: `now()`]
updated_at "timestamp with time zone" [not null, default: `now()`]
indexes {
email [name: 'users_email_idx']
username [name: 'users_username_idx']
}
}
table user_memories {

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "هذا البريد الإلكتروني مسجّل بالفعل، يرجى تسجيل الدخول مباشرة",
"emailInvalid": "يرجى إدخال عنوان بريد إلكتروني صالح",
"emailNotRegistered": "هذا البريد الإلكتروني غير مسجل",
"emailNotVerified": "لم يتم التحقق من البريد الإلكتروني، يرجى التحقق أولاً",
@ -65,6 +66,7 @@
"passwordMaxLength": "يجب ألا تتجاوز كلمة المرور 64 حرفًا",
"passwordMinLength": "يجب أن تتكون كلمة المرور من 8 أحرف على الأقل",
"passwordRequired": "يرجى إدخال كلمة المرور",
"usernameNotRegistered": "اسم المستخدم هذا غير مسجل",
"usernameRequired": "يرجى إدخال اسم المستخدم"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "تسجيل الدخول باستخدام Zitadel",
"emailPlaceholder": "يرجى إدخال عنوان البريد الإلكتروني",
"emailStep": {
"subtitle": "يرجى إدخال بريدك الإلكتروني للمتابعة",
"title": "تسجيل الدخول"
},
"error": "فشل تسجيل الدخول، يرجى التحقق من البريد الإلكتروني وكلمة المرور",
@ -194,6 +195,7 @@
"resetPasswordError": "فشل إرسال رابط إعادة تعيين كلمة المرور",
"resetPasswordSent": "تم إرسال رابط إعادة تعيين كلمة المرور، يرجى التحقق من بريدك الإلكتروني",
"save": "حفظ",
"setPassword": "تعيين كلمة المرور",
"sso": {
"link": {
"button": "ربط الحساب",
@ -210,7 +212,14 @@
"title": "تفاصيل الملف الشخصي",
"updateAvatar": "تحديث الصورة الشخصية",
"updateFullName": "تحديث الاسم الكامل",
"username": "اسم المستخدم"
"updateUsername": "تحديث اسم المستخدم",
"username": "اسم المستخدم",
"usernameDuplicate": "اسم المستخدم مستخدم بالفعل",
"usernameInputHint": "يرجى إدخال اسم مستخدم جديد",
"usernamePlaceholder": "يرجى إدخال اسم مستخدم مكوّن من أحرف أو أرقام أو شرطة سفلية",
"usernameRequired": "اسم المستخدم لا يمكن أن يكون فارغًا",
"usernameRule": "اسم المستخدم يجب أن يحتوي فقط على أحرف أو أرقام أو شرطة سفلية",
"usernameUpdateFailed": "فشل في تحديث اسم المستخدم، يرجى المحاولة لاحقًا"
},
"signout": "تسجيل الخروج",
"signup": "الاشتراك",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "مصمم خصيصًا للترميز الفعّال وتدفقات عمل الوكلاء."
},
"MiniMax-M2-Stable": {
"description": "مصمم خصيصًا للترميز الفعّال وتدفقات عمل الوكلاء، يتميز بأداء متزامن أعلى ومناسب للاستخدام التجاري."
},
"MiniMax-Text-01": {
"description": "في سلسلة نماذج MiniMax-01، قمنا بإجراء ابتكارات جريئة: تم تنفيذ آلية الانتباه الخطي على نطاق واسع لأول مرة، لم يعد هيكل Transformer التقليدي هو الخيار الوحيد. يصل عدد معلمات هذا النموذج إلى 456 مليار، مع تنشيط واحد يصل إلى 45.9 مليار. الأداء الشامل للنموذج يتساوى مع النماذج الرائدة في الخارج، بينما يمكنه معالجة سياقات تصل إلى 4 ملايين توكن، وهو 32 مرة من GPT-4o و20 مرة من Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo هو الإصدار المعزز من سلسلة Kimi K2، تم تحسينه من حيث سرعة الاستدلال ومعدل النقل، مع الحفاظ على قدرات التفكير متعدد الخطوات واستدعاء الأدوات الخاصة بـ K2 Thinking. يعتمد النموذج على بنية الخبراء المختلطة (MoE) ويحتوي على حوالي 1 تيرابايت من المعلمات، ويدعم سياقًا يصل إلى 256 ألف رمز بشكل أصلي، ويمكنه تنفيذ استدعاءات أدوات واسعة النطاق بثبات، مما يجعله مناسبًا لبيئات الإنتاج التي تتطلب أداءً عاليًا من حيث التأخير والتوازي."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview هو نموذج معالجة اللغة الطبيعية المبتكر، قادر على معالجة مهام توليد الحوار وفهم السياق بشكل فعال."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 هو نموذج شيفرة مفتوح المصدر من نوع خبير مختلط، يقدم أداءً ممتازًا في مهام الشيفرة، ويضاهي GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR هو نموذج رؤية لغوية طورته DeepSeek AI، يركز على التعرف البصري على الأحرف (OCR) و\"الضغط البصري السياقي\". يهدف هذا النموذج إلى استكشاف حدود ضغط المعلومات السياقية من الصور، ويتميز بقدرته على معالجة المستندات بكفاءة وتحويلها إلى تنسيقات نصية منظمة مثل Markdown. يمكنه التعرف بدقة على النصوص داخل الصور، مما يجعله مثاليًا لتطبيقات رقمنة المستندات، واستخراج النصوص، والمعالجة المنظمة."
},
"deepseek-r1": {
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL) يعالج مشكلات التكرار وقابلية القراءة في النموذج. قبل استخدام RL، قدم DeepSeek-R1 بيانات بدء باردة، مما أدى إلى تحسين أداء الاستدلال. إنه يقدم أداءً مماثلاً لـ OpenAI-o1 في المهام الرياضية والبرمجية والاستدلال، وقد حسّن النتائج العامة من خلال طرق تدريب مصممة بعناية."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "نموذج التفكير العميق البصري Doubao-Seed-1.6-vision، يظهر قدرة فهم واستدلال متعددة الوسائط عامة أقوى في سيناريوهات التعليم، مراجعة الصور، التفتيش والأمن، والبحث والإجابة بالذكاء الاصطناعي. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 64k رمزًا."
},
"doubao-seed-code": {
"description": "تم تحسين Doubao-Seed-Code بشكل عميق لمهام البرمجة القائمة على الوكلاء، ويدعم الوسائط المتعددة (نص/صورة/فيديو) وسياق طويل يصل إلى 256 ألف رمز، كما أنه متوافق مع واجهة Anthropic API، مما يجعله مناسبًا للبرمجة، وفهم الرؤية، وسيناريوهات الوكلاء."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "نموذج توليد الصور Doubao من فريق Seed في ByteDance، يدعم إدخال النص والصورة، ويوفر تجربة توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور عبر أوامر نصية، وأبعاد الصور تتراوح بين 512 إلى 1536 بكسل."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B، نموذج متعدد الوسائط مفتوح المصدر، يدعم مهام الفهم والاستدلال بين الصور والنصوص."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي، يدعم النمذجة الموحدة للنصوص، والصور، والصوت، والفيديو، مع ترقية شاملة للقدرات، مما يجعله مناسبًا للأسئلة المعقدة، والإبداع، وسيناريوهات الذكاء الاصطناعي."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview، نموذج رائد شامل متعدد الوسائط، يدعم النصوص، الصور، الصوت، والفيديو، مع قدرات متقدمة مناسبة للأسئلة المعقدة، الإبداع، والوكلاء الذكيين."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "يستخدم منتج كيمي المساعد الذكي أحدث نموذج كبير من كيمي، وقد يحتوي على ميزات لم تستقر بعد. يدعم فهم الصور، وسيختار تلقائيًا نموذج 8k/32k/128k كنموذج للتسعير بناءً على طول سياق الطلب."
},
"kimi-thinking-preview": {
"description": "نموذج kimi-thinking-preview هو نموذج تفكير متعدد الوسائط يتمتع بقدرات استدلال متعددة الوسائط وعامة، مقدم من الجانب المظلم للقمر، يتقن الاستدلال العميق ويساعد في حل المزيد من المسائل الصعبة."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (مجاني لفترة محدودة) يركز على فهم الشيفرة والبرمجة التلقائية، مخصص لمهام البرمجة الفعالة."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "تم تحسين نموذج Llama 3.3 المعدل للتعليمات خصيصًا لسيناريوهات المحادثة، حيث تفوق على العديد من نماذج الدردشة مفتوحة المصدر الحالية في اختبارات المعايير الصناعية الشائعة."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: نموذج عالي الأداء من سلسلة Llama، مثالي للسيناريوهات التي تتطلب إنتاجية عالية وزمن استجابة منخفض."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B يوفر قدرة معالجة معقدة لا مثيل لها، مصمم خصيصًا للمشاريع ذات المتطلبات العالية."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking هو أحدث وأقوى نموذج تفكير مفتوح المصدر. يعزز بشكل كبير عمق الاستدلال متعدد الخطوات، ويحافظ على استقرار استخدام الأدوات خلال 200300 استدعاء متتالٍ، وقد وضع معايير جديدة في اختبارات Humanity's Last Exam (HLE)، وBrowseComp، وغيرها من المعايير. كما يتميز K2 Thinking بأداء ممتاز في البرمجة، والرياضيات، والاستدلال المنطقي، وسيناريوهات الوكلاء. يعتمد النموذج على بنية الخبراء المختلطة (MoE) ويحتوي على حوالي 1 تيرابايت من المعلمات، ويدعم نافذة سياق تصل إلى 256 ألف رمز واستدعاء الأدوات."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 هو نموذج لغة كبير مختلط الخبراء (MoE) ضخم طورته Moonshot AI، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة نشطة في كل تمرير أمامي. مُحسّن لقدرات الوكيل، بما في ذلك استخدام الأدوات المتقدمة، الاستدلال، وتركيب الكود."
},
@ -2721,7 +2733,7 @@
"description": "يركز على الاستدلال المتقدم وحل المشكلات المعقدة، بما في ذلك المهام الرياضية والعلمية. مثالي للتطبيقات التي تتطلب فهمًا عميقًا للسياق وإدارة سير العمل."
},
"o1-mini": {
"description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
"description": "أصغر وأسرع من o1-preview، بتكلفة أقل بنسبة 80٪، ويؤدي أداءً جيدًا في توليد الشيفرات والعمليات ذات السياق القصير."
},
"o1-preview": {
"description": "يركّز على الاستدلال المتقدّم وحل المشكلات المعقّدة، بما في ذلك المهام الرياضية والعلمية. مناسب للغاية للتطبيقات التي تتطلّب فهماً عميقاً للسياق وسير عمل مستقل."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: نموذج من سلسلة Qwen يتميز بأداء ممتاز في المهام متعددة اللغات والبرمجة، مناسب للاستخدام الإنتاجي متوسط النطاق."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: نموذج طويل السياق مخصص لتوليد الشيفرات والمهام البرمجية المعقدة."
},
"qwen-coder-plus": {
"description": "نموذج Tongyi Qianwen للبرمجة."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "منتج API جديد مدعوم من نموذج الاستدلال DeepSeek."
},
"spark-x": {
"description": "مواصفات X1.5: (1) إضافة وضع تفكير ديناميكي يمكن التحكم فيه عبر حقل thinking؛ (2) زيادة طول السياق: 64K للإدخال و64K للإخراج؛ (3) دعم ميزة FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "نموذج توليد صور نصية كبير أحدث من Stability AI. هذا الإصدار يحسن جودة الصور، فهم النصوص وتنوع الأساليب بشكل ملحوظ مقارنة بالأجيال السابقة، قادر على تفسير أوامر اللغة الطبيعية المعقدة بدقة وتوليد صور أكثر دقة وتنوعًا."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 هو نموذج سريع للبرمجة من xAI، ينتج أكواد قابلة للقراءة ومتوافقة مع متطلبات الهندسة."
},
"x1": {
"description": "سيتم ترقية نموذج Spark X1 بشكل أكبر، حيث ستحقق المهام العامة مثل الاستدلال، وتوليد النصوص، وفهم اللغة نتائج تتماشى مع OpenAI o1 و DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 هو نموذج لغة متقدم بقدرات استدلال رائدة. يتميز بقدرات متقدمة في الدردشة، الترميز، والاستدلال، ويتفوق على Claude 3.5 Sonnet وGPT-4-Turbo في تصنيف LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 هو النموذج الرائد من Z.AI، يعزز طول السياق وقدرات الترميز."
},
"zai-glm-4.6": {
"description": "يتميز بأداء ممتاز في مهام البرمجة والاستدلال، ويدعم التدفق واستدعاء الأدوات، مما يجعله مناسبًا للبرمجة القائمة على الوكلاء وسيناريوهات الاستدلال المعقدة."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 هو نموذج أساسي مصمم لتطبيقات الوكلاء الذكية، يستخدم بنية Mixture-of-Experts (MoE). تم تحسينه بعمق في مجالات استدعاء الأدوات، تصفح الويب، هندسة البرمجيات، وبرمجة الواجهة الأمامية، ويدعم التكامل السلس مع وكلاء الكود مثل Claude Code وRoo Code. يستخدم وضع استدلال مختلط ليتكيف مع سيناريوهات الاستدلال المعقدة والاستخدام اليومي."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Този имейл вече е регистриран. Моля, влезте директно.",
"emailInvalid": "Моля, въведете валиден имейл адрес",
"emailNotRegistered": "Този имейл все още не е регистриран",
"emailNotVerified": "Имейлът не е потвърден, моля първо го потвърдете",
@ -65,6 +66,7 @@
"passwordMaxLength": "Паролата не може да надвишава 64 знака",
"passwordMinLength": "Паролата трябва да бъде поне 8 знака",
"passwordRequired": "Моля, въведете парола",
"usernameNotRegistered": "Това потребителско име не е регистрирано",
"usernameRequired": "Моля, въведете потребителско име"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Вход с Zitadel",
"emailPlaceholder": "Моля, въведете имейл адрес",
"emailStep": {
"subtitle": "Моля, въведете имейл адреса си, за да продължите",
"title": "Вход"
},
"error": "Входът не бе успешен, моля проверете имейла и паролата",
@ -194,6 +195,7 @@
"resetPasswordError": "Неуспешно изпращане на линк за нулиране на парола",
"resetPasswordSent": "Линк за нулиране на парола е изпратен, моля проверете имейла си",
"save": "Запази",
"setPassword": "Задаване на парола",
"sso": {
"link": {
"button": "Свържи акаунт",
@ -210,7 +212,14 @@
"title": "Детайли на профила",
"updateAvatar": "Актуализирай аватара",
"updateFullName": "Актуализирай пълното име",
"username": "Потребителско име"
"updateUsername": "Актуализиране на потребителско име",
"username": "Потребителско име",
"usernameDuplicate": "Потребителското име вече е заето",
"usernameInputHint": "Моля, въведете ново потребителско име",
"usernamePlaceholder": "Моля, въведете потребителско име, съставено от букви, цифри или долна черта",
"usernameRequired": "Потребителското име не може да бъде празно",
"usernameRule": "Потребителското име може да съдържа само букви, цифри или долна черта",
"usernameUpdateFailed": "Неуспешно актуализиране на потребителското име, моля, опитайте отново по-късно"
},
"signout": "Изход",
"signup": "Регистрация",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Създаден специално за ефективно програмиране и работни потоци с агенти."
},
"MiniMax-M2-Stable": {
"description": "Създаден специално за ефективно програмиране и работни потоци с агенти, с висока едновременна обработка и подходящ за търговска употреба."
},
"MiniMax-Text-01": {
"description": "В серията модели MiniMax-01 направихме смели иновации: за първи път реализирахме мащабно линейно внимание, традиционната архитектура на Transformer вече не е единственият избор. Параметрите на този модел достигат 4560 милиарда, с единична активация от 45.9 милиарда. Общата производителност на модела е на нивото на водещите модели в чужбина, като същевременно ефективно обработва глобалния контекст от 4 милиона токена, което е 32 пъти повече от GPT-4o и 20 пъти повече от Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo е Turbo версията на серията Kimi K2, оптимизирана за скорост на извеждане и пропускателна способност, като същевременно запазва способностите за многoстъпково разсъждение и използване на инструменти на K2 Thinking. Моделът е базиран на архитектура с хибридни експерти (MoE), с общ брой параметри около 1T, поддържа нативно 256K контекст и може стабилно да изпълнява мащабни извиквания на инструменти, подходящ за производствени среди с високи изисквания към латентност и едновременност."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview е иновативен модел за обработка на естествен език, способен да обработва ефективно сложни задачи за генериране на диалог и разбиране на контекста."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR е визуално-езиков модел, разработен от DeepSeek AI, фокусиран върху оптично разпознаване на символи (OCR) и \"контекстово оптично компресиране\". Моделът цели да изследва границите на компресиране на контекстуална информация от изображения, като ефективно обработва документи и ги преобразува в структурирани текстови формати като Markdown. Той точно разпознава текстово съдържание в изображения, особено подходящ за дигитализация на документи, извличане на текст и структурирана обработка."
},
"deepseek-r1": {
"description": "DeepSeek-R1 е модел за извеждане, управляван от подсилено обучение (RL), който решава проблемите с повторяемостта и четимостта в модела. Преди RL, DeepSeek-R1 въвежда данни за студен старт, за да оптимизира допълнително производителността на извеждане. Той показва сравнима производителност с OpenAI-o1 в математически, кодови и извеждащи задачи и подобрява общите резултати чрез внимателно проектирани методи на обучение."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision е визуален модел за дълбоко мислене, който демонстрира по-силни универсални мултимодални разбирания и способности за разсъждение в сценарии като образование, преглед на изображения, инспекции и сигурност, както и AI търсене и отговори. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 64k токена."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code е дълбоко оптимизиран за задачи в Agentic програмиране, поддържа мултимодалност (текст/изображения/видео) и 256K дълъг контекст, съвместим с Anthropic API, подходящ за програмиране, визуално разбиране и агентни сценарии."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Моделът за генериране на изображения Doubao е разработен от екипа Seed на ByteDance, поддържа вход от текст и изображения, предоставя висококонтролирано и качествено генериране на изображения. Поддържа редактиране на изображения чрез текстови команди, с размери на изображението от 512 до 1536 пиксела."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, отворен мултимодален модел, поддържащ разбиране и дедукция на изображения и текст."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking е флагмански модел с нативна пълна мултимодалност, поддържащ обединено моделиране на текст, изображения, аудио и видео, с цялостно подобрени способности, подходящ за сложни въпроси и отговори, творчество и интелигентни агенти."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview, флагмански модел с пълна мултимодалност, поддържащ унифицирано моделиране на текст, изображения, аудио и видео, с цялостно подобрени способности, подходящ за сложни въпроси, творчество и интелигентни агенти."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Kimi интелигентен асистент използва най-новия Kimi голям модел, който може да съдържа нестабилни функции. Поддържа разбиране на изображения и автоматично избира 8k/32k/128k модел за таксуване в зависимост от дължината на контекста на заявката."
},
"kimi-thinking-preview": {
"description": "Моделът kimi-thinking-preview, предоставен от „Тъмната страна на Луната“, е мултимодален мисловен модел с възможности за мултимодално и общо разсъждение, който е експерт в дълбокото разсъждение и помага за решаването на по-сложни задачи."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (временно безплатен) е фокусиран върху разбиране на код и автоматизирано програмиране, предназначен за ефективни задачи с програмен агент."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Моделата Llama 3.3 с фина настройка за инструкции е оптимизирана за диалогови сценарии и надминава много съществуващи модели с отворен код в общи отраслови бенчмарк тестове."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: високопроизводителен модел от серията Llama, оптимизиран за сценарии с висока пропускателна способност и ниска латентност."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking е най-новият и най-мощен отворен модел за разсъждение. Той значително разширява дълбочината на многoстъпковото разсъждение и поддържа стабилна употреба на инструменти при 200300 последователни извиквания. Поставя нови стандарти в Humanity's Last Exam (HLE), BrowseComp и други бенчмаркове. Освен това, K2 Thinking се представя отлично в програмиране, математика, логическо разсъждение и агентни сценарии. Моделът е базиран на архитектура с хибридни експерти (MoE), с около 1T параметри, поддържа 256K контекстен прозорец и извикване на инструменти."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 е голям смесен експертен (MoE) езиков модел с 1 трилион общи параметри и 32 милиарда активни параметри на преден проход, разработен от Moonshot AI. Оптимизиран е за агентски способности, включително усъвършенствано използване на инструменти, разсъждения и синтез на код."
},
@ -2721,7 +2733,7 @@
"description": "Фокусиран върху напреднали изводи и решаване на сложни проблеми, включително математически и научни задачи. Изключително подходящ за приложения, изискващи дълбочинно разбиране на контекста и управление на работни потоци."
},
"o1-mini": {
"description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
"description": "По-малък и по-бърз от o1-preview, с 80% по-ниска цена, показва добри резултати при генериране на код и операции с малък контекст."
},
"o1-preview": {
"description": "Фокусиран върху усъвършенствано разсъждение и решаване на сложни проблеми, включително математически и научни задачи. Отлично подходящ за приложения, които изискват дълбоко разбиране на контекста и автономни работни процеси."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: модел от серията Qwen с отлична производителност при многоезични и програмни задачи, подходящ за средномащабна продукционна употреба."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: модел с дълъг контекст, предназначен за генериране на код и сложни програмни задачи."
},
"qwen-coder-plus": {
"description": "Tongyi Qianwen модел за кодиране."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Нов API продукт, поддържан от модела за разсъждение DeepSeek."
},
"spark-x": {
"description": "Представяне на X1.5 възможности: (1) Добавен динамичен режим на мислене, контролиран чрез полето thinking; (2) Увеличена дължина на контекста: вход и изход по 64K; (3) Поддържа функцията FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Най-новият голям модел за генериране на изображения от текст, пуснат от Stability AI. Тази версия запазва предимствата на предишните поколения и значително подобрява качеството на изображенията, разбирането на текст и разнообразието на стилове, позволявайки по-точно интерпретиране на сложни естествени езикови подсказки и генериране на по-прецизни и разнообразни изображения."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 е бърз кодов модел на xAI, предлагащ четим и инженерно пригоден изход."
},
"x1": {
"description": "Моделът Spark X1 ще бъде допълнително обновен, като на базата на водещите в страната резултати в математически задачи, ще постигне ефекти в общи задачи като разсъждение, генериране на текст и разбиране на език, сравними с OpenAI o1 и DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 е водещ езиков модел с най-съвременни способности за разсъждение. Той има напреднали умения в чат, кодиране и разсъждение, превъзхождайки Claude 3.5 Sonnet и GPT-4-Turbo в класацията LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 е флагманският модел на Z.AI, с разширен контекст и подобрени кодиращи способности."
},
"zai-glm-4.6": {
"description": "Отлично представяне при задачи за програмиране и разсъждение, поддържа стрийминг и извикване на инструменти, подходящ за agentic програмиране и сложни логически сценарии."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 е базов модел, специално създаден за интелигентни агенти, използващ архитектура с микс от експерти (Mixture-of-Experts). Той е дълбоко оптимизиран за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и поддържа безпроблемна интеграция с кодови агенти като Claude Code и Roo Code. GLM-4.5 използва смесен режим на разсъждение, подходящ за сложни и ежедневни приложения."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Diese E-Mail-Adresse ist bereits registriert. Bitte melden Sie sich direkt an.",
"emailInvalid": "Bitte geben Sie eine gültige E-Mail-Adresse ein",
"emailNotRegistered": "Diese E-Mail-Adresse ist noch nicht registriert",
"emailNotVerified": "E-Mail-Adresse nicht verifiziert, bitte zuerst verifizieren",
@ -65,6 +66,7 @@
"passwordMaxLength": "Das Passwort darf maximal 64 Zeichen lang sein",
"passwordMinLength": "Das Passwort muss mindestens 8 Zeichen lang sein",
"passwordRequired": "Bitte geben Sie ein Passwort ein",
"usernameNotRegistered": "Dieser Benutzername ist noch nicht registriert",
"usernameRequired": "Bitte geben Sie einen Benutzernamen ein"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Mit Zitadel anmelden",
"emailPlaceholder": "Bitte geben Sie Ihre E-Mail-Adresse ein",
"emailStep": {
"subtitle": "Bitte geben Sie Ihre E-Mail-Adresse ein, um fortzufahren",
"title": "Anmelden"
},
"error": "Anmeldung fehlgeschlagen, bitte überprüfen Sie E-Mail und Passwort",
@ -194,6 +195,7 @@
"resetPasswordError": "Link zum Zurücksetzen des Passworts konnte nicht gesendet werden",
"resetPasswordSent": "Link zum Zurücksetzen des Passworts wurde gesendet, bitte überprüfen Sie Ihre E-Mail",
"save": "Speichern",
"setPassword": "Passwort festlegen",
"sso": {
"link": {
"button": "Konto verbinden",
@ -210,7 +212,14 @@
"title": "Profilinformationen",
"updateAvatar": "Avatar aktualisieren",
"updateFullName": "Vollständigen Namen aktualisieren",
"username": "Benutzername"
"updateUsername": "Benutzernamen aktualisieren",
"username": "Benutzername",
"usernameDuplicate": "Benutzername ist bereits vergeben",
"usernameInputHint": "Bitte neuen Benutzernamen eingeben",
"usernamePlaceholder": "Bitte einen Benutzernamen aus Buchstaben, Zahlen oder Unterstrichen eingeben",
"usernameRequired": "Benutzername darf nicht leer sein",
"usernameRule": "Benutzername darf nur Buchstaben, Zahlen oder Unterstriche enthalten",
"usernameUpdateFailed": "Aktualisierung des Benutzernamens fehlgeschlagen, bitte später erneut versuchen"
},
"signout": "Ausloggen",
"signup": "Registrieren",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Speziell entwickelt für effizientes Programmieren und Agent-Workflows."
},
"MiniMax-M2-Stable": {
"description": "Speziell entwickelt für effizientes Codieren und Agent-Workflows höhere Parallelität, kommerzielle Nutzung möglich."
},
"MiniMax-Text-01": {
"description": "In der MiniMax-01-Serie haben wir mutige Innovationen vorgenommen: Erstmals wurde die lineare Aufmerksamkeitsmechanismus in großem Maßstab implementiert, sodass die traditionelle Transformer-Architektur nicht mehr die einzige Wahl ist. Dieses Modell hat eine Parameteranzahl von bis zu 456 Milliarden, wobei eine Aktivierung 45,9 Milliarden beträgt. Die Gesamtleistung des Modells kann mit den besten Modellen im Ausland mithalten und kann gleichzeitig effizient den weltweit längsten Kontext von 4 Millionen Tokens verarbeiten, was 32-mal so viel wie GPT-4o und 20-mal so viel wie Claude-3.5-Sonnet ist."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo ist die Turbo-Version der Kimi K2-Serie. Sie wurde für schnellere Inferenz und höheren Durchsatz optimiert, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Das Modell basiert auf einer Mixture-of-Experts (MoE)-Architektur mit rund 1 Billion Parametern, unterstützt nativ 256K Kontextlänge und kann stabile großskalige Werkzeugaufrufe ausführen ideal für produktive Szenarien mit hohen Anforderungen an Latenz und Parallelität."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview ist ein innovatives Modell für die Verarbeitung natürlicher Sprache, das komplexe Aufgaben der Dialoggenerierung und des Kontextverständnisses effizient bewältigen kann."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 ist ein Open-Source-Mischexperten-Code-Modell, das in Codeaufgaben hervorragende Leistungen erbringt und mit GPT4-Turbo vergleichbar ist."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR ist ein visuelles Sprachmodell von DeepSeek AI, das sich auf optische Zeichenerkennung (OCR) und 'kontextuelle optische Kompression' spezialisiert. Es zielt darauf ab, die Grenzen der Kontextkompression aus Bildern zu erforschen, verarbeitet Dokumente effizient und wandelt sie in strukturierte Textformate wie Markdown um. Es erkennt Textinhalte in Bildern präzise und eignet sich besonders für Anwendungen wie Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung."
},
"deepseek-r1": {
"description": "DeepSeek-R1 ist ein durch verstärkendes Lernen (RL) gesteuertes Inferenzmodell, das die Probleme der Wiederholbarkeit und Lesbarkeit im Modell löst. Vor dem RL führte DeepSeek-R1 Kaltstartdaten ein, um die Inferenzleistung weiter zu optimieren. Es zeigt in mathematischen, programmierbezogenen und Inferenzaufgaben eine vergleichbare Leistung zu OpenAI-o1 und verbessert durch sorgfältig gestaltete Trainingsmethoden die Gesamteffizienz."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision ist ein visuelles Tiefdenkmodell, das in Szenarien wie Bildung, Bildprüfung, Inspektion und Sicherheit sowie KI-Suchfragen eine stärkere allgemeine multimodale Verständnis- und Schlussfolgerungsfähigkeit zeigt. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 64k Tokens."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code ist tiefgreifend für agentenbasiertes Programmieren optimiert. Es unterstützt Multimodalität (Text/Bild/Video) und 256K langen Kontext, ist kompatibel mit der Anthropic API und eignet sich für Programmierung, visuelles Verständnis und Agent-Szenarien."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Das Doubao-Bildgenerierungsmodell wurde vom Seed-Team von ByteDance entwickelt, unterstützt Texteingaben und Bilder und bietet eine hochgradig kontrollierbare, qualitativ hochwertige Bildgenerierung. Es ermöglicht die Bildbearbeitung mittels Textanweisungen mit Bildseitenlängen zwischen 512 und 1536 Pixel."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, ein Open-Source-Multimodalmodell für Bild-Text-Verständnis und Inferenzaufgaben."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking ist ein natives, multimodales Flaggschiffmodell, das Text, Bild, Audio und Video in einem einheitlichen Modell verarbeitet. Es bietet umfassend verbesserte Fähigkeiten und eignet sich für komplexe Fragen, kreative Aufgaben und intelligente Agenten."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview, ein natives, multimodales Flaggschiffmodell mit einheitlicher Modellierung von Text, Bild, Audio und Video. Umfassend verbesserte Fähigkeiten für komplexe QA, kreative Aufgaben und Agentenszenarien."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Das Kimi intelligente Assistenzprodukt verwendet das neueste Kimi Großmodell, das möglicherweise noch instabile Funktionen enthält. Es unterstützt die Bildverarbeitung und wählt automatisch das Abrechnungsmodell 8k/32k/128k basierend auf der Länge des angeforderten Kontexts aus."
},
"kimi-thinking-preview": {
"description": "Das kimi-thinking-preview Modell von Moons Dark Side ist ein multimodales Denkmodell mit Fähigkeiten zu multimodalem und allgemeinem logischem Denken. Es ist spezialisiert auf tiefgehende Schlussfolgerungen und hilft dabei, komplexere und schwierigere Aufgaben zu lösen."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (zeitlich begrenzt kostenlos) ist auf Codeverständnis und automatisierte Programmierung spezialisiert ideal für effiziente Programmieragenten."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Das Llama 3.3 Instruct-Modell ist für Dialogszenarien optimiert und übertrifft in gängigen Branchenbenchmarks viele bestehende Open-Source-Chatmodelle."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: Ein leistungsstarkes Modell der Llama-Serie, optimiert für Szenarien mit hoher Verarbeitungsgeschwindigkeit und niedriger Latenz."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B bietet unvergleichliche Fähigkeiten zur Verarbeitung von Komplexität und ist maßgeschneidert für Projekte mit hohen Anforderungen."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking ist das neueste und leistungsstärkste Open-Source-Denkmodell. Es erweitert die Tiefe mehrstufiger Schlussfolgerungen erheblich und bleibt bei 200300 aufeinanderfolgenden Werkzeugaufrufen stabil. Es setzt neue Maßstäbe in Benchmarks wie Humanity's Last Exam (HLE) und BrowseComp. K2 Thinking überzeugt in Programmierung, Mathematik, logischem Denken und Agent-Szenarien. Das Modell basiert auf einer Mixture-of-Experts (MoE)-Architektur mit rund 1 Billion Parametern, unterstützt 256K Kontextfenster und Werkzeugnutzung."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 ist ein von Moonshot AI entwickeltes großes gemischtes Experten (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern pro Vorwärtsdurchlauf. Es ist auf Agentenfähigkeiten optimiert, einschließlich fortgeschrittener Werkzeugnutzung, Inferenz und Code-Synthese."
},
@ -2721,7 +2733,7 @@
"description": "Konzentriert sich auf fortgeschrittene Inferenz und die Lösung komplexer Probleme, einschließlich mathematischer und wissenschaftlicher Aufgaben. Besonders geeignet für Anwendungen, die ein tiefes Verständnis des Kontexts und die Abwicklung von Arbeitsabläufen erfordern."
},
"o1-mini": {
"description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
"description": "Kleiner und schneller als o1-preview, 80 % kostengünstiger, mit guter Leistung bei Codegenerierung und Aufgaben mit kleinem Kontext."
},
"o1-preview": {
"description": "Konzentriert auf fortgeschrittenes Schlussfolgern und die Lösung komplexer Probleme, einschließlich mathematischer und naturwissenschaftlicher Aufgaben. Sehr gut geeignet für Anwendungen, die ein tiefes Kontextverständnis und autonome Arbeitsabläufe benötigen."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: Ein Modell der Qwen-Serie mit starker Leistung bei mehrsprachigen und Programmieraufgaben, geeignet für mittelgroße produktive Einsätze."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: Ein Modell mit langem Kontext, das für Codegenerierung und komplexe Programmieraufgaben entwickelt wurde."
},
"qwen-coder-plus": {
"description": "Tongyi Qianwen Codierungsmodell."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Ein neues API-Produkt, das von dem DeepSeek-Inferenzmodell unterstützt wird."
},
"spark-x": {
"description": "X1.5-Funktionsübersicht: (1) Neue dynamische Denkmodusanpassung über das Feld 'thinking'; (2) Erweiterte Kontextlänge: je 64K für Eingabe und Ausgabe; (3) Unterstützung für FunctionCall-Funktion."
},
"stable-diffusion-3-medium": {
"description": "Das neueste Text-zu-Bild-Großmodell von Stability AI. Diese Version verbessert signifikant Bildqualität, Textverständnis und Stilvielfalt gegenüber Vorgängerversionen, kann komplexe natürliche Sprachaufforderungen präziser interpretieren und erzeugt genauere und vielfältigere Bilder."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 ist ein schnelles Codierungsmodell von xAI mit gut lesbarer und engineering-tauglicher Ausgabe."
},
"x1": {
"description": "Das Spark X1 Modell wird weiter verbessert und erreicht in allgemeinen Aufgaben wie Schlussfolgerungen, Textgenerierung und Sprachverständnis Ergebnisse, die mit OpenAI o1 und DeepSeek R1 vergleichbar sind, basierend auf der bereits führenden Leistung in mathematischen Aufgaben."
},
"xai/grok-2": {
"description": "Grok 2 ist ein fortschrittliches Sprachmodell mit modernsten Inferenzfähigkeiten. Es bietet fortschrittliche Fähigkeiten in Chat, Codierung und Inferenz und übertrifft Claude 3.5 Sonnet und GPT-4-Turbo in der LMSYS-Rangliste."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 ist das Flaggschiffmodell von Z.AI mit erweitertem Kontext und verbesserter Codierungsleistung."
},
"zai-glm-4.6": {
"description": "Hervorragende Leistung bei Programmier- und Schlussfolgerungsaufgaben, unterstützt Streaming und Werkzeugaufrufe ideal für agentenbasiertes Codieren und komplexe Denkprozesse."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 ist ein speziell für Agentenanwendungen entwickeltes Basismodell mit Mixture-of-Experts-Architektur. Es ist tief optimiert für Werkzeugaufrufe, Web-Browsing, Softwareentwicklung und Frontend-Programmierung und unterstützt nahtlos die Integration in Code-Agenten wie Claude Code und Roo Code. GLM-4.5 verwendet einen hybriden Inferenzmodus und ist für komplexe Schlussfolgerungen sowie den Alltagsgebrauch geeignet."
},

View file

@ -54,10 +54,11 @@
},
"betterAuth": {
"errors": {
"emailInvalid": "Please enter a valid email address",
"emailNotRegistered": "This email is not registered",
"emailInvalid": "Please enter a valid email address or username",
"emailExists": "This email is already registered. Please sign in instead",
"emailNotRegistered": "This email or username is not registered",
"emailNotVerified": "Email not verified, please verify your email first",
"emailRequired": "Please enter your email address",
"emailRequired": "Please enter your email address or username",
"firstNameRequired": "Please enter your first name",
"lastNameRequired": "Please enter your last name",
"loginFailed": "Login failed, please check your email and password",
@ -65,6 +66,7 @@
"passwordMaxLength": "Password must not exceed 64 characters",
"passwordMinLength": "Password must be at least 8 characters",
"passwordRequired": "Please enter your password",
"usernameNotRegistered": "This username is not registered",
"usernameRequired": "Please enter your username"
},
"resetPassword": {
@ -99,9 +101,8 @@
"continueWithOkta": "Sign in with Okta",
"continueWithWechat": "Sign in with WeChat",
"continueWithZitadel": "Sign in with Zitadel",
"emailPlaceholder": "Enter your email address",
"emailPlaceholder": "Enter your email or username",
"emailStep": {
"subtitle": "Enter your email address to continue",
"title": "Sign In"
},
"error": "Sign in failed, please check your email and password",
@ -194,6 +195,7 @@
"resetPasswordError": "Failed to send password reset link",
"resetPasswordSent": "Password reset link sent, please check your email",
"save": "Save",
"setPassword": "Set password",
"sso": {
"link": {
"button": "Connect Account",
@ -202,15 +204,22 @@
"loading": "Loading linked third-party accounts",
"providers": "Connected Accounts",
"unlink": {
"description": "After unlinking, you will no longer be able to sign in using the {{provider}} account \"{{providerAccountId}}\". If you wish to re-link your {{provider}} account to this account, please ensure the email address of your {{provider}} account is {{email}}. We will automatically link it to your current account upon login.",
"forbidden": "You must retain at least one linked third-party account.",
"title": "Are you sure you want to unlink the third-party account {{provider}}?"
"description": "Re-authorization or re-linking is required to sign in with {{provider}} again after unlinking.",
"forbidden": "You must retain at least one login method.",
"title": "Unlink {{provider}} account?"
}
},
"title": "Profile Details",
"updateAvatar": "Update avatar",
"updateFullName": "Update fullname",
"username": "Username"
"updateUsername": "Update username",
"username": "Username",
"usernameDuplicate": "Username is already taken",
"usernameInputHint": "Please enter your new username",
"usernamePlaceholder": "Enter a username with letters, numbers, or underscores",
"usernameRequired": "Username cannot be empty",
"usernameRule": "Username can only contain letters, numbers, or underscores",
"usernameUpdateFailed": "Failed to update username, please try again later"
},
"signout": "Log Out",
"signup": "Sign Up",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Purpose-built for efficient coding and agent workflows."
},
"MiniMax-M2-Stable": {
"description": "Designed for efficient coding and agent workflows, offering higher concurrency and suitable for commercial use."
},
"MiniMax-Text-01": {
"description": "In the MiniMax-01 series of models, we have made bold innovations: for the first time, we have implemented a linear attention mechanism on a large scale, making the traditional Transformer architecture no longer the only option. This model has a parameter count of up to 456 billion, with a single activation of 45.9 billion. Its overall performance rivals that of top overseas models while efficiently handling the world's longest context of 4 million tokens, which is 32 times that of GPT-4o and 20 times that of Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo is the turbocharged version of the Kimi K2 series, optimized for inference speed and throughput while retaining K2 Thinkings multi-step reasoning and tool-calling capabilities. Built on a Mixture of Experts (MoE) architecture with approximately 1 trillion parameters, it natively supports a 256K context window and can reliably handle large-scale tool usage, making it ideal for production environments with high demands on latency and concurrency."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview is an innovative natural language processing model capable of efficiently handling complex dialogue generation and context understanding tasks."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 is an open-source hybrid expert code model that performs excellently in coding tasks, comparable to GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR is a vision-language model developed by DeepSeek AI, focused on Optical Character Recognition (OCR) and 'contextual optical compression.' It explores the limits of compressing contextual information from images, efficiently processing documents and converting them into structured formats like Markdown. It excels at accurately recognizing text within images, making it well-suited for document digitization, text extraction, and structured data processing."
},
"deepseek-r1": {
"description": "DeepSeek-R1 is a reinforcement learning (RL) driven inference model that addresses issues of repetitiveness and readability within the model. Prior to RL, DeepSeek-R1 introduced cold start data to further optimize inference performance. It performs comparably to OpenAI-o1 in mathematical, coding, and reasoning tasks, and enhances overall effectiveness through meticulously designed training methods."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision is a visual deep thinking model that demonstrates stronger general multimodal understanding and reasoning capabilities in scenarios such as education, image review, inspection and security, and AI search Q&A. It supports a 256k context window and an output length of up to 64k tokens."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code is deeply optimized for agentic programming tasks, supporting multimodal inputs (text/image/video) and a 256K long context window. It is compatible with the Anthropic API and ideal for programming, visual understanding, and agent-based scenarios."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Doubao image generation model developed by ByteDance Seed team supports both text and image inputs, providing a highly controllable and high-quality image generation experience. Supports image editing via text instructions, generating images with dimensions between 512 and 1536 pixels."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, an open-source multimodal model supporting image-text understanding and reasoning tasks."
},
"ernie-5.0-thinking-latest": {
"description": "ERNIE 5.0 Thinking is a flagship native multimodal model that supports unified modeling of text, images, audio, and video. With comprehensive capability upgrades, it is well-suited for complex Q&A, creative tasks, and intelligent agent applications."
},
"ernie-5.0-thinking-preview": {
"description": "ERNIE 5.0 Thinking Preview, a native all-modality flagship model supporting unified modeling of text, image, audio, and video, with comprehensive capability upgrades for complex Q&A, creative tasks, and agent scenarios."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "The Kimi Smart Assistant product uses the latest Kimi large model, which may include features that are not yet stable. It supports image understanding and will automatically select the 8k/32k/128k model as the billing model based on the length of the request context."
},
"kimi-thinking-preview": {
"description": "kimi-thinking-preview is a multimodal thinking model provided by Dark Side of the Moon, featuring multimodal and general reasoning abilities. It excels at deep reasoning to help solve more complex and challenging problems."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (limited-time free) focuses on code understanding and automated programming, designed for efficient coding agent tasks."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "The Llama 3.3 instruction-tuned model is optimized for conversational scenarios, outperforming many existing open-source chat models on common industry benchmarks."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: A high-performance Llama model optimized for scenarios requiring high throughput and low latency."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B provides unparalleled complexity handling capabilities, tailored for high-demand projects."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking is the latest and most powerful open-source reasoning model. It significantly extends multi-step reasoning depth and maintains stable tool usage across 200300 consecutive tool calls. It sets new benchmarks in evaluations such as Humanity's Last Exam (HLE) and BrowseComp. The model excels in programming, mathematics, logical reasoning, and agent-based scenarios. Built on a Mixture of Experts (MoE) architecture with approximately 1 trillion parameters, it supports a 256K context window and tool calling."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 is a large-scale Mixture of Experts (MoE) language model developed by Moonshot AI, with a total of 1 trillion parameters and 32 billion active parameters per forward pass. It is optimized for agent capabilities, including advanced tool use, reasoning, and code synthesis."
},
@ -2721,7 +2733,7 @@
"description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. It is particularly well-suited for applications that require deep contextual understanding and agent workflow."
},
"o1-mini": {
"description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023."
"description": "Smaller and faster than o1-preview, with 80% lower cost. Performs well in code generation and tasks involving small context windows."
},
"o1-preview": {
"description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. Ideal for applications that require deep contextual understanding and autonomous workflows."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: A strong performer in multilingual and coding tasks, suitable for medium-scale production use."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: A long-context model designed for code generation and complex programming tasks."
},
"qwen-coder-plus": {
"description": "Tongyi Qianwen coding model."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "A new API product powered by the DeepSeek reasoning model."
},
"spark-x": {
"description": "X1.5 Capabilities: (1) Introduces dynamic thinking mode adjustment via the 'thinking' field; (2) Increased context length: 64K for both input and output; (3) Supports FunctionCall functionality."
},
"stable-diffusion-3-medium": {
"description": "The latest text-to-image large model released by Stability AI. This version inherits the advantages of its predecessors and significantly improves image quality, text understanding, and style diversity, enabling more accurate interpretation of complex natural language prompts and generating more precise and diverse images."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 is xAIs fast code model, delivering readable and production-ready output."
},
"x1": {
"description": "The Spark X1 model will undergo further upgrades, achieving results in reasoning, text generation, and language understanding tasks that match OpenAI o1 and DeepSeek R1, building on its leading position in domestic mathematical tasks."
},
"xai/grok-2": {
"description": "Grok 2 is a cutting-edge language model with state-of-the-art reasoning capabilities. It excels in chat, coding, and reasoning, outperforming Claude 3.5 Sonnet and GPT-4-Turbo on the LMSYS leaderboard."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 is Z.AIs flagship model, with extended context length and enhanced coding capabilities."
},
"zai-glm-4.6": {
"description": "Performs well in programming and reasoning tasks, supports streaming and tool calling, and is suitable for agentic coding and complex reasoning scenarios."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 is a foundational model designed specifically for agent applications, using a Mixture-of-Experts (MoE) architecture. It is deeply optimized for tool invocation, web browsing, software engineering, and front-end programming, supporting seamless integration with code agents like Claude Code and Roo Code. GLM-4.5 employs a hybrid inference mode, adaptable to complex reasoning and everyday use scenarios."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Este correo electrónico ya está registrado. Por favor, inicia sesión directamente.",
"emailInvalid": "Por favor, introduce una dirección de correo electrónico válida",
"emailNotRegistered": "Este correo electrónico no está registrado",
"emailNotVerified": "El correo electrónico no ha sido verificado. Por favor, verifica tu correo primero",
@ -65,6 +66,7 @@
"passwordMaxLength": "La contraseña no puede tener más de 64 caracteres",
"passwordMinLength": "La contraseña debe tener al menos 8 caracteres",
"passwordRequired": "Por favor, introduce tu contraseña",
"usernameNotRegistered": "Este nombre de usuario no está registrado",
"usernameRequired": "Por favor, introduce tu nombre de usuario"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Iniciar sesión con Zitadel",
"emailPlaceholder": "Introduce tu dirección de correo electrónico",
"emailStep": {
"subtitle": "Introduce tu dirección de correo electrónico para continuar",
"title": "Iniciar sesión"
},
"error": "Error al iniciar sesión. Verifica tu correo electrónico y contraseña",
@ -194,6 +195,7 @@
"resetPasswordError": "Error al enviar el enlace de restablecimiento de contraseña",
"resetPasswordSent": "Enlace de restablecimiento de contraseña enviado. Revisa tu correo",
"save": "Guardar",
"setPassword": "Establecer contraseña",
"sso": {
"link": {
"button": "Conectar cuenta",
@ -210,7 +212,14 @@
"title": "Detalles del perfil",
"updateAvatar": "Actualizar avatar",
"updateFullName": "Actualizar nombre completo",
"username": "Nombre de usuario"
"updateUsername": "Actualizar nombre de usuario",
"username": "Nombre de usuario",
"usernameDuplicate": "El nombre de usuario ya está en uso",
"usernameInputHint": "Por favor, introduce un nuevo nombre de usuario",
"usernamePlaceholder": "Introduce un nombre de usuario compuesto por letras, números o guiones bajos",
"usernameRequired": "El nombre de usuario no puede estar vacío",
"usernameRule": "El nombre de usuario solo puede contener letras, números o guiones bajos",
"usernameUpdateFailed": "Error al actualizar el nombre de usuario, inténtalo de nuevo más tarde"
},
"signout": "Cerrar sesión",
"signup": "Registrarse",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Diseñado específicamente para una codificación eficiente y flujos de trabajo con agentes."
},
"MiniMax-M2-Stable": {
"description": "Diseñado para una codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia y uso comercial."
},
"MiniMax-Text-01": {
"description": "En la serie de modelos MiniMax-01, hemos realizado una innovación audaz: la implementación a gran escala del mecanismo de atención lineal, donde la arquitectura Transformer tradicional ya no es la única opción. Este modelo tiene una cantidad de parámetros de hasta 456 mil millones, con 45.9 mil millones por activación. El rendimiento general del modelo es comparable a los mejores modelos internacionales, y puede manejar de manera eficiente contextos de hasta 4 millones de tokens, que es 32 veces más que GPT-4o y 20 veces más que Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo es la versión Turbo de la serie Kimi K2, optimizada para la velocidad de inferencia y el rendimiento, manteniendo la capacidad de razonamiento multietapa y uso de herramientas de K2 Thinking. Este modelo se basa en una arquitectura de expertos mixtos (MoE), con aproximadamente 1 billón de parámetros, soporte nativo para contextos de hasta 256K y ejecución estable de llamadas a herramientas a gran escala. Ideal para entornos de producción con altas exigencias de latencia y concurrencia."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview es un modelo de procesamiento de lenguaje natural innovador, capaz de manejar de manera eficiente tareas complejas de generación de diálogos y comprensión del contexto."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 es un modelo de código de expertos híbrido de código abierto, que destaca en tareas de codificación, comparable a GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR es un modelo de lenguaje visual desarrollado por DeepSeek AI, enfocado en el reconocimiento óptico de caracteres (OCR) y la 'compresión óptica contextual'. El modelo explora los límites de la compresión de información contextual a partir de imágenes, permitiendo procesar documentos de forma eficiente y convertirlos en formatos estructurados como Markdown. Es capaz de reconocer con precisión el contenido textual en imágenes, siendo especialmente útil para digitalización de documentos, extracción de texto y procesamiento estructurado."
},
"deepseek-r1": {
"description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision es un modelo de pensamiento profundo visual que demuestra una capacidad multimodal general más fuerte en escenarios como educación, revisión de imágenes, inspección y seguridad, y búsqueda y respuesta con IA. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 64k tokens."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code está profundamente optimizado para tareas de programación agentic, con soporte multimodal (texto/imágenes/video) y contextos largos de hasta 256K. Compatible con la API de Anthropic, es ideal para programación, comprensión visual y escenarios con agentes."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "El modelo de generación de imágenes Doubao fue desarrollado por el equipo Seed de ByteDance, soporta entrada de texto e imagen, ofreciendo una experiencia de generación de imágenes altamente controlable y de alta calidad. Permite editar imágenes mediante instrucciones de texto, generando imágenes con lados entre 512 y 1536 píxeles."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, modelo multimodal de código abierto, compatible con tareas de comprensión e inferencia de imágenes y texto."
},
"ernie-5.0-thinking-latest": {
"description": "Ernie 5.0 Thinking es un modelo insignia multimodal nativo que integra texto, imagen, audio y video en una única arquitectura. Con capacidades ampliamente mejoradas, es adecuado para preguntas complejas, creación de contenido y escenarios con agentes inteligentes."
},
"ernie-5.0-thinking-preview": {
"description": "ERNIE 5.0 Thinking Preview, modelo insignia nativo totalmente multimodal, compatible con modelado unificado de texto, imagen, audio y video, con capacidades integrales mejoradas, ideal para preguntas complejas, creación y agentes inteligentes."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "El producto asistente inteligente Kimi utiliza el último modelo grande de Kimi, que puede incluir características que aún no están estables. Soporta la comprensión de imágenes y seleccionará automáticamente el modelo de facturación de 8k/32k/128k según la longitud del contexto de la solicitud."
},
"kimi-thinking-preview": {
"description": "El modelo kimi-thinking-preview, proporcionado por la cara oculta de la luna, es un modelo multimodal de pensamiento con capacidades de razonamiento multimodal y general, especializado en razonamiento profundo para ayudar a resolver problemas más complejos."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (gratis por tiempo limitado) se centra en la comprensión de código y programación automatizada, ideal para tareas de agente de programación eficiente."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "El modelo de instrucción Llama 3.3, optimizado para escenarios de diálogo, supera a muchos modelos de chat de código abierto existentes en pruebas de referencia comunes de la industria."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: un modelo de alto rendimiento de la serie Llama, diseñado para escenarios que requieren alto rendimiento y baja latencia."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B proporciona una capacidad de procesamiento de complejidad inigualable, diseñado a medida para proyectos de alta demanda."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking es el modelo de razonamiento de código abierto más reciente y avanzado. Amplía significativamente la profundidad del razonamiento multietapa y mantiene un uso estable de herramientas en 200300 llamadas consecutivas. Ha establecido nuevos estándares en pruebas como Humanity's Last Exam (HLE), BrowseComp y otros benchmarks. Además, K2 Thinking destaca en programación, matemáticas, razonamiento lógico y escenarios con agentes. Basado en una arquitectura de expertos mixtos (MoE), cuenta con aproximadamente 1 billón de parámetros, soporte para ventanas de contexto de 256K y llamadas a herramientas."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 es un modelo de lenguaje de expertos mixtos (MoE) a gran escala desarrollado por Moonshot AI, con un total de un billón de parámetros y 32 mil millones de parámetros activos por pasada. Está optimizado para capacidades de agente, incluyendo uso avanzado de herramientas, razonamiento y síntesis de código."
},
@ -2721,7 +2733,7 @@
"description": "Se centra en el razonamiento avanzado y la resolución de problemas complejos, incluidas tareas matemáticas y científicas. Es muy adecuado para aplicaciones que requieren una comprensión profunda del contexto y flujos de trabajo de agentes."
},
"o1-mini": {
"description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
"description": "Más pequeño y rápido que o1-preview, con un coste un 80% menor. Ofrece buen rendimiento en generación de código y operaciones con contextos pequeños."
},
"o1-preview": {
"description": "Enfocado en el razonamiento avanzado y en la resolución de problemas complejos, incluidas tareas de matemáticas y de ciencias. Es ideal para aplicaciones que requieren una comprensión profunda del contexto y flujos de trabajo autónomos."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: el modelo de la serie Qwen ofrece un excelente rendimiento en tareas multilingües y de codificación, ideal para aplicaciones de producción a escala media."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: un modelo de contexto largo diseñado para generación de código y tareas complejas de programación."
},
"qwen-coder-plus": {
"description": "Modelo de código Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Un nuevo producto API respaldado por el modelo de razonamiento DeepSeek."
},
"spark-x": {
"description": "Descripción de capacidades de X1.5: (1) Nuevo ajuste dinámico del modo de pensamiento, controlado mediante el campo 'thinking'; (2) Longitud de contexto aumentada: 64K de entrada y 64K de salida; (3) Soporte para la función FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "El último gran modelo de generación de imágenes a partir de texto lanzado por Stability AI. Esta versión mejora significativamente la calidad de imagen, comprensión textual y diversidad de estilos, heredando las ventajas de generaciones anteriores. Puede interpretar con mayor precisión indicaciones complejas en lenguaje natural y generar imágenes más precisas y variadas."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 es el modelo rápido de código de xAI, con salidas legibles y adaptadas a la ingeniería."
},
"x1": {
"description": "El modelo Spark X1 se actualizará aún más, logrando resultados en tareas generales como razonamiento, generación de texto y comprensión del lenguaje que se comparan con OpenAI o1 y DeepSeek R1, además de liderar en tareas matemáticas en el país."
},
"xai/grok-2": {
"description": "Grok 2 es un modelo de lenguaje de vanguardia con capacidades de razonamiento avanzadas. Sobresale en chat, codificación y razonamiento, superando a Claude 3.5 Sonnet y GPT-4-Turbo en la clasificación LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 es el modelo insignia de Z.AI, con contexto extendido y capacidades de codificación mejoradas."
},
"zai-glm-4.6": {
"description": "Rinde excelentemente en tareas de programación y razonamiento, con soporte para transmisión en tiempo real y llamadas a herramientas. Ideal para codificación agentic y escenarios de razonamiento complejo."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 es un modelo base diseñado para aplicaciones de agentes inteligentes, utilizando arquitectura Mixture-of-Experts (MoE). Está profundamente optimizado para llamadas a herramientas, navegación web, ingeniería de software y programación frontend, soportando integración fluida con agentes de código como Claude Code y Roo Code. GLM-4.5 emplea un modo de inferencia híbrido que se adapta a escenarios de razonamiento complejo y uso cotidiano."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "این ایمیل قبلاً ثبت شده است، لطفاً مستقیماً وارد شوید",
"emailInvalid": "لطفاً یک آدرس ایمیل معتبر وارد کنید",
"emailNotRegistered": "این ایمیل هنوز ثبت نشده است",
"emailNotVerified": "ایمیل تأیید نشده است، لطفاً ابتدا آن را تأیید کنید",
@ -65,6 +66,7 @@
"passwordMaxLength": "رمز عبور نباید بیش از ۶۴ کاراکتر باشد",
"passwordMinLength": "رمز عبور باید حداقل ۸ کاراکتر باشد",
"passwordRequired": "لطفاً رمز عبور را وارد کنید",
"usernameNotRegistered": "این نام کاربری هنوز ثبت نشده است",
"usernameRequired": "لطفاً نام کاربری را وارد کنید"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "ورود با Zitadel",
"emailPlaceholder": "لطفاً آدرس ایمیل را وارد کنید",
"emailStep": {
"subtitle": "برای ادامه، لطفاً آدرس ایمیل خود را وارد کنید",
"title": "ورود"
},
"error": "ورود ناموفق بود، لطفاً ایمیل و رمز عبور را بررسی کنید",
@ -194,6 +195,7 @@
"resetPasswordError": "ارسال لینک بازنشانی رمز عبور ناموفق بود",
"resetPasswordSent": "لینک بازنشانی رمز عبور ارسال شد، لطفاً ایمیل خود را بررسی کنید",
"save": "ذخیره",
"setPassword": "تنظیم گذرواژه",
"sso": {
"link": {
"button": "اتصال حساب",
@ -210,7 +212,14 @@
"title": "جزئیات پروفایل",
"updateAvatar": "به‌روزرسانی تصویر پروفایل",
"updateFullName": "به‌روزرسانی نام کامل",
"username": "نام کاربری"
"updateUsername": "به‌روزرسانی نام کاربری",
"username": "نام کاربری",
"usernameDuplicate": "این نام کاربری قبلاً استفاده شده است",
"usernameInputHint": "لطفاً نام کاربری جدید را وارد کنید",
"usernamePlaceholder": "لطفاً نام کاربری شامل حروف، اعداد یا زیرخط (_) وارد کنید",
"usernameRequired": "نام کاربری نمی‌تواند خالی باشد",
"usernameRule": "نام کاربری فقط می‌تواند شامل حروف، اعداد یا زیرخط (_) باشد",
"usernameUpdateFailed": "به‌روزرسانی نام کاربری انجام نشد، لطفاً بعداً دوباره تلاش کنید"
},
"signout": "خروج",
"signup": "ثبت نام",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "طراحی‌شده برای کدنویسی کارآمد و جریان کاری عامل‌ها (Agents)"
},
"MiniMax-M2-Stable": {
"description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری Agent، با توانایی هم‌زمانی بالا و مناسب برای استفاده تجاری."
},
"MiniMax-Text-01": {
"description": "در سری مدل‌های MiniMax-01، ما نوآوری‌های جسورانه‌ای انجام داده‌ایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیاده‌سازی کرده‌ایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعال‌سازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدل‌های خارجی برابری می‌کند و در عین حال می‌تواند به طور مؤثر به متن‌های طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال می‌باشد. ویژگی‌های اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمون‌های معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان می‌دهد؛ تجربه کدگذاری فرانت‌اند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامه‌نویسی فرانت‌اند پیشرفت داشته است."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo نسخه توربوی سری Kimi K2 است که برای سرعت استنتاج و توان عملیاتی بهینه‌سازی شده و در عین حال توانایی استنتاج چندمرحله‌ای و استفاده از ابزارهای K2 Thinking را حفظ می‌کند. این مدل بر پایه معماری متخصصان ترکیبی (MoE) ساخته شده، دارای حدود ۱ تریلیون پارامتر است، به‌صورت بومی از زمینه ۲۵۶ هزار توکن پشتیبانی می‌کند و می‌تواند به‌طور پایدار فراخوانی ابزارهای بزرگ‌مقیاس را انجام دهد. مناسب برای محیط‌های تولیدی با نیاز بالا به تأخیر کم و هم‌زمانی بالا."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متن‌باز است که در وظایف کدنویسی عملکرد بسیار خوبی دارد و با GPT4-Turbo قابل مقایسه است."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR یک مدل زبان تصویری از DeepSeek AI است که بر شناسایی نویسه نوری (OCR) و «فشرده‌سازی نوری متنی» تمرکز دارد. این مدل با هدف بررسی مرزهای فشرده‌سازی اطلاعات متنی از تصاویر طراحی شده و می‌تواند اسناد را به‌طور مؤثر پردازش کرده و به فرمت‌های متنی ساختاریافته مانند Markdown تبدیل کند. این مدل توانایی بالایی در شناسایی دقیق محتوای متنی در تصاویر دارد و برای کاربردهایی مانند دیجیتالی‌سازی اسناد، استخراج متن و پردازش ساختاریافته بسیار مناسب است."
},
"deepseek-r1": {
"description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرد و عملکرد استنتاج را بهینه‌تر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روش‌های آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "مدل تفکر عمیق بصری Doubao-Seed-1.6-vision در زمینه‌هایی مانند آموزش، بازبینی تصاویر، بازرسی و امنیت و پرسش و پاسخ جستجوی هوش مصنوعی، توانایی درک و استدلال چندرسانه‌ای عمومی قوی‌تری را نشان می‌دهد. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی می‌کند و طول خروجی تا ۶۴ هزار توکن قابل افزایش است."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code برای وظایف برنامه‌نویسی Agentic به‌طور عمیق بهینه‌سازی شده است. از چندرسانه‌ای (متن/تصویر/ویدیو) و زمینه طولانی ۲۵۶ هزار توکن پشتیبانی می‌کند، با API شرکت Anthropic سازگار است و برای برنامه‌نویسی، درک بصری و سناریوهای Agent مناسب است."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "مدل تولید تصویر Doubao توسط تیم Seed شرکت ByteDance توسعه یافته است، از ورودی متن و تصویر پشتیبانی می‌کند و تجربه‌ای با کنترل بالا و کیفیت عالی در تولید تصویر ارائه می‌دهد. امکان ویرایش تصویر با دستور متنی وجود دارد و طول ضلع تصویر تولید شده بین 512 تا 1536 پیکسل است."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B، مدل چندوجهی متن‌باز، پشتیبانی از وظایف درک و استنتاج تصویر و متن."
},
"ernie-5.0-thinking-latest": {
"description": "Ernie 5.0 Thinking، مدل پرچم‌دار چندرسانه‌ای بومی، از مدل‌سازی یکپارچه متن، تصویر، صوت و ویدیو پشتیبانی می‌کند. توانایی‌های جامع آن به‌روزرسانی شده و برای پرسش‌وپاسخ‌های پیچیده، تولید محتوا و سناریوهای هوشمند بسیار مناسب است."
},
"ernie-5.0-thinking-preview": {
"description": "پیش‌نمایش ERNIE 5.0 Thinking، مدل پرچم‌دار چندوجهی بومی، پشتیبانی از مدل‌سازی یکپارچه متن، تصویر، صدا و ویدیو، با ارتقاء جامع توانایی‌ها، مناسب برای پرسش و پاسخ پیچیده، تولید محتوا و عامل‌های هوشمند."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "محصول دستیار هوشمند کیمی از جدیدترین مدل بزرگ کیمی استفاده می‌کند و ممکن است شامل ویژگی‌های ناپایدار باشد. از درک تصویر پشتیبانی می‌کند و به‌طور خودکار بر اساس طول متن درخواست، مدل‌های 8k/32k/128k را به‌عنوان مدل محاسبه انتخاب می‌کند."
},
"kimi-thinking-preview": {
"description": "مدل kimi-thinking-preview که توسط Moons Dark Side ارائه شده است، مدلی چندرسانه‌ای با توانایی استدلال چندوجهی و استدلال عمومی است که در استدلال عمیق مهارت دارد و به حل مسائل پیچیده‌تر کمک می‌کند."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (رایگان برای مدت محدود) بر درک کد و برنامه‌نویسی خودکار تمرکز دارد و برای وظایف نمایندگی برنامه‌نویسی کارآمد طراحی شده است."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "مدل آموزشی لاما ۳.۳ برای صحنه‌های گفت‌وگو بهینه‌سازی شده است و در معیارهای صنعتی معمول، بسیاری از مدل‌های چت منبع باز موجود را در برمی‌آید."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: مدلی قدرتمند از سری Llama، مناسب برای سناریوهایی با نیاز به بازدهی بالا و تأخیر پایین."
},
"llama3-70b-8192": {
"description": "متا لاما ۳ ۷۰B توانایی پردازش پیچیدگی بی‌نظیری را ارائه می‌دهد و برای پروژه‌های با نیازهای بالا طراحی شده است."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال می‌باشد. ویژگی‌های اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمون‌های معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان می‌دهد؛ تجربه کدگذاری فرانت‌اند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامه‌نویسی فرانت‌اند پیشرفت داشته است."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking جدیدترین و قدرتمندترین مدل تفکر متن‌باز است. این مدل با افزایش چشمگیر عمق استنتاج چندمرحله‌ای و حفظ پایداری در بیش از ۲۰۰ تا ۳۰۰ بار استفاده متوالی از ابزارها، استانداردهای جدیدی را در آزمون Humanity's Last Exam (HLE)، BrowseComp و سایر معیارها تعیین کرده است. همچنین، K2 Thinking در برنامه‌نویسی، ریاضیات، استدلال منطقی و سناریوهای Agent عملکردی برجسته دارد. این مدل بر پایه معماری متخصصان ترکیبی (MoE) ساخته شده، دارای حدود ۱ تریلیون پارامتر است، از پنجره زمینه ۲۵۶ هزار توکن پشتیبانی می‌کند و قابلیت استفاده از ابزارها را دارد."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 مدل زبان بزرگ متخصص ترکیبی (MoE) با مقیاس بزرگ توسعه یافته توسط Moonshot AI است که دارای 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال در هر عبور جلو است. این مدل برای توانایی نمایندگی بهینه شده است، از جمله استفاده پیشرفته از ابزارها، استدلال و ترکیب کد."
},
@ -2721,7 +2733,7 @@
"description": "متمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که به درک عمیق زمینه و مدیریت جریان‌های کاری نیاز دارند."
},
"o1-mini": {
"description": "کوچکتر و سریعتر از o1-preview، با ۸۰٪ هزینه کمتر، و عملکرد خوب در تولید کد و عملیات با زمینه‌های کوچک."
"description": "کوچکتر و سریعتر از o1-preview، با ۸۰٪ هزینه کمتر، عملکرد خوب در تولید کد و عملیات با زمینه‌های کوچک."
},
"o1-preview": {
"description": "متمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله مسائل ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که نیاز به درک عمیقِ زمینه و جریان‌های کاری خودگردان دارند."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: مدل سری Qwen با عملکرد عالی در وظایف چندزبانه و برنامه‌نویسی، مناسب برای استفاده در مقیاس متوسط تولیدی."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: مدلی با زمینه طولانی برای تولید کد و انجام وظایف پیچیده برنامه‌نویسی."
},
"qwen-coder-plus": {
"description": "مدل کد نویسی Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "محصول جدید API که توسط مدل استدلال DeepSeek پشتیبانی می‌شود."
},
"spark-x": {
"description": "معرفی قابلیت‌های X1.5: (۱) افزودن تنظیم پویا برای حالت تفکر، قابل کنترل از طریق فیلد thinking؛ (۲) افزایش طول زمینه: ورودی و خروجی هرکدام ۶۴ هزار توکن؛ (۳) پشتیبانی از قابلیت FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "جدیدترین مدل بزرگ تولید تصویر از متن که توسط Stability AI ارائه شده است. این نسخه با حفظ مزایای نسل‌های قبلی، بهبودهای قابل توجهی در کیفیت تصویر، درک متن و تنوع سبک‌ها دارد و قادر است دستورات پیچیده زبان طبیعی را دقیق‌تر تفسیر کرده و تصاویر دقیق‌تر و متنوع‌تری تولید کند."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 مدل سریع کدنویسی از xAI است که خروجی‌هایی با خوانایی بالا و سازگار با مهندسی ارائه می‌دهد."
},
"x1": {
"description": "مدل Spark X1 به‌زودی ارتقا خواهد یافت و در زمینه وظایف ریاضی که در کشور پیشرو است، عملکردهای استدلال، تولید متن و درک زبان را با OpenAI o1 و DeepSeek R1 مقایسه خواهد کرد."
},
"xai/grok-2": {
"description": "Grok 2 مدل زبان پیشرفته با توان استدلال پیشرفته است. این مدل در مکالمه، کدنویسی و استدلال توانایی‌های پیشرفته دارد و در رتبه‌بندی LMSYS بالاتر از Claude 3.5 Sonnet و GPT-4-Turbo قرار دارد."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 مدل پرچم‌دار Z.AI است که طول زمینه و توانایی‌های کدنویسی را گسترش داده است."
},
"zai-glm-4.6": {
"description": "عملکرد عالی در وظایف برنامه‌نویسی و استدلال، پشتیبانی از حالت جریانی و فراخوانی ابزار، مناسب برای کدنویسی Agentic و سناریوهای استدلال پیچیده."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 یک مدل پایه طراحی شده برای کاربردهای عامل هوشمند است که از معماری Mixture-of-Experts استفاده می‌کند. این مدل در زمینه‌های فراخوانی ابزار، مرور وب، مهندسی نرم‌افزار و برنامه‌نویسی فرانت‌اند بهینه‌سازی عمیق شده و از ادغام بی‌وقفه با عامل‌های کد مانند Claude Code و Roo Code پشتیبانی می‌کند. GLM-4.5 از حالت استدلال ترکیبی بهره می‌برد و می‌تواند در سناریوهای استدلال پیچیده و استفاده روزمره به خوبی عمل کند."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Cet e-mail est déjà enregistré, veuillez vous connecter directement.",
"emailInvalid": "Veuillez saisir une adresse e-mail valide",
"emailNotRegistered": "Cette adresse e-mail n'est pas encore enregistrée",
"emailNotVerified": "Adresse e-mail non vérifiée, veuillez la vérifier d'abord",
@ -65,6 +66,7 @@
"passwordMaxLength": "Le mot de passe ne doit pas dépasser 64 caractères",
"passwordMinLength": "Le mot de passe doit contenir au moins 8 caractères",
"passwordRequired": "Veuillez saisir un mot de passe",
"usernameNotRegistered": "Ce nom d'utilisateur n'est pas encore enregistré",
"usernameRequired": "Veuillez saisir un nom d'utilisateur"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Se connecter avec Zitadel",
"emailPlaceholder": "Veuillez saisir votre adresse e-mail",
"emailStep": {
"subtitle": "Veuillez saisir votre adresse e-mail pour continuer",
"title": "Connexion"
},
"error": "Échec de la connexion, veuillez vérifier votre e-mail et votre mot de passe",
@ -194,6 +195,7 @@
"resetPasswordError": "Échec de l'envoi du lien de réinitialisation du mot de passe",
"resetPasswordSent": "Lien de réinitialisation du mot de passe envoyé, veuillez vérifier votre boîte mail",
"save": "Enregistrer",
"setPassword": "Définir le mot de passe",
"sso": {
"link": {
"button": "Lier le compte",
@ -210,7 +212,14 @@
"title": "Détails du profil",
"updateAvatar": "Mettre à jour l'avatar",
"updateFullName": "Mettre à jour le nom complet",
"username": "Nom d'utilisateur"
"updateUsername": "Mettre à jour le nom d'utilisateur",
"username": "Nom d'utilisateur",
"usernameDuplicate": "Ce nom d'utilisateur est déjà pris",
"usernameInputHint": "Veuillez saisir un nouveau nom d'utilisateur",
"usernamePlaceholder": "Veuillez entrer un nom d'utilisateur composé de lettres, de chiffres ou de traits de soulignement",
"usernameRequired": "Le nom d'utilisateur ne peut pas être vide",
"usernameRule": "Le nom d'utilisateur ne peut contenir que des lettres, des chiffres ou des traits de soulignement",
"usernameUpdateFailed": "Échec de la mise à jour du nom d'utilisateur, veuillez réessayer plus tard"
},
"signout": "Se déconnecter",
"signup": "S'inscrire",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Conçu spécialement pour un codage efficace et les flux de travail des agents."
},
"MiniMax-M2-Stable": {
"description": "Conçu pour un codage efficace et les flux de travail des agents, avec une haute concurrence et une utilisation commerciale."
},
"MiniMax-Text-01": {
"description": "Dans la série de modèles MiniMax-01, nous avons réalisé une innovation audacieuse : la première mise en œuvre à grande échelle d'un mécanisme d'attention linéaire, rendant l'architecture Transformer traditionnelle non plus le seul choix. Ce modèle possède un nombre de paramètres atteignant 456 milliards, avec 45,9 milliards d'activations par instance. Les performances globales du modèle rivalisent avec celles des meilleurs modèles étrangers, tout en étant capable de traiter efficacement un contexte mondial de 4 millions de tokens, soit 32 fois celui de GPT-4o et 20 fois celui de Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo est la version Turbo de la série Kimi K2, optimisée pour la vitesse de raisonnement et le débit, tout en conservant les capacités de raisonnement multi-étapes et d'appel d'outils de K2 Thinking. Ce modèle repose sur une architecture à experts mixtes (MoE), avec environ 1T de paramètres, prend en charge nativement un contexte de 256K et exécute de manière stable des appels d'outils à grande échelle. Il est idéal pour les environnements de production exigeant une faible latence et une haute concurrence."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview est un modèle de traitement du langage naturel innovant, capable de gérer efficacement des tâches complexes de génération de dialogues et de compréhension contextuelle."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR est un modèle visuel-linguistique développé par DeepSeek AI, spécialisé dans la reconnaissance optique de caractères (OCR) et la « compression optique contextuelle ». Ce modèle vise à repousser les limites de la compression d'informations contextuelles à partir d'images, capable de traiter efficacement des documents et de les convertir en formats de texte structurés tels que Markdown. Il reconnaît avec précision le contenu textuel des images, ce qui le rend particulièrement adapté à la numérisation de documents, à l'extraction de texte et au traitement structuré."
},
"deepseek-r1": {
"description": "DeepSeek-R1 est un modèle d'inférence alimenté par l'apprentissage par renforcement (RL), qui résout les problèmes de répétitivité et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant ainsi les performances d'inférence. Il se compare à OpenAI-o1 en matière de tâches mathématiques, de code et d'inférence, et améliore l'efficacité globale grâce à des méthodes d'entraînement soigneusement conçues."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision est un modèle de réflexion profonde visuelle, démontrant une compréhension multimodale générale et des capacités de raisonnement renforcées dans des scénarios tels que l'éducation, la modération d'images, l'inspection, la sécurité et la recherche de questions-réponses AI. Il supporte une fenêtre contextuelle de 256k et une longueur de sortie maximale de 64k tokens."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code est profondément optimisé pour les tâches de programmation agentique, prenant en charge le multimodal (texte/image/vidéo) et un long contexte de 256K. Compatible avec l'API Anthropic, il est adapté aux scénarios de programmation, de compréhension visuelle et d'agents intelligents."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Le modèle de génération d'images Doubao, développé par l'équipe Seed de ByteDance, prend en charge les entrées texte et image, offrant une expérience de génération d'images de haute qualité et très contrôlable. Il permet d'éditer des images via des instructions textuelles, avec des dimensions d'image entre 512 et 1536 pixels."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, modèle multimodal open source, prenant en charge les tâches de compréhension et de raisonnement image-texte."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking est un modèle phare natif tout-modale, prenant en charge lunification du texte, de limage, de laudio et de la vidéo. Ses capacités globales ont été considérablement améliorées, le rendant adapté aux questions complexes, à la création de contenu et aux scénarios dagents intelligents."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview, modèle phare natif tout-modale, prenant en charge le texte, l'image, l'audio et la vidéo, avec des capacités globales améliorées, adapté aux questions complexes, à la création et aux agents intelligents."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Le produit d'assistant intelligent Kimi utilise le dernier modèle Kimi, qui peut inclure des fonctionnalités encore instables. Il prend en charge la compréhension des images et choisit automatiquement le modèle de facturation 8k/32k/128k en fonction de la longueur du contexte de la demande."
},
"kimi-thinking-preview": {
"description": "Le modèle kimi-thinking-preview, fourni par Moon's Dark Side, est un modèle de réflexion multimodal doté de capacités de raisonnement général et multimodal. Il excelle dans le raisonnement approfondi, aidant à résoudre des problèmes plus complexes."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (gratuit pour une durée limitée) se concentre sur la compréhension du code et la programmation automatisée, pour des tâches dagent de codage efficaces."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Le modèle d'instructions affiné Llama 3.3 est optimisé pour les scénarios de dialogue, surpassant de nombreux modèles de chat open source existants dans les tests de référence courants de l'industrie."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout : un modèle haute performance de la série Llama, conçu pour les scénarios nécessitant un haut débit et une faible latence."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B offre une capacité de traitement de complexité inégalée, sur mesure pour des projets exigeants."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking est le modèle de raisonnement open source le plus récent et le plus puissant. Il repousse les limites du raisonnement multi-étapes tout en maintenant une stabilité remarquable lors de 200 à 300 appels d'outils consécutifs. Il établit de nouvelles références dans des benchmarks tels que Humanity's Last Exam (HLE), BrowseComp, entre autres. K2 Thinking excelle également en programmation, mathématiques, raisonnement logique et scénarios d'agents. Basé sur une architecture à experts mixtes (MoE), il comprend environ 1T de paramètres, prend en charge une fenêtre contextuelle de 256K et les appels d'outils."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 est un modèle de langage à experts hybrides (MoE) à grande échelle développé par Moonshot AI, avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés par passage avant. Il est optimisé pour les capacités d'agent, incluant l'utilisation avancée d'outils, le raisonnement et la synthèse de code."
},
@ -2721,7 +2733,7 @@
"description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris les tâches mathématiques et scientifiques. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail d'agent."
},
"o1-mini": {
"description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
"description": "Plus petit et plus rapide que o1-preview, avec un coût réduit de 80 %, il offre de bonnes performances en génération de code et en traitement de petits contextes."
},
"o1-preview": {
"description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris des tâches mathématiques et scientifiques. Particulièrement adapté aux applications nécessitant une compréhension approfondie du contexte et des flux de travail autonomes."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B : un modèle de la série Qwen performant dans les tâches multilingues et de codage, adapté à une utilisation en production à échelle moyenne."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B : un modèle à long contexte conçu pour la génération de code et les tâches de programmation complexes."
},
"qwen-coder-plus": {
"description": "Modèle de code Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Nouveau produit API soutenu par le modèle de raisonnement DeepSeek."
},
"spark-x": {
"description": "Présentation des capacités de X1.5 : (1) Ajout dun mode de pensée dynamique contrôlé via le champ thinking ; (2) Longueur de contexte augmentée : 64K en entrée et en sortie ; (3) Prise en charge de la fonctionnalité FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Le dernier grand modèle de génération d'images à partir de texte lancé par Stability AI. Cette version améliore significativement la qualité d'image, la compréhension du texte et la diversité des styles, tout en héritant des avantages des versions précédentes. Il interprète plus précisément les invites en langage naturel complexes et génère des images plus précises et variées."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 est le modèle de code rapide de xAI, produisant des sorties lisibles et adaptées à lingénierie."
},
"x1": {
"description": "Le modèle Spark X1 sera mis à niveau, et sur la base de ses performances déjà leaders dans les tâches mathématiques, il atteindra des résultats comparables dans des tâches générales telles que le raisonnement, la génération de texte et la compréhension du langage, en se mesurant à OpenAI o1 et DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 est un modèle de langage de pointe avec des capacités de raisonnement avancées. Il excelle en chat, codage et raisonnement, surpassant Claude 3.5 Sonnet et GPT-4-Turbo dans le classement LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 est le modèle phare de Z.AI, avec des capacités étendues de longueur de contexte et de codage."
},
"zai-glm-4.6": {
"description": "Excellente performance en programmation et en tâches de raisonnement, avec prise en charge du streaming et des appels d'outils. Idéal pour le codage agentique et les scénarios de raisonnement complexe."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 est un modèle de base conçu pour les applications d'agents intelligents, utilisant une architecture Mixture-of-Experts (MoE). Il est profondément optimisé pour l'appel d'outils, la navigation web, l'ingénierie logicielle et la programmation front-end, supportant une intégration transparente avec des agents de code tels que Claude Code et Roo Code. GLM-4.5 utilise un mode d'inférence hybride, adapté à des scénarios variés allant du raisonnement complexe à l'usage quotidien."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Questo indirizzo email è già registrato, effettua direttamente l'accesso",
"emailInvalid": "Inserisci un indirizzo email valido",
"emailNotRegistered": "Questo indirizzo email non è registrato",
"emailNotVerified": "Email non verificata, verifica prima l'indirizzo email",
@ -65,6 +66,7 @@
"passwordMaxLength": "La password non può superare i 64 caratteri",
"passwordMinLength": "La password deve contenere almeno 8 caratteri",
"passwordRequired": "Inserisci la password",
"usernameNotRegistered": "Questo nome utente non è ancora registrato",
"usernameRequired": "Inserisci il nome utente"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Accedi con Zitadel",
"emailPlaceholder": "Inserisci l'indirizzo email",
"emailStep": {
"subtitle": "Inserisci il tuo indirizzo email per continuare",
"title": "Accedi"
},
"error": "Accesso fallito, controlla email e password",
@ -194,6 +195,7 @@
"resetPasswordError": "Invio del link per reimpostare la password fallito",
"resetPasswordSent": "Link per reimpostare la password inviato, controlla la tua email",
"save": "Salva",
"setPassword": "Imposta password",
"sso": {
"link": {
"button": "Collega account",
@ -210,7 +212,14 @@
"title": "Dettagli del profilo",
"updateAvatar": "Aggiorna avatar",
"updateFullName": "Aggiorna nome completo",
"username": "Nome Utente"
"updateUsername": "Aggiorna nome utente",
"username": "Nome Utente",
"usernameDuplicate": "Nome utente già in uso",
"usernameInputHint": "Inserisci un nuovo nome utente",
"usernamePlaceholder": "Inserisci un nome utente composto da lettere, numeri o underscore",
"usernameRequired": "Il nome utente non può essere vuoto",
"usernameRule": "Il nome utente può contenere solo lettere, numeri o underscore",
"usernameUpdateFailed": "Aggiornamento del nome utente non riuscito, riprova più tardi"
},
"signout": "Disconnetti",
"signup": "Registrati",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Progettato per una codifica efficiente e flussi di lavoro con agenti."
},
"MiniMax-M2-Stable": {
"description": "Progettato per una codifica efficiente e flussi di lavoro agentici, con alta concorrenza e uso commerciale."
},
"MiniMax-Text-01": {
"description": "Nella serie di modelli MiniMax-01, abbiamo fatto un'innovazione audace: per la prima volta abbiamo implementato su larga scala un meccanismo di attenzione lineare, rendendo l'architettura Transformer tradizionale non più l'unica opzione. Questo modello ha un numero di parametri che raggiunge i 456 miliardi, con un'attivazione singola di 45,9 miliardi. Le prestazioni complessive del modello sono paragonabili a quelle dei migliori modelli internazionali, mentre è in grado di gestire in modo efficiente contesti globali lunghi fino a 4 milioni di token, 32 volte rispetto a GPT-4o e 20 volte rispetto a Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 è l'ultima e più potente versione di Kimi K2. Si tratta di un modello linguistico di esperti misti (MoE) all'avanguardia, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi. Le caratteristiche principali del modello includono: intelligenza potenziata per la codifica degli agenti, con miglioramenti significativi nelle prestazioni sia nei test di riferimento pubblici sia nelle attività di codifica degli agenti nel mondo reale; esperienza di codifica frontend migliorata, con progressi sia nell'estetica che nella praticità della programmazione frontend."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo è la versione Turbo della serie Kimi K2, ottimizzata per velocità di inferenza e throughput, mantenendo le capacità di ragionamento multi-step e utilizzo di strumenti di K2 Thinking. Basato su un'architettura a esperti misti (MoE), il modello ha circa 1 trilione di parametri, supporta nativamente un contesto di 256K token ed esegue in modo stabile chiamate a strumenti su larga scala. Ideale per scenari produttivi con elevate esigenze di latenza e concorrenza."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview è un modello di elaborazione del linguaggio naturale innovativo, in grado di gestire in modo efficiente compiti complessi di generazione di dialoghi e comprensione del contesto."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR è un modello visivo-linguistico sviluppato da DeepSeek AI, focalizzato sul riconoscimento ottico dei caratteri (OCR) e sulla \"compressione ottica contestuale\". Il modello esplora i limiti della compressione delle informazioni contestuali da immagini, elaborando documenti in modo efficiente e convertendoli in formati strutturati come Markdown. È in grado di riconoscere accuratamente il testo nelle immagini, particolarmente adatto per digitalizzazione di documenti, estrazione di testo e processi di strutturazione."
},
"deepseek-r1": {
"description": "DeepSeek-R1 è un modello di inferenza guidato da apprendimento rinforzato (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva attraverso metodi di addestramento accuratamente progettati."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision è un modello di pensiero profondo visivo che dimostra una più forte capacità di comprensione e ragionamento multimodale generale in scenari come educazione, revisione delle immagini, ispezione e sicurezza, e ricerca e risposta AI. Supporta una finestra di contesto di 256k e una lunghezza di output fino a 64k token."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code è stato profondamente ottimizzato per compiti di programmazione agentica, supporta multimodalità (testo/immagini/video) e contesto lungo fino a 256K token, compatibile con l'API di Anthropic. Ideale per scenari di programmazione, comprensione visiva e agenti intelligenti."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Il modello di generazione immagini Doubao è sviluppato dal team Seed di ByteDance, supporta input di testo e immagini, offrendo un'esperienza di generazione immagini altamente controllabile e di alta qualità. Supporta l'editing delle immagini tramite comandi testuali, con dimensioni dell'immagine generate tra 512 e 1536 pixel."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, modello multimodale open source, supporta compiti di comprensione e ragionamento immagine-testo."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking è un modello di punta nativamente multimodale, che supporta testo, immagini, audio e video in un'unica architettura. Le sue capacità complessive sono state notevolmente migliorate, rendendolo adatto a domande complesse, creazione di contenuti e scenari con agenti intelligenti."
},
"ernie-5.0-thinking-preview": {
"description": "ERNIE 5.0 Thinking Preview, modello flagship nativo multimodale, supporta testo, immagini, audio e video, ideale per Q&A complessi, creazione e agenti intelligenti."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Il prodotto Kimi Smart Assistant utilizza il più recente modello Kimi, che potrebbe includere funzionalità non ancora stabili. Supporta la comprensione delle immagini e selezionerà automaticamente il modello di fatturazione 8k/32k/128k in base alla lunghezza del contesto della richiesta."
},
"kimi-thinking-preview": {
"description": "Il modello kimi-thinking-preview, fornito da Moon's Dark Side, è un modello multimodale di pensiero con capacità di ragionamento multimodale e generale, eccellente nel ragionamento profondo per aiutare a risolvere problemi più complessi."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (gratuito per un periodo limitato) è focalizzato sulla comprensione del codice e programmazione automatica, ideale per agenti di programmazione efficienti."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Il modello Llama 3.3 per l'addestramento di istruzioni è stato ottimizzato per scenari di conversazione, superando molti modelli di chat open source esistenti nelle comuni benchmark settoriali."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: un modello ad alte prestazioni della serie Llama, adatto a scenari che richiedono elevato throughput e bassa latenza."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B offre capacità di elaborazione della complessità senza pari, progettato su misura per progetti ad alta richiesta."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 è l'ultima e più potente versione di Kimi K2. Si tratta di un modello linguistico di esperti misti (MoE) all'avanguardia, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi. Le caratteristiche principali del modello includono: intelligenza potenziata per la codifica degli agenti, con miglioramenti significativi nelle prestazioni sia nei test di riferimento pubblici sia nelle attività di codifica degli agenti nel mondo reale; esperienza di codifica frontend migliorata, con progressi sia nell'estetica che nella praticità della programmazione frontend."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking è il più recente e potente modello open source per il ragionamento. Estende significativamente la profondità del ragionamento multi-step e mantiene un uso stabile degli strumenti anche in 200300 chiamate consecutive. Ha stabilito nuovi standard nei benchmark come Humanity's Last Exam (HLE), BrowseComp e altri. Eccelle in programmazione, matematica, ragionamento logico e scenari agentici. Basato su un'architettura a esperti misti (MoE), ha circa 1 trilione di parametri, supporta una finestra di contesto di 256K token e l'utilizzo di strumenti."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 è un modello linguistico a esperti misti (MoE) su larga scala sviluppato da Moonshot AI, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi per ogni passaggio in avanti. Ottimizzato per capacità di agente, inclusi uso avanzato di strumenti, ragionamento e sintesi di codice."
},
@ -2721,7 +2733,7 @@
"description": "Focalizzato su inferenze avanzate e risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro agenti."
},
"o1-mini": {
"description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
"description": "Più piccolo e veloce rispetto a o1-preview, con un costo ridotto dell'80%. Ottime prestazioni nella generazione di codice e operazioni su contesti ridotti."
},
"o1-preview": {
"description": "Si concentra sul ragionamento avanzato e sulla risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro autonomi."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: eccellente nelle attività multilingue e di codifica, adatto per applicazioni produttive di media scala."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: un modello con contesto esteso progettato per la generazione di codice e compiti di programmazione complessi."
},
"qwen-coder-plus": {
"description": "Modello di codice Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Nuovo prodotto API supportato dal modello di ragionamento DeepSeek."
},
"spark-x": {
"description": "Caratteristiche di X1.5: (1) Nuova modalità di pensiero dinamico controllabile tramite il campo 'thinking'; (2) Lunghezza del contesto aumentata: 64K in input e output; (3) Supporto per la funzionalità FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Ultimo modello di generazione immagini da testo lanciato da Stability AI. Questa versione migliora significativamente qualità dell'immagine, comprensione testuale e varietà di stili rispetto alle precedenti, interpretando con maggiore precisione prompt linguistici complessi e generando immagini più accurate e diversificate."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 è il modello di codifica veloce di xAI, con output leggibile e adatto all'ingegneria del software."
},
"x1": {
"description": "Il modello Spark X1 sarà ulteriormente aggiornato, raggiungendo risultati in compiti generali come ragionamento, generazione di testo e comprensione del linguaggio, in linea con OpenAI o1 e DeepSeek R1, partendo da una posizione di leadership nei compiti matematici."
},
"xai/grok-2": {
"description": "Grok 2 è un modello linguistico all'avanguardia con capacità di ragionamento avanzate. Eccelle in chat, codifica e ragionamento, superando Claude 3.5 Sonnet e GPT-4-Turbo nella classifica LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 è il modello di punta di Z.AI, con contesto esteso e capacità di codifica migliorate."
},
"zai-glm-4.6": {
"description": "Eccellente nelle attività di programmazione e ragionamento, supporta lo streaming e l'utilizzo di strumenti. Ideale per codifica agentica e scenari di ragionamento complesso."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 è un modello base progettato per applicazioni agenti intelligenti, che utilizza un'architettura Mixture-of-Experts (MoE). Ottimizzato profondamente per chiamate a strumenti, navigazione web, ingegneria del software e programmazione frontend, supporta integrazioni fluide con agenti di codice come Claude Code e Roo Code. Adotta una modalità di inferenza ibrida per adattarsi a scenari di ragionamento complessi e uso quotidiano."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "このメールアドレスは既に登録されています。ログインしてください。",
"emailInvalid": "有効なメールアドレスを入力してください",
"emailNotRegistered": "このメールアドレスは未登録です",
"emailNotVerified": "メールアドレスが未確認です。まず確認してください",
@ -65,6 +66,7 @@
"passwordMaxLength": "パスワードは64文字以内で入力してください",
"passwordMinLength": "パスワードは8文字以上で入力してください",
"passwordRequired": "パスワードを入力してください",
"usernameNotRegistered": "このユーザー名は未登録です",
"usernameRequired": "ユーザー名を入力してください"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Zitadelでログイン",
"emailPlaceholder": "メールアドレスを入力してください",
"emailStep": {
"subtitle": "続行するにはメールアドレスを入力してください",
"title": "ログイン"
},
"error": "ログインに失敗しました。メールアドレスとパスワードをご確認ください",
@ -194,6 +195,7 @@
"resetPasswordError": "パスワードリセットリンクの送信に失敗しました",
"resetPasswordSent": "パスワードリセットリンクを送信しました。メールをご確認ください",
"save": "保存",
"setPassword": "パスワードを設定",
"sso": {
"link": {
"button": "アカウントを連携",
@ -210,7 +212,14 @@
"title": "プロフィール詳細",
"updateAvatar": "アバターを更新",
"updateFullName": "氏名を更新",
"username": "ユーザー名"
"updateUsername": "ユーザー名を更新",
"username": "ユーザー名",
"usernameDuplicate": "このユーザー名は既に使用されています",
"usernameInputHint": "新しいユーザー名を入力してください",
"usernamePlaceholder": "英字、数字、またはアンダースコアで構成されたユーザー名を入力してください",
"usernameRequired": "ユーザー名は必須です",
"usernameRule": "ユーザー名は英字、数字、またはアンダースコアのみ使用できます",
"usernameUpdateFailed": "ユーザー名の更新に失敗しました。しばらくしてから再試行してください"
},
"signout": "ログアウト",
"signup": "サインアップ",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "効率的なコーディングとエージェントワークフローのために設計されたモデル"
},
"MiniMax-M2-Stable": {
"description": "効率的なコーディングとエージェントワークフローのために設計され、高い同時実行性と商用利用に対応しています。"
},
"MiniMax-Text-01": {
"description": "MiniMax-01シリーズモデルでは、大胆な革新を行いました初めて大規模に線形注意メカニズムを実現し、従来のTransformerアーキテクチャが唯一の選択肢ではなくなりました。このモデルのパラメータ数は4560億に達し、単回のアクティベーションは459億です。モデルの総合性能は海外のトップモデルに匹敵し、世界最長の400万トークンのコンテキストを効率的に処理でき、GPT-4oの32倍、Claude-3.5-Sonnetの20倍です。"
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 は Kimi K2 の最新かつ最強のバージョンです。これはトップクラスの混合専門家MoE言語モデルであり、総パラメータ数は1兆、活性化パラメータ数は320億を誇ります。このモデルの主な特徴は、強化されたエージェントのコーディング知能であり、公開ベンチマークテストおよび実世界のエージェントコーディングタスクで顕著な性能向上を示しています。また、フロントエンドのコーディング体験も改善され、フロントエンドプログラミングの美観と実用性の両面で進歩しています。"
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo は、Kimi K2 シリーズの Turbo バージョンであり、推論速度とスループットを最適化しつつ、K2 Thinking の多段階推論とツール呼び出し機能を保持しています。本モデルは混合エキスパートMoEアーキテクチャに基づき、総パラメータ数は約1兆、ネイティブで256Kのコンテキストをサポートし、大規模なツール呼び出しを安定して実行可能です。低遅延・高並列性が求められるプロダクション環境に最適です。"
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Previewは、複雑な対話生成と文脈理解タスクを効率的に処理できる革新的な自然言語処理モデルです。"
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2は、オープンソースの混合エキスパートコードモデルであり、コードタスクにおいて優れた性能を発揮し、GPT4-Turboに匹敵します。"
},
"deepseek-ocr": {
"description": "DeepSeek-OCR は、DeepSeek AI によって開発された視覚と言語を統合したモデルで、光学文字認識OCRと「コンテキスト光学圧縮」に特化しています。本モデルは、画像から文脈情報を圧縮する限界を探求し、ドキュメントを効率的に処理して Markdown などの構造化テキスト形式に変換することが可能です。画像内の文字情報を高精度で認識でき、文書のデジタル化、文字抽出、構造化処理などの用途に適しています。"
},
"deepseek-r1": {
"description": "DeepSeek-R1は、強化学習RL駆動の推論モデルであり、モデル内の繰り返しと可読性の問題を解決します。RLの前に、DeepSeek-R1はコールドスタートデータを導入し、推論性能をさらに最適化しました。数学、コード、推論タスクにおいてOpenAI-o1と同等のパフォーマンスを発揮し、精巧に設計されたトレーニング手法によって全体的な効果を向上させました。"
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-visionは視覚的深層思考モデルで、教育、画像審査、巡回検査とセキュリティ、AI検索質問応答などのシーンでより強力な汎用マルチモーダル理解と推論能力を発揮します。256kのコンテキストウィンドウをサポートし、最大64kトークンの出力長に対応しています。"
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code は、エージェント指向のプログラミングタスクに特化して最適化されており、マルチモーダルテキスト画像動画と256Kの長コンテキストをサポートします。Anthropic API にも互換性があり、プログラミング、視覚理解、エージェントシナリオに適しています。"
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Doubao 画像生成モデルはバイトダンスの Seed チームによって開発され、テキストと画像の入力をサポートし、高い制御性と高品質な画像生成体験を提供します。テキスト指示による画像編集が可能で、生成される画像の辺の長さは5121536の範囲です。"
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B、オープンソースのマルチモーダルモデルで、画像と言語の理解・推論タスクに対応します。"
},
"ernie-5.0-thinking-latest": {
"description": "文心5.0 Thinking は、ネイティブな全モーダル対応のフラッグシップモデルであり、テキスト、画像、音声、動画を統一的にモデリング可能です。総合的な能力が大幅に向上しており、複雑な質疑応答、創作、インテリジェントエージェントのシナリオに適しています。"
},
"ernie-5.0-thinking-preview": {
"description": "文心5.0 Thinking Preview、ネイティブな全モーダル対応のフラッグシップモデルで、テキスト、画像、音声、動画の統一モデリングを実現し、複雑な質問応答、創作、エージェントシナリオに対応します。"
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Kimi スマートアシスタント製品は最新の Kimi 大モデルを使用しており、まだ安定していない機能が含まれている可能性があります。画像理解をサポートし、リクエストのコンテキストの長さに応じて 8k/32k/128k モデルを請求モデルとして自動的に選択します。"
},
"kimi-thinking-preview": {
"description": "kimi-thinking-preview モデルは月の裏側が提供するマルチモーダル推論能力と汎用推論能力を備えたマルチモーダル思考モデルで、深い推論に優れ、より多くの難しい課題の解決を支援します。"
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1期間限定無料は、コード理解と自動プログラミングに特化し、効率的なプログラミングエージェントタスクに使用されます。"
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Llama 3.3 命令チューニングモデルは対話シナリオ向けに最適化されており、一般的な業界ベンチマークテストにおいて、多くの既存のオープンソースチャットモデルを凌駕しています。"
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout高性能な Llama シリーズモデルで、高スループットかつ低レイテンシーが求められるシナリオに最適です。"
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70Bは、比類のない複雑性処理能力を提供し、高要求プロジェクトに特化しています。"
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 は Kimi K2 の最新かつ最強のバージョンです。これはトップクラスの混合専門家MoE言語モデルであり、総パラメータ数は1兆、活性化パラメータ数は320億を誇ります。このモデルの主な特徴は、強化されたエージェントのコーディング知能であり、公開ベンチマークテストおよび実世界のエージェントコーディングタスクで顕著な性能向上を示しています。また、フロントエンドのコーディング体験も改善され、フロントエンドプログラミングの美観と実用性の両面で進歩しています。"
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking は、最新かつ最も強力なオープンソースの思考モデルです。多段階推論の深さを大幅に拡張し、200〜300回の連続ツール呼び出しにおいても安定したツール使用を維持します。Humanity's Last ExamHLE、BrowseComp などのベンチマークで新たな基準を打ち立てました。プログラミング、数学、論理推論、エージェントシナリオにおいても卓越した性能を発揮します。本モデルは混合エキスパートMoEアーキテクチャに基づき、総パラメータ数は約1兆、256Kのコンテキストウィンドウとツール呼び出しをサポートします。"
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 は Moonshot AI による大規模混合エキスパートMoE言語モデルで、総パラメータ数1兆、1回のフォワードパスあたり320億の活性化パラメータを持ちます。高度なツール使用、推論、コード合成などのエージェント能力に最適化されています。"
},
@ -2721,7 +2733,7 @@
"description": "高度な推論と複雑な問題の解決に焦点を当てており、数学や科学のタスクを含みます。深いコンテキスト理解とエージェントワークフローを必要とするアプリケーションに非常に適しています。"
},
"o1-mini": {
"description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
"description": "o1-preview よりも小型で高速、コストは80%削減されており、コード生成や小規模なコンテキスト操作において優れた性能を発揮します。"
},
"o1-preview": {
"description": "高度な推論と複雑な問題の解決に注力しており、数学や科学の課題にも対応します。深い文脈理解と自律的なワークフローを必要とするアプリケーションに非常に適しています。"
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32BQwen シリーズは多言語対応とコーディングタスクに優れており、中規模なプロダクション用途に適しています。"
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480Bコード生成および複雑なプログラミングタスク向けの長文コンテキスト対応モデルです。"
},
"qwen-coder-plus": {
"description": "通義千問コードモデルです。"
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "DeepSeek推論モデルによってサポートされる新しいAPI製品。"
},
"spark-x": {
"description": "X1.5 の機能紹介1思考モードの動的調整が可能で、thinking フィールドで制御2コンテキスト長が拡大入力・出力ともに64K3FunctionCall 機能をサポート。"
},
"stable-diffusion-3-medium": {
"description": "Stability AIがリリースした最新のテキストから画像生成大規模モデルです。前世代の利点を継承しつつ、画像品質、テキスト理解、スタイル多様性の面で大幅に改善され、複雑な自然言語プロンプトをより正確に解釈し、より精密かつ多様な画像を生成可能です。"
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1は、xAIの高速コードモデルで、可読性とエンジニアリング適合性の高い出力を提供します。"
},
"x1": {
"description": "Spark X1 モデルはさらにアップグレードされ、元の数学タスクで国内のリーダーシップを維持しつつ、推論、テキスト生成、言語理解などの一般的なタスクで OpenAI o1 および DeepSeek R1 に匹敵する効果を実現します。"
},
"xai/grok-2": {
"description": "Grok 2 は最先端の推論能力を持つ最前線の言語モデルです。チャット、コーディング、推論において高度な能力を持ち、LMSYSランキングで Claude 3.5 Sonnet や GPT-4-Turbo を上回ります。"
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6は、Z.AIのフラッグシップモデルで、文脈長とコーディング能力が拡張されています。"
},
"zai-glm-4.6": {
"description": "プログラミングおよび推論タスクにおいて優れた性能を発揮し、ストリーミングとツール呼び出しをサポートします。エージェント指向のコーディングや複雑な推論シナリオに適しています。"
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5はエージェントアプリケーション向けに設計された基盤モデルで、混合専門家Mixture-of-Expertsアーキテクチャを採用。ツール呼び出し、ウェブブラウジング、ソフトウェア工学、フロントエンドプログラミング分野で深く最適化され、Claude CodeやRoo Codeなどのコードエージェントへのシームレスな統合をサポートします。混合推論モードを採用し、複雑な推論や日常利用など多様なシナリオに適応可能です。"
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "이 이메일은 이미 등록되어 있습니다. 바로 로그인해 주세요.",
"emailInvalid": "유효한 이메일 주소를 입력하세요",
"emailNotRegistered": "이 이메일은 아직 등록되지 않았습니다",
"emailNotVerified": "이메일이 인증되지 않았습니다. 먼저 이메일을 인증하세요",
@ -65,6 +66,7 @@
"passwordMaxLength": "비밀번호는 최대 64자까지 입력할 수 있습니다",
"passwordMinLength": "비밀번호는 최소 8자 이상이어야 합니다",
"passwordRequired": "비밀번호를 입력하세요",
"usernameNotRegistered": "해당 사용자 이름은 등록되어 있지 않습니다",
"usernameRequired": "사용자 이름을 입력하세요"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Zitadel로 로그인",
"emailPlaceholder": "이메일 주소를 입력하세요",
"emailStep": {
"subtitle": "계속하려면 이메일 주소를 입력하세요",
"title": "로그인"
},
"error": "로그인에 실패했습니다. 이메일과 비밀번호를 확인하세요",
@ -194,6 +195,7 @@
"resetPasswordError": "비밀번호 재설정 링크 전송에 실패했습니다",
"resetPasswordSent": "비밀번호 재설정 링크가 전송되었습니다. 이메일을 확인하세요",
"save": "저장",
"setPassword": "비밀번호 설정",
"sso": {
"link": {
"button": "계정 연결",
@ -210,7 +212,14 @@
"title": "프로필 정보",
"updateAvatar": "아바타 업데이트",
"updateFullName": "전체 이름 업데이트",
"username": "사용자 이름"
"updateUsername": "사용자 이름 업데이트",
"username": "사용자 이름",
"usernameDuplicate": "이미 사용 중인 사용자 이름입니다",
"usernameInputHint": "새 사용자 이름을 입력하세요",
"usernamePlaceholder": "영문자, 숫자 또는 밑줄(_)로 구성된 사용자 이름을 입력하세요",
"usernameRequired": "사용자 이름은 필수 항목입니다",
"usernameRule": "사용자 이름은 영문자, 숫자 또는 밑줄(_)만 사용할 수 있습니다",
"usernameUpdateFailed": "사용자 이름 업데이트에 실패했습니다. 잠시 후 다시 시도해 주세요"
},
"signout": "로그아웃",
"signup": "회원가입",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "효율적인 코딩 및 에이전트 워크플로우를 위해 설계됨"
},
"MiniMax-M2-Stable": {
"description": "효율적인 코딩 및 에이전트 워크플로우를 위해 설계되었으며, 높은 동시 처리 성능과 상업적 사용에 적합합니다."
},
"MiniMax-Text-01": {
"description": "MiniMax-01 시리즈 모델에서는 대담한 혁신을 이루었습니다: 대규모로 선형 주의 메커니즘을 처음으로 구현하였으며, 전통적인 Transformer 아키텍처가 더 이상 유일한 선택이 아닙니다. 이 모델의 파라미터 수는 4560억에 달하며, 단일 활성화는 45.9억입니다. 모델의 종합 성능은 해외 최고의 모델과 견줄 수 있으며, 전 세계에서 가장 긴 400만 토큰의 문맥을 효율적으로 처리할 수 있습니다. 이는 GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905는 Kimi K2의 최신이자 가장 강력한 버전입니다. 이 모델은 총 1조 개의 파라미터와 320억 개의 활성화 파라미터를 가진 최첨단 혼합 전문가(MoE) 언어 모델입니다. 주요 특징으로는 향상된 에이전트 코딩 지능으로, 공개 벤치마크 테스트와 실제 코딩 에이전트 작업에서 뛰어난 성능 향상을 보였으며, 프론트엔드 코딩 경험이 개선되어 프론트엔드 프로그래밍의 미적 측면과 실용성 모두에서 진전을 이루었습니다."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo는 Kimi K2 시리즈의 터보 버전으로, 추론 속도와 처리량을 최적화하면서도 K2 Thinking의 다단계 추론 및 도구 호출 기능을 유지합니다. 이 모델은 혼합 전문가(MoE) 아키텍처를 기반으로 하며, 총 파라미터 수는 약 1조에 달하고, 256K 컨텍스트를 기본적으로 지원하며 대규모 도구 호출을 안정적으로 수행할 수 있어 지연 시간과 동시성에 대한 요구가 높은 생산 환경에 적합합니다."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview는 복잡한 대화 생성 및 맥락 이해 작업을 효율적으로 처리할 수 있는 혁신적인 자연어 처리 모델입니다."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR은 DeepSeek AI에서 개발한 비전-언어 모델로, 광학 문자 인식(OCR)과 '컨텍스트 광학 압축'에 중점을 둡니다. 이 모델은 이미지에서 컨텍스트 정보를 압축하는 한계를 탐구하며, 문서를 효율적으로 처리하고 Markdown과 같은 구조화된 텍스트 형식으로 변환할 수 있습니다. 이미지 내 텍스트를 정확하게 인식할 수 있어 문서 디지털화, 텍스트 추출 및 구조화 처리 등의 응용 분야에 적합합니다."
},
"deepseek-r1": {
"description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 콜드 스타트 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 유사한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision 시각 심층 사고 모델로, 교육, 이미지 검토, 점검 및 보안, AI 검색 질의응답 등 다양한 시나리오에서 더욱 강력한 범용 다중 모달 이해 및 추론 능력을 보여줍니다. 256k 문맥 창을 지원하며, 출력 길이는 최대 64k 토큰까지 지원합니다."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code는 에이전트 기반 프로그래밍 작업에 최적화되어 있으며, 멀티모달(텍스트/이미지/비디오) 및 256K 길이의 컨텍스트를 지원하고, Anthropic API와 호환됩니다. 프로그래밍, 시각적 이해 및 에이전트 시나리오에 적합합니다."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Doubao 이미지 생성 모델은 ByteDance Seed 팀이 개발했으며, 텍스트와 이미지 입력을 지원하여 높은 제어력과 고품질 이미지 생성 경험을 제공합니다. 텍스트 명령어를 통해 이미지를 편집할 수 있으며, 생성되는 이미지의 크기는 512~1536 픽셀 사이입니다."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, 멀티모달 오픈소스 모델로, 이미지-텍스트 이해 및 추론 작업을 지원합니다."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking은 텍스트, 이미지, 오디오, 비디오를 통합적으로 모델링하는 플래그십 멀티모달 모델로, 전반적인 능력이 대폭 향상되어 복잡한 질의응답, 창작 및 지능형 에이전트 시나리오에 적합합니다."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking 프리뷰 버전, 텍스트, 이미지, 오디오, 비디오를 통합 모델링하는 네이티브 풀모달 플래그십 모델로, 복잡한 질의응답, 창작 및 에이전트 시나리오에 적합합니다."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Kimi 스마트 어시스턴트 제품은 최신 Kimi 대형 모델을 사용하며, 아직 안정되지 않은 기능이 포함될 수 있습니다. 이미지 이해를 지원하며, 요청의 맥락 길이에 따라 8k/32k/128k 모델을 청구 모델로 자동 선택합니다."
},
"kimi-thinking-preview": {
"description": "kimi-thinking-preview 모델은 월면의 어두운 면에서 제공하는 다중 모달 추론 능력과 범용 추론 능력을 갖춘 다중 모달 사고 모델로, 심층 추론에 능하며 더 어렵고 복잡한 문제 해결을 돕습니다."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1(한시적 무료)은 코드 이해 및 자동화 프로그래밍에 특화되어 있으며, 효율적인 프로그래밍 에이전트 작업에 사용됩니다."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Llama 3.3 지침 미세 조정 모델은 대화 시나리오에 최적화되어 있으며, 일반적인 업계 벤치마크 테스트에서 기존의 많은 오픈소스 채팅 모델을 능가합니다."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: 고성능 Llama 시리즈 모델로, 높은 처리량과 낮은 지연이 요구되는 환경에 적합합니다."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B는 비할 데 없는 복잡성 처리 능력을 제공하며, 높은 요구 사항을 가진 프로젝트에 맞춤형으로 설계되었습니다."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905는 Kimi K2의 최신이자 가장 강력한 버전입니다. 이 모델은 총 1조 개의 파라미터와 320억 개의 활성화 파라미터를 가진 최첨단 혼합 전문가(MoE) 언어 모델입니다. 주요 특징으로는 향상된 에이전트 코딩 지능으로, 공개 벤치마크 테스트와 실제 코딩 에이전트 작업에서 뛰어난 성능 향상을 보였으며, 프론트엔드 코딩 경험이 개선되어 프론트엔드 프로그래밍의 미적 측면과 실용성 모두에서 진전을 이루었습니다."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking은 최신이자 가장 강력한 오픈소스 사고 모델입니다. 다단계 추론 깊이를 크게 확장하고, 200~300회 연속 도구 호출에서도 안정적인 도구 사용을 유지하며, Humanity's Last Exam (HLE), BrowseComp 등 다양한 벤치마크에서 새로운 기준을 세웠습니다. 또한 프로그래밍, 수학, 논리 추론 및 에이전트 시나리오에서 뛰어난 성능을 보입니다. 이 모델은 혼합 전문가(MoE) 아키텍처를 기반으로 하며, 총 파라미터 수는 약 1조이고, 256K 컨텍스트 윈도우 및 도구 호출을 지원합니다."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2는 Moonshot AI가 개발한 대규모 혼합 전문가(MoE) 언어 모델로, 총 1조 매개변수와 한 번의 순전파당 320억 활성 매개변수를 갖추고 있습니다. 고급 도구 사용, 추론 및 코드 합성을 포함한 에이전트 능력에 최적화되어 있습니다."
},
@ -2721,7 +2733,7 @@
"description": "고급 추론 및 복잡한 문제 해결에 중점을 두며, 수학 및 과학 작업을 포함합니다. 깊이 있는 컨텍스트 이해와 에이전트 작업 흐름이 필요한 애플리케이션에 매우 적합합니다."
},
"o1-mini": {
"description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
"description": "o1-preview보다 더 작고 빠르며, 비용이 80% 절감됩니다. 코드 생성 및 짧은 컨텍스트 작업에서 우수한 성능을 보입니다."
},
"o1-preview": {
"description": "고급 추론과 복잡한 문제 해결(수학 및 과학 과제 포함)에 중점을 둡니다. 깊은 맥락 이해와 자율적 워크플로를 필요로 하는 애플리케이션에 매우 적합합니다."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: Qwen 시리즈는 다국어 및 코딩 작업에서 우수한 성능을 보이며, 중간 규모의 생산 환경에 적합합니다."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: 코드 생성 및 복잡한 프로그래밍 작업을 위한 장문맥 모델입니다."
},
"qwen-coder-plus": {
"description": "통의천문 코드 모델입니다."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "DeepSeek 추론 모델이 지원하는 새로운 API 제품입니다."
},
"spark-x": {
"description": "X1.5 기능 소개: (1) thinking 필드를 통해 사고 모드 동적 조정 가능; (2) 컨텍스트 길이 확장: 입력 및 출력 각각 64K 지원; (3) FunctionCall 기능 지원."
},
"stable-diffusion-3-medium": {
"description": "Stability AI가 출시한 최신 텍스트-이미지 대형 모델입니다. 이전 버전의 장점을 계승하면서 이미지 품질, 텍스트 이해 및 스타일 다양성 측면에서 크게 개선되어 복잡한 자연어 프롬프트를 더 정확히 해석하고 더욱 정밀하고 다양한 이미지를 생성할 수 있습니다."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1은 xAI의 고속 코드 모델로, 가독성과 엔지니어링 적합성이 뛰어난 출력을 제공합니다."
},
"x1": {
"description": "Spark X1 모델은 추가 업그레이드를 통해 기존의 수학 과제에서 국내 선두를 유지하며, 추론, 텍스트 생성, 언어 이해 등 일반 과제에서 OpenAI o1 및 DeepSeek R1과 동등한 성과를 달성합니다."
},
"xai/grok-2": {
"description": "Grok 2는 최첨단 추론 능력을 갖춘 최전선 언어 모델로, 채팅, 코딩 및 추론에서 뛰어난 능력을 보이며 LMSYS 순위에서 Claude 3.5 Sonnet 및 GPT-4-Turbo를 능가합니다."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6은 Z.AI의 플래그십 모델로, 문맥 길이와 코딩 능력을 확장하였습니다."
},
"zai-glm-4.6": {
"description": "프로그래밍 및 추론 작업에서 우수한 성능을 보이며, 스트리밍 및 도구 호출을 지원합니다. 에이전트 기반 코딩 및 복잡한 추론 시나리오에 적합합니다."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5는 에이전트 애플리케이션을 위해 설계된 기본 모델로, 혼합 전문가(Mixture-of-Experts) 아키텍처를 사용합니다. 도구 호출, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 프로그래밍 분야에서 깊이 최적화되었으며, Claude Code, Roo Code 등 코드 에이전트에 원활히 통합될 수 있습니다. GLM-4.5는 혼합 추론 모드를 채택하여 복잡한 추론과 일상 사용 등 다양한 응용 시나리오에 적응할 수 있습니다."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Dit e-mailadres is al geregistreerd. Log direct in.",
"emailInvalid": "Voer een geldig e-mailadres in",
"emailNotRegistered": "Dit e-mailadres is nog niet geregistreerd",
"emailNotVerified": "E-mailadres is niet geverifieerd, verifieer eerst je e-mailadres",
@ -65,6 +66,7 @@
"passwordMaxLength": "Het wachtwoord mag maximaal 64 tekens bevatten",
"passwordMinLength": "Het wachtwoord moet minimaal 8 tekens bevatten",
"passwordRequired": "Voer een wachtwoord in",
"usernameNotRegistered": "Deze gebruikersnaam is nog niet geregistreerd",
"usernameRequired": "Voer een gebruikersnaam in"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Inloggen met Zitadel",
"emailPlaceholder": "Voer je e-mailadres in",
"emailStep": {
"subtitle": "Voer je e-mailadres in om door te gaan",
"title": "Inloggen"
},
"error": "Inloggen mislukt, controleer je e-mailadres en wachtwoord",
@ -194,6 +195,7 @@
"resetPasswordError": "Verzenden van resetlink mislukt",
"resetPasswordSent": "Resetlink verzonden, controleer je e-mail",
"save": "Opslaan",
"setPassword": "Wachtwoord instellen",
"sso": {
"link": {
"button": "Account koppelen",
@ -210,7 +212,14 @@
"title": "Profielgegevens",
"updateAvatar": "Profielfoto bijwerken",
"updateFullName": "Volledige naam bijwerken",
"username": "Gebruikersnaam"
"updateUsername": "Gebruikersnaam bijwerken",
"username": "Gebruikersnaam",
"usernameDuplicate": "Gebruikersnaam is al in gebruik",
"usernameInputHint": "Voer een nieuwe gebruikersnaam in",
"usernamePlaceholder": "Voer een gebruikersnaam in bestaande uit letters, cijfers of underscores",
"usernameRequired": "Gebruikersnaam mag niet leeg zijn",
"usernameRule": "Gebruikersnaam mag alleen letters, cijfers of underscores bevatten",
"usernameUpdateFailed": "Bijwerken van gebruikersnaam mislukt, probeer het later opnieuw"
},
"signout": "Uitloggen",
"signup": "Aanmelden",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Speciaal ontworpen voor efficiënte codering en agent-workflows."
},
"MiniMax-M2-Stable": {
"description": "Speciaal ontworpen voor efficiënte codering en agent-workflows, met hogere gelijktijdigheid en geschikt voor commercieel gebruik."
},
"MiniMax-Text-01": {
"description": "In de MiniMax-01-serie modellen hebben we gedurfde innovaties doorgevoerd: voor het eerst op grote schaal een lineaire aandachtmechanisme geïmplementeerd, waardoor de traditionele Transformer-architectuur niet langer de enige keuze is. Dit model heeft een parameterhoeveelheid van maar liefst 456 miljard, met een enkele activatie van 45,9 miljard. De algehele prestaties van het model zijn vergelijkbaar met die van de beste modellen in het buitenland, terwijl het efficiënt de wereldwijd langste context van 4 miljoen tokens kan verwerken, wat 32 keer de capaciteit van GPT-4o en 20 keer die van Claude-3.5-Sonnet is."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste versie van Kimi K2. Het is een toonaangevend hybride expert (MoE) taalmodel met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. De belangrijkste kenmerken van dit model zijn: verbeterde agent-coderingsintelligentie, met aanzienlijke prestatieverbeteringen in openbare benchmarktests en echte agent-coderingsopdrachten; verbeterde front-end coderingservaring, met vooruitgang in zowel esthetiek als bruikbaarheid van front-end programmeren."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo is de Turbo-versie van de Kimi K2-serie, geoptimaliseerd voor redeneersnelheid en verwerkingssnelheid, terwijl het de mogelijkheden voor meerstapsredenering en toolgebruik van K2 Thinking behoudt. Dit model is gebaseerd op een Mixture of Experts (MoE)-architectuur met ongeveer 1 biljoen parameters, ondersteunt native 256K context en kan stabiel grootschalige toolaanroepen uitvoeren. Ideaal voor productieomgevingen met hoge eisen aan latency en gelijktijdigheid."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview is een innovatief natuurlijk taalverwerkingsmodel dat efficiënt complexe dialooggeneratie en contextbegripstaken kan verwerken."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 is een open-source hybride expertcode-model, presteert uitstekend in code-taken en is vergelijkbaar met GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR is een visueel-taalkundig model ontwikkeld door DeepSeek AI, gericht op optische tekenherkenning (OCR) en 'contextuele optische compressie'. Het model is ontworpen om de grenzen van contextcompressie vanuit afbeeldingen te verkennen, en verwerkt efficiënt documenten door ze om te zetten in gestructureerde tekstformaten zoals Markdown. Het herkent nauwkeurig tekst in afbeeldingen en is bijzonder geschikt voor toepassingen zoals documentdigitalisering, teksterkenning en gestructureerde verwerking."
},
"deepseek-r1": {
"description": "DeepSeek-R1 is een op versterkend leren (RL) aangedreven inferentiemodel dat de problemen van herhaling en leesbaarheid in het model oplost. Voor RL introduceerde DeepSeek-R1 koude startdata om de inferentieprestaties verder te optimaliseren. Het presteert vergelijkbaar met OpenAI-o1 in wiskunde, code en inferentietaken, en verbetert de algehele effectiviteit door zorgvuldig ontworpen trainingsmethoden."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision is een visueel diepdenkend model dat sterkere algemene multimodale begrip- en redeneervermogen toont in scenario's zoals onderwijs, beeldcontrole, inspectie en beveiliging, en AI-zoekvragen. Het ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 64k tokens."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code is diep geoptimaliseerd voor agentic programmeertaken, ondersteunt multimodaal (tekst/afbeelding/video) en 256K lange context, compatibel met de Anthropic API. Geschikt voor programmeren, visuele interpretatie en agent-scenario's."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Doubao beeldgeneratiemodel ontwikkeld door het Seed-team van ByteDance, ondersteunt tekst- en beeldinvoer en biedt een hoog controleerbare, hoogwaardige beeldgeneratie-ervaring. Ondersteunt het bewerken van afbeeldingen via tekstinstructies, met afbeeldingsafmetingen tussen 512 en 1536 pixels."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, een open-source multimodaal model dat beeld- en tekstbegrip en redeneertaken ondersteunt."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking is een native multimodaal vlaggenschipmodel dat tekst, beeld, audio en video in één model integreert. De algehele capaciteiten zijn aanzienlijk verbeterd, waardoor het geschikt is voor complexe vraag-en-antwoord, creatieve taken en intelligente agent-toepassingen."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview, een native multimodaal vlaggenschipmodel dat tekst, beeld, audio en video integreert, met uitgebreide capaciteitsupgrades voor complexe Q&A, creatie en agenttoepassingen."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Kimi slimme assistent product maakt gebruik van het nieuwste Kimi grote model, dat mogelijk nog niet stabiele functies bevat. Ondersteunt beeldbegrip en kiest automatisch het 8k/32k/128k model als factureringsmodel op basis van de lengte van de context van het verzoek."
},
"kimi-thinking-preview": {
"description": "kimi-thinking-preview model is een multimodaal denkmodel met multimodale en algemene redeneervaardigheden, aangeboden door de donkere zijde van de maan. Het blinkt uit in diep redeneren en helpt bij het oplossen van complexere problemen."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (tijdelijk gratis) richt zich op codebegrip en geautomatiseerd programmeren, geschikt voor efficiënte programmeeragent-taken."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Het Llama 3.3 instructie-fijnafstemmodel is geoptimaliseerd voor gesprekssituaties en overtreft vele bestaande open-source chatmodellen op veelvoorkomende industriebenchmarks."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: een hoogwaardig model uit de Llama-serie, geoptimaliseerd voor scenario's die hoge verwerkingssnelheid en lage latentie vereisen."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B biedt ongeëvenaarde complexiteitsverwerkingscapaciteiten, op maat gemaakt voor veeleisende projecten."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste versie van Kimi K2. Het is een toonaangevend hybride expert (MoE) taalmodel met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. De belangrijkste kenmerken van dit model zijn: verbeterde agent-coderingsintelligentie, met aanzienlijke prestatieverbeteringen in openbare benchmarktests en echte agent-coderingsopdrachten; verbeterde front-end coderingservaring, met vooruitgang in zowel esthetiek als bruikbaarheid van front-end programmeren."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking is het nieuwste en krachtigste open-source redeneermodel. Het vergroot de diepte van meerstapsredenering aanzienlijk en behoudt stabiel gebruik van tools bij 200300 opeenvolgende aanroepen. Het heeft nieuwe standaarden gezet in benchmarks zoals Humanity's Last Exam (HLE), BrowseComp en andere. K2 Thinking blinkt uit in programmeren, wiskunde, logische redenering en agent-scenario's. Het model is gebaseerd op een Mixture of Experts (MoE)-architectuur met ongeveer 1 biljoen parameters, ondersteunt een contextvenster van 256K en toolaanroepen."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 is een grootschalig hybride expert (MoE) taalmodel ontwikkeld door Moonshot AI, met in totaal 1 biljoen parameters en 32 miljard actieve parameters per voorwaartse pass. Het is geoptimaliseerd voor agentcapaciteiten, waaronder geavanceerd toolgebruik, redeneren en code-synthese."
},
@ -2721,7 +2733,7 @@
"description": "Gefocust op geavanceerd redeneren en het oplossen van complexe problemen, inclusief wiskunde en wetenschappelijke taken. Zeer geschikt voor toepassingen die diepgaand begrip van context en agentwerkstromen vereisen."
},
"o1-mini": {
"description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
"description": "Kleiner en sneller dan o1-preview, met 80% lagere kosten. Presteert goed bij codegeneratie en bewerkingen met kleine context."
},
"o1-preview": {
"description": "Gespecialiseerd in geavanceerde redenering en het oplossen van complexe problemen, waaronder wiskundige en wetenschappelijke taken. Zeer geschikt voor toepassingen die een diepgaand begrip van context en autonome workflows vereisen."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: een model uit de Qwen-serie met uitstekende prestaties op meertalige en programmeertaken, geschikt voor productie op middelgrote schaal."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: een model met lange context, ontworpen voor codegeneratie en complexe programmeertaken."
},
"qwen-coder-plus": {
"description": "Tongyi Qianwen codeermodel."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Een nieuw API-product ondersteund door het DeepSeek redeneringsmodel."
},
"spark-x": {
"description": "Introductie van X1.5-mogelijkheden: (1) Nieuwe dynamische aanpassing van denkmodi via het veld 'thinking'; (2) Verlengde contextlengte: 64K voor zowel input als output; (3) Ondersteuning voor FunctionCall-functionaliteit."
},
"stable-diffusion-3-medium": {
"description": "Het nieuwste tekst-naar-beeld groot model uitgebracht door Stability AI. Deze versie bouwt voort op de voordelen van eerdere generaties en verbetert aanzienlijk de beeldkwaliteit, tekstbegrip en stijlvariëteit. Het kan complexe natuurlijke taal prompts nauwkeuriger interpreteren en genereert preciezere en gevarieerdere beelden."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 is het snelle codemodel van xAI, met output die goed leesbaar is en geschikt voor engineeringtoepassingen."
},
"x1": {
"description": "Het Spark X1-model zal verder worden geüpgraded, met verbeterde prestaties in redenering, tekstgeneratie en taalbegrip, ter vergelijking met OpenAI o1 en DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 is een geavanceerd taalmodel met state-of-the-art redeneercapaciteiten. Het blinkt uit in chat, codering en redeneren, en presteert beter dan Claude 3.5 Sonnet en GPT-4-Turbo op de LMSYS-ranglijst."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 is het vlaggenschipmodel van Z.AI, met uitgebreide contextlengte en verbeterde coderingscapaciteiten."
},
"zai-glm-4.6": {
"description": "Uitstekende prestaties bij programmeer- en redeneertaken, ondersteunt streaming en toolaanroepen. Geschikt voor agentic codering en complexe redeneerscenario's."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 is een basis model speciaal ontworpen voor agenttoepassingen, gebruikmakend van een Mixture-of-Experts (MoE) architectuur. Het is diep geoptimaliseerd voor toolaanroepen, web browsing, software engineering en frontend programmeren, en ondersteunt naadloze integratie met code-agents zoals Claude Code en Roo Code. GLM-4.5 gebruikt een hybride redeneermodus en is geschikt voor complexe redenering en dagelijks gebruik."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Ten adres e-mail jest już zarejestrowany, zaloguj się bezpośrednio.",
"emailInvalid": "Wprowadź poprawny adres e-mail",
"emailNotRegistered": "Ten adres e-mail nie jest zarejestrowany",
"emailNotVerified": "Adres e-mail nie został zweryfikowany, proszę najpierw go zweryfikować",
@ -65,6 +66,7 @@
"passwordMaxLength": "Hasło nie może przekraczać 64 znaków",
"passwordMinLength": "Hasło musi mieć co najmniej 8 znaków",
"passwordRequired": "Wprowadź hasło",
"usernameNotRegistered": "Nazwa użytkownika nie została zarejestrowana",
"usernameRequired": "Wprowadź nazwę użytkownika"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Zaloguj się przez Zitadel",
"emailPlaceholder": "Wprowadź adres e-mail",
"emailStep": {
"subtitle": "Wprowadź swój adres e-mail, aby kontynuować",
"title": "Logowanie"
},
"error": "Logowanie nie powiodło się, sprawdź adres e-mail i hasło",
@ -194,6 +195,7 @@
"resetPasswordError": "Nie udało się wysłać linku do resetowania hasła",
"resetPasswordSent": "Link do resetowania hasła został wysłany, sprawdź swoją skrzynkę e-mail",
"save": "Zapisz",
"setPassword": "Ustaw hasło",
"sso": {
"link": {
"button": "Połącz konto",
@ -210,7 +212,14 @@
"title": "Szczegóły profilu",
"updateAvatar": "Zaktualizuj awatar",
"updateFullName": "Zaktualizuj pełne imię i nazwisko",
"username": "Nazwa użytkownika"
"updateUsername": "Zaktualizuj nazwę użytkownika",
"username": "Nazwa użytkownika",
"usernameDuplicate": "Nazwa użytkownika jest już zajęta",
"usernameInputHint": "Wprowadź nową nazwę użytkownika",
"usernamePlaceholder": "Wprowadź nazwę użytkownika składającą się z liter, cyfr lub podkreśleń",
"usernameRequired": "Nazwa użytkownika nie może być pusta",
"usernameRule": "Nazwa użytkownika może zawierać tylko litery, cyfry lub podkreślenia",
"usernameUpdateFailed": "Nie udało się zaktualizować nazwy użytkownika, spróbuj ponownie później"
},
"signout": "Wyloguj się",
"signup": "Zarejestruj się",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Stworzony z myślą o wydajnym kodowaniu i przepływach pracy opartych na agentach."
},
"MiniMax-M2-Stable": {
"description": "Stworzony z myślą o wydajnym kodowaniu i przepływach pracy agentów, oferuje wysoką równoległość i jest gotowy do zastosowań komercyjnych."
},
"MiniMax-Text-01": {
"description": "W serii modeli MiniMax-01 wprowadziliśmy odważne innowacje: po raz pierwszy na dużą skalę zrealizowano mechanizm liniowej uwagi, tradycyjna architektura Transformera nie jest już jedynym wyborem. Liczba parametrów tego modelu wynosi aż 456 miliardów, z aktywacją wynoszącą 45,9 miliarda. Ogólna wydajność modelu dorównuje najlepszym modelom zagranicznym, jednocześnie efektywnie przetwarzając kontekst o długości do 4 milionów tokenów, co stanowi 32 razy więcej niż GPT-4o i 20 razy więcej niż Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to zaawansowany model językowy typu Mixture of Experts (MoE) z 1 bilionem parametrów ogółem i 32 miliardami aktywowanych parametrów. Główne cechy modelu to: wzmocniona inteligencja kodowania agentów, która wykazuje znaczącą poprawę wydajności w publicznych testach porównawczych oraz w rzeczywistych zadaniach kodowania agentów; ulepszone doświadczenie kodowania front-end, z postępami zarówno w estetyce, jak i funkcjonalności programowania front-endowego."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo to wersja Turbo z serii Kimi K2, zoptymalizowana pod kątem szybkości wnioskowania i przepustowości, przy jednoczesnym zachowaniu zdolności do wieloetapowego rozumowania i korzystania z narzędzi. Model oparty jest na architekturze ekspertów mieszanych (MoE), posiada około 1 bilion parametrów, natywnie obsługuje kontekst o długości 256K i stabilnie wykonuje złożone wywołania narzędzi, idealny do zastosowań produkcyjnych wymagających niskich opóźnień i wysokiej równoległości."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview to innowacyjny model przetwarzania języka naturalnego, który efektywnie radzi sobie z złożonymi zadaniami generowania dialogów i rozumienia kontekstu."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 to otwarty model kodowy Mixture-of-Experts, który doskonale radzi sobie z zadaniami kodowymi, porównywalny z GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR to model językowo-wizualny opracowany przez DeepSeek AI, skoncentrowany na optycznym rozpoznawaniu znaków (OCR) i „optycznej kompresji kontekstu”. Model ten bada granice kompresji informacji kontekstowej z obrazów, efektywnie przetwarzając dokumenty i przekształcając je w ustrukturyzowane formaty tekstowe, takie jak Markdown. Doskonale rozpoznaje tekst na obrazach, co czyni go idealnym do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego."
},
"deepseek-r1": {
"description": "DeepSeek-R1 to model wnioskowania napędzany uczeniem przez wzmacnianie (RL), który rozwiązuje problemy z powtarzalnością i czytelnością modelu. Przed RL, DeepSeek-R1 wprowadził dane z zimnego startu, co dodatkowo zoptymalizowało wydajność wnioskowania. W zadaniach matematycznych, kodowania i wnioskowania osiąga wyniki porównywalne z OpenAI-o1, a dzięki starannie zaprojektowanym metodom treningowym poprawia ogólne efekty."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision to wizualny model głębokiego myślenia, który wykazuje silniejsze zdolności ogólnego rozumienia multimodalnego i wnioskowania w scenariuszach edukacyjnych, przeglądu obrazów, inspekcji i bezpieczeństwa oraz AI w wyszukiwaniu i odpowiadaniu na pytania. Obsługuje okno kontekstowe do 256k oraz maksymalną długość wyjścia do 64k tokenów."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code został głęboko zoptymalizowany pod kątem zadań programowania agentowego, obsługuje multimodalność (tekst/obraz/wideo) oraz długi kontekst 256K, jest kompatybilny z API Anthropic i nadaje się do zastosowań w programowaniu, rozumieniu wizualnym i scenariuszach z udziałem agentów."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Model generowania obrazów Doubao opracowany przez zespół Seed ByteDance, obsługuje wejścia tekstowe i obrazowe, oferując wysoką kontrolę i jakość generowanych obrazów. Umożliwia edycję obrazów za pomocą poleceń tekstowych, generując obrazy o rozmiarach od 512 do 1536 pikseli."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, otwartoźródłowy model multimodalny, wspierający zadania rozumienia i wnioskowania obrazów i tekstu."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking to flagowy model natywnie obsługujący wszystkie modalności, umożliwiający zintegrowane modelowanie tekstu, obrazu, dźwięku i wideo. Oferuje kompleksowe ulepszenia zdolności i nadaje się do złożonych pytań, twórczości oraz zastosowań z inteligentnymi agentami."
},
"ernie-5.0-thinking-preview": {
"description": "ERNIE 5.0 Thinking Preview, flagowy model natywnie multimodalny, wspierający tekst, obraz, dźwięk i wideo, kompleksowo ulepszony do złożonych pytań, twórczości i agentów."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Produkt Kimi Smart Assistant korzysta z najnowszego modelu Kimi, który może zawierać cechy jeszcze niestabilne. Obsługuje zrozumienie obrazów i automatycznie wybiera model 8k/32k/128k jako model rozliczeniowy w zależności od długości kontekstu żądania."
},
"kimi-thinking-preview": {
"description": "Model kimi-thinking-preview dostarczany przez Moons Dark Side to multimodalny model myślenia z umiejętnościami ogólnego i głębokiego rozumowania, który pomaga rozwiązywać bardziej złożone i trudniejsze problemy."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (czasowo darmowy) koncentruje się na rozumieniu kodu i automatycznym programowaniu, przeznaczony do wydajnych zadań programistycznych."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Model Llama 3.3 zoptymalizowany do rozmów, który w standardowych testach branżowych przewyższa wiele istniejących modeli czatowych o otwartym kodzie."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: wysokowydajny model z serii Llama, zaprojektowany do zastosowań wymagających dużej przepustowości i niskich opóźnień."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B oferuje niezrównane możliwości przetwarzania złożoności, dostosowane do projektów o wysokich wymaganiach."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to zaawansowany model językowy typu Mixture of Experts (MoE) z 1 bilionem parametrów ogółem i 32 miliardami aktywowanych parametrów. Główne cechy modelu to: wzmocniona inteligencja kodowania agentów, która wykazuje znaczącą poprawę wydajności w publicznych testach porównawczych oraz w rzeczywistych zadaniach kodowania agentów; ulepszone doświadczenie kodowania front-end, z postępami zarówno w estetyce, jak i funkcjonalności programowania front-endowego."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking to najnowszy i najpotężniejszy otwartoźródłowy model rozumowania. Znacząco rozszerza głębokość wieloetapowego wnioskowania i utrzymuje stabilne korzystanie z narzędzi w 200300 kolejnych wywołaniach. Ustanowił nowe standardy w testach takich jak Humanity's Last Exam (HLE), BrowseComp i innych. Wyróżnia się w programowaniu, matematyce, logicznym rozumowaniu i scenariuszach agentowych. Model oparty jest na architekturze ekspertów mieszanych (MoE), posiada około 1 bilion parametrów, obsługuje kontekst 256K i wywołania narzędzi."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 to duży model językowy hybrydowych ekspertów (MoE) opracowany przez Moonshot AI, z 1 bilionem parametrów łącznie i 32 miliardami aktywnych parametrów na pojedyncze przejście. Model jest zoptymalizowany pod kątem zdolności agentowych, w tym zaawansowanego użycia narzędzi, wnioskowania i syntezy kodu."
},
@ -2721,7 +2733,7 @@
"description": "Skupia się na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do aplikacji wymagających głębokiego zrozumienia kontekstu i zarządzania procesami."
},
"o1-mini": {
"description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
"description": "Mniejszy i szybszy niż o1-preview, o 80% niższy koszt, dobrze sprawdza się w generowaniu kodu i operacjach na krótkim kontekście."
},
"o1-preview": {
"description": "Skoncentrowany na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do zastosowań wymagających głębokiego zrozumienia kontekstu i autonomicznych przepływów pracy."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: model z serii Qwen, który doskonale sprawdza się w zadaniach wielojęzycznych i programistycznych, odpowiedni do średnioskalowej produkcji."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: model z długim kontekstem, zaprojektowany do generowania kodu i realizacji złożonych zadań programistycznych."
},
"qwen-coder-plus": {
"description": "Model kodowania Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Nowy produkt API wspierany przez model wnioskowania DeepSeek."
},
"spark-x": {
"description": "Opis możliwości X1.5: (1) Nowy tryb dynamicznego dostosowywania sposobu myślenia, sterowany przez pole thinking; (2) Zwiększona długość kontekstu: wejście i wyjście po 64K; (3) Obsługa funkcji FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Najnowszy duży model generowania obrazów na podstawie tekstu wydany przez Stability AI. Ta wersja zachowuje zalety poprzednich generacji, jednocześnie znacząco poprawiając jakość obrazu, rozumienie tekstu i różnorodność stylów. Potrafi dokładniej interpretować złożone naturalne polecenia i generować bardziej precyzyjne oraz zróżnicowane obrazy."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 to szybki model kodujący firmy xAI, generujący czytelny i inżynieryjnie dopasowany kod."
},
"x1": {
"description": "Model Spark X1 zostanie dalej ulepszony, osiągając wyniki w zadaniach ogólnych, takich jak rozumowanie, generowanie tekstu i rozumienie języka, które będą porównywalne z OpenAI o1 i DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 to nowoczesny model językowy o zaawansowanych zdolnościach wnioskowania. Wyróżnia się w czacie, kodowaniu i wnioskowaniu, przewyższając Claude 3.5 Sonnet i GPT-4-Turbo na liście LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 to flagowy model firmy Z.AI, oferujący rozszerzoną długość kontekstu i ulepszone możliwości kodowania."
},
"zai-glm-4.6": {
"description": "Wyróżnia się w zadaniach programistycznych i wnioskowania, obsługuje strumieniowanie i wywołania narzędzi, idealny do agentowego kodowania i złożonych scenariuszy rozumowania."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 to podstawowy model zaprojektowany specjalnie do zastosowań agentowych, wykorzystujący architekturę mieszanych ekspertów (Mixture-of-Experts). Model jest głęboko zoptymalizowany pod kątem wywoływania narzędzi, przeglądania stron internetowych, inżynierii oprogramowania i programowania frontendowego, wspierając bezproblemową integrację z inteligentnymi agentami kodu takimi jak Claude Code i Roo Code. GLM-4.5 stosuje hybrydowy tryb wnioskowania, dostosowując się do złożonych i codziennych scenariuszy użycia."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Este e-mail já está registrado. Por favor, faça login diretamente.",
"emailInvalid": "Por favor, insira um endereço de e-mail válido",
"emailNotRegistered": "Este e-mail ainda não está registrado",
"emailNotVerified": "E-mail não verificado, por favor verifique seu e-mail primeiro",
@ -65,6 +66,7 @@
"passwordMaxLength": "A senha não pode ter mais de 64 caracteres",
"passwordMinLength": "A senha deve ter pelo menos 8 caracteres",
"passwordRequired": "Por favor, insira a senha",
"usernameNotRegistered": "Este nome de usuário ainda não está registrado",
"usernameRequired": "Por favor, insira o nome de usuário"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Entrar com Zitadel",
"emailPlaceholder": "Por favor, insira o endereço de e-mail",
"emailStep": {
"subtitle": "Insira seu endereço de e-mail para continuar",
"title": "Entrar"
},
"error": "Falha no login, verifique o e-mail e a senha",
@ -194,6 +195,7 @@
"resetPasswordError": "Falha ao enviar o link de redefinição de senha",
"resetPasswordSent": "Link de redefinição de senha enviado, verifique seu e-mail",
"save": "Salvar",
"setPassword": "Definir senha",
"sso": {
"link": {
"button": "Conectar conta",
@ -210,7 +212,14 @@
"title": "Detalhes do perfil",
"updateAvatar": "Atualizar avatar",
"updateFullName": "Atualizar nome completo",
"username": "Nome de Usuário"
"updateUsername": "Atualizar nome de usuário",
"username": "Nome de Usuário",
"usernameDuplicate": "Nome de usuário já está em uso",
"usernameInputHint": "Por favor, insira um novo nome de usuário",
"usernamePlaceholder": "Digite um nome de usuário composto por letras, números ou sublinhado",
"usernameRequired": "O nome de usuário não pode estar vazio",
"usernameRule": "O nome de usuário só pode conter letras, números ou sublinhado",
"usernameUpdateFailed": "Falha ao atualizar o nome de usuário, tente novamente mais tarde"
},
"signout": "Sair",
"signup": "Cadastrar",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Projetado especialmente para codificação eficiente e fluxos de trabalho com agentes."
},
"MiniMax-M2-Stable": {
"description": "Projetado para codificação eficiente e fluxos de trabalho com agentes, com alta concorrência e uso comercial."
},
"MiniMax-Text-01": {
"description": "Na série de modelos MiniMax-01, fizemos inovações ousadas: pela primeira vez, implementamos em larga escala um mecanismo de atenção linear, tornando a arquitetura Transformer tradicional não mais a única opção. Este modelo possui um total de 456 bilhões de parâmetros, com 45,9 bilhões ativados em uma única vez. O desempenho geral do modelo é comparável aos melhores modelos internacionais, enquanto lida eficientemente com contextos de até 4 milhões de tokens, 32 vezes mais que o GPT-4o e 20 vezes mais que o Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo é a versão Turbo da série Kimi K2, otimizada para velocidade de raciocínio e throughput, mantendo a capacidade de raciocínio em múltiplas etapas e uso de ferramentas do K2 Thinking. Baseado em uma arquitetura de especialistas mistos (MoE), possui cerca de 1 trilhão de parâmetros, suporta nativamente contexto de 256K e executa chamadas de ferramentas em larga escala de forma estável, ideal para cenários de produção com alta exigência de latência e concorrência."
},
"QwQ-32B-Preview": {
"description": "O QwQ-32B-Preview é um modelo de processamento de linguagem natural inovador, capaz de lidar eficientemente com tarefas complexas de geração de diálogos e compreensão de contexto."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR é um modelo de linguagem visual desenvolvido pela DeepSeek AI, focado em reconhecimento óptico de caracteres (OCR) e 'compressão óptica contextual'. O modelo explora os limites da compressão de informações contextuais a partir de imagens, processando documentos de forma eficiente e convertendo-os em formatos estruturados como Markdown. É altamente preciso na identificação de texto em imagens, sendo ideal para digitalização de documentos, extração de texto e processamento estruturado."
},
"deepseek-r1": {
"description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho da inferência. Ele apresenta desempenho comparável ao OpenAI-o1 em tarefas matemáticas, de código e de inferência, e melhora o resultado geral por meio de métodos de treinamento cuidadosamente projetados."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision é um modelo de pensamento profundo visual que demonstra capacidades multimodais gerais mais fortes em cenários como educação, revisão de imagens, inspeção e segurança, e busca e resposta por IA. Suporta janela de contexto de 256k e comprimento máximo de saída de até 64k tokens."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code é profundamente otimizado para tarefas de programação com agentes, com suporte multimodal (texto/imagem/vídeo) e contexto longo de 256K, compatível com a API da Anthropic, ideal para programação, compreensão visual e cenários com agentes."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "O modelo de geração de imagens Doubao foi desenvolvido pela equipe Seed da ByteDance, suporta entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Suporta edição de imagens por comandos de texto, gerando imagens com lados entre 512 e 1536 pixels."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, modelo multimodal de código aberto com suporte para tarefas de compreensão e raciocínio de imagem e texto."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking é um modelo principal multimodal nativo, com suporte unificado para texto, imagem, áudio e vídeo. Com capacidades amplamente aprimoradas, é adequado para perguntas complexas, criação de conteúdo e cenários com agentes inteligentes."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview, modelo nativo multimodal de última geração com suporte unificado para texto, imagem, áudio e vídeo, com capacidades amplamente aprimoradas, ideal para perguntas complexas, criação e agentes inteligentes."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "O produto assistente inteligente Kimi utiliza o mais recente modelo Kimi, que pode conter recursos ainda não estáveis. Suporta compreensão de imagens e seleciona automaticamente o modelo de cobrança de 8k/32k/128k com base no comprimento do contexto da solicitação."
},
"kimi-thinking-preview": {
"description": "O modelo kimi-thinking-preview, fornecido pela Face Oculta da Lua, é um modelo multimodal de pensamento com capacidades de raciocínio multimodal e geral, especializado em raciocínio profundo para ajudar a resolver problemas mais complexos."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (gratuito por tempo limitado) é focado em compreensão de código e programação automatizada, ideal para tarefas de agente de codificação eficiente."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "O modelo Llama 3.3 com ajuste fino de instruções foi otimizado para cenários de diálogo, superando muitos modelos de chat open-source existentes em benchmarks comuns do setor."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: modelo de alto desempenho da série Llama, adequado para cenários que exigem alta taxa de processamento e baixa latência."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking é o mais recente e poderoso modelo de raciocínio de código aberto. Ele amplia significativamente a profundidade do raciocínio em múltiplas etapas e mantém o uso estável de ferramentas em 200300 chamadas consecutivas. Estabeleceu novos padrões em benchmarks como Humanity's Last Exam (HLE), BrowseComp e outros. Também se destaca em programação, matemática, raciocínio lógico e cenários com agentes. Baseado em arquitetura de especialistas mistos (MoE), possui cerca de 1 trilhão de parâmetros, suporta janelas de contexto de 256K e chamadas de ferramentas."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 é um modelo de linguagem de especialistas mistos (MoE) em grande escala desenvolvido pela Moonshot AI, com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos por passagem. Otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código."
},
@ -2721,7 +2733,7 @@
"description": "Focado em raciocínio avançado e resolução de problemas complexos, incluindo tarefas matemáticas e científicas. Muito adequado para aplicativos que exigem compreensão profunda do contexto e gerenciamento de fluxos de trabalho."
},
"o1-mini": {
"description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
"description": "Menor e mais rápido que o o1-preview, com 80% de redução de custo, apresenta bom desempenho em geração de código e operações com contexto reduzido."
},
"o1-preview": {
"description": "Focado em raciocínio avançado e na resolução de problemas complexos, incluindo tarefas de matemática e ciências. Muito adequado para aplicações que exigem compreensão profunda do contexto e fluxos de trabalho autônomos."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: modelo da série Qwen com excelente desempenho em tarefas multilíngues e de codificação, adequado para aplicações de produção em escala média."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: modelo com contexto longo voltado para geração de código e tarefas complexas de programação."
},
"qwen-coder-plus": {
"description": "Modelo de código Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Um novo produto de API suportado pelo modelo de raciocínio DeepSeek."
},
"spark-x": {
"description": "Apresentação das capacidades do X1.5: (1) Novo ajuste dinâmico do modo de raciocínio, controlado pelo campo 'thinking'; (2) Comprimento de contexto aumentado: 64K para entrada e saída; (3) Suporte à funcionalidade FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Modelo de geração de imagens a partir de texto mais recente lançado pela Stability AI. Esta versão mantém as vantagens das anteriores e apresenta melhorias significativas na qualidade da imagem, compreensão textual e diversidade de estilos, capaz de interpretar prompts complexos de linguagem natural com maior precisão e gerar imagens mais precisas e variadas."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 é o modelo de código rápido da xAI, com saída legível e adaptada à engenharia."
},
"x1": {
"description": "O modelo Spark X1 será aprimorado ainda mais, mantendo a liderança em tarefas matemáticas no país, e alcançando resultados em tarefas gerais como raciocínio, geração de texto e compreensão de linguagem que se comparam ao OpenAI o1 e DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 é um modelo de linguagem de ponta com capacidades avançadas de raciocínio. Possui habilidades avançadas em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4-Turbo no ranking LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 é o modelo carro-chefe da Z.AI, com contexto expandido e capacidades aprimoradas de codificação."
},
"zai-glm-4.6": {
"description": "Desempenho excelente em tarefas de programação e raciocínio, com suporte a streaming e chamadas de ferramentas, ideal para codificação com agentes e cenários de raciocínio complexo."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 é um modelo base projetado para aplicações de agentes inteligentes, utilizando arquitetura Mixture-of-Experts (MoE). Otimizado para chamadas de ferramentas, navegação web, engenharia de software e programação front-end, suporta integração perfeita com agentes de código como Claude Code e Roo Code. Adota modo de raciocínio híbrido, adaptando-se a cenários de raciocínio complexo e uso cotidiano."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Этот адрес электронной почты уже зарегистрирован. Пожалуйста, войдите в систему.",
"emailInvalid": "Пожалуйста, введите действительный адрес электронной почты",
"emailNotRegistered": "Этот адрес электронной почты не зарегистрирован",
"emailNotVerified": "Электронная почта не подтверждена, пожалуйста, подтвердите её сначала",
@ -65,6 +66,7 @@
"passwordMaxLength": "Пароль не должен превышать 64 символа",
"passwordMinLength": "Пароль должен содержать не менее 8 символов",
"passwordRequired": "Пожалуйста, введите пароль",
"usernameNotRegistered": "Это имя пользователя не зарегистрировано",
"usernameRequired": "Пожалуйста, введите имя пользователя"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Войти через Zitadel",
"emailPlaceholder": "Введите адрес электронной почты",
"emailStep": {
"subtitle": "Введите адрес электронной почты, чтобы продолжить",
"title": "Вход"
},
"error": "Не удалось войти, проверьте адрес электронной почты и пароль",
@ -194,6 +195,7 @@
"resetPasswordError": "Не удалось отправить ссылку для сброса пароля",
"resetPasswordSent": "Ссылка для сброса пароля отправлена, проверьте почту",
"save": "Сохранить",
"setPassword": "Установить пароль",
"sso": {
"link": {
"button": "Привязать аккаунт",
@ -210,7 +212,14 @@
"title": "Детали профиля",
"updateAvatar": "Обновить аватар",
"updateFullName": "Обновить полное имя",
"username": "Имя пользователя"
"updateUsername": "Обновить имя пользователя",
"username": "Имя пользователя",
"usernameDuplicate": "Имя пользователя уже занято",
"usernameInputHint": "Пожалуйста, введите новое имя пользователя",
"usernamePlaceholder": "Введите имя пользователя, состоящее из букв, цифр или символа подчёркивания",
"usernameRequired": "Имя пользователя не может быть пустым",
"usernameRule": "Имя пользователя может содержать только буквы, цифры или символ подчёркивания",
"usernameUpdateFailed": "Не удалось обновить имя пользователя, попробуйте позже"
},
"signout": "Выйти",
"signup": "Зарегистрироваться",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Создана специально для эффективного кодирования и рабочих процессов агентов"
},
"MiniMax-M2-Stable": {
"description": "Создан для эффективного кодирования и рабочих процессов агентов, с высокой параллельностью и коммерческим использованием."
},
"MiniMax-Text-01": {
"description": "В серии моделей MiniMax-01 мы сделали смелые инновации: впервые в крупномасштабном масштабе реализован линейный механизм внимания, традиционная архитектура Transformer больше не является единственным выбором. Объем параметров этой модели достигает 456 миллиардов, из которых 45,9 миллиарда активируются за один раз. Комплексная производительность модели сопоставима с ведущими зарубежными моделями, при этом она может эффективно обрабатывать контекст длиной до 4 миллионов токенов, что в 32 раза больше, чем у GPT-4o, и в 20 раз больше, чем у Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 — это последняя и самая мощная версия Kimi K2. Это передовая языковая модель с архитектурой смешанных экспертов (MoE), обладающая общим числом параметров в 1 триллион и 32 миллиардами активных параметров. Основные характеристики модели включают: улучшенный интеллект кодирующих агентов, демонстрирующий значительный прирост производительности на открытых бенчмарках и в реальных задачах кодирования агентов; усовершенствованный опыт фронтенд-кодирования, с улучшениями как в эстетике, так и в практичности фронтенд-программирования."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo — это турбо-версия серии Kimi K2, оптимизированная для скорости вывода и пропускной способности, при этом сохраняющая возможности многошагового рассуждения и вызова инструментов K2 Thinking. Модель построена на архитектуре смешанных экспертов (MoE), имеет около 1 триллиона параметров, нативно поддерживает контекст до 256K и стабильно выполняет масштабные вызовы инструментов. Подходит для производственных сценариев с высокими требованиями к задержке и параллельности."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview — это инновационная модель обработки естественного языка, способная эффективно обрабатывать сложные задачи генерации диалогов и понимания контекста."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR — это визуально-языковая модель от DeepSeek AI, ориентированная на оптическое распознавание символов (OCR) и «контекстное оптическое сжатие». Модель исследует границы сжатия контекстной информации из изображений, эффективно обрабатывает документы и преобразует их в структурированные форматы, такие как Markdown. Она точно распознаёт текст на изображениях и особенно подходит для цифровизации документов, извлечения текста и структурированной обработки."
},
"deepseek-r1": {
"description": "DeepSeek-R1 — это модель вывода, управляемая методом обучения с подкреплением (RL), которая решает проблемы повторяемости и читаемости модели. Перед применением RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision — модель глубокого визуального размышления, демонстрирующая более сильные универсальные мультимодальные способности понимания и рассуждения в таких сценариях, как образование, проверка изображений, инспекции и безопасность, а также AI-поиск и ответы на вопросы. Поддерживает окно контекста до 256k и максимальную длину вывода до 64k токенов."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code глубоко оптимизирован для задач агентного программирования, поддерживает мультимодальность (текст/изображения/видео) и длинный контекст до 256K, совместим с API Anthropic. Подходит для программирования, визуального понимания и сценариев с агентами."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Модель генерации изображений Doubao разработана командой Seed компании ByteDance, поддерживает ввод текста и изображений, обеспечивая высококонтролируемый и качественный опыт генерации изображений. Поддерживает редактирование изображений с помощью текстовых команд, размер изображения от 512 до 1536 пикселей."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B — открытая мультимодальная модель, поддерживающая задачи понимания и вывода по изображениям и тексту."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking — флагманская модель с нативной поддержкой всех модальностей, объединяющая текст, изображения, аудио и видео. Существенно улучшена общая производительность, подходит для сложных вопросов, творчества и сценариев с интеллектуальными агентами."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview — флагманская нативная мультимодальная модель, поддерживающая единое моделирование текста, изображений, аудио и видео. Комплексное обновление возможностей, подходящее для сложных вопросов, творчества и интеллектуальных агентов."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Продукт Kimi Smart Assistant использует последнюю модель Kimi, которая может содержать нестабильные функции. Поддерживает понимание изображений и автоматически выбирает модель 8k/32k/128k в качестве модели для выставления счетов в зависимости от длины контекста запроса."
},
"kimi-thinking-preview": {
"description": "Модель kimi-thinking-preview от Moons Dark Side — мультимодальная модель мышления с возможностями универсального и глубокого рассуждения, помогает решать более сложные задачи."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (временно бесплатно) специализируется на понимании кода и автоматизированном программировании, предназначен для эффективных задач программных агентов."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Модель Llama 3.3 с тонкой настройкой инструкций оптимизирована для диалоговых сценариев и превосходит многие существующие модели с открытым исходным кодом в стандартных отраслевых тестах."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: высокопроизводительная модель серии Llama, оптимизированная для сценариев с высокой пропускной способностью и низкой задержкой."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 — это последняя и самая мощная версия Kimi K2. Это передовая языковая модель с архитектурой смешанных экспертов (MoE), обладающая общим числом параметров в 1 триллион и 32 миллиардами активных параметров. Основные характеристики модели включают: улучшенный интеллект кодирующих агентов, демонстрирующий значительный прирост производительности на открытых бенчмарках и в реальных задачах кодирования агентов; усовершенствованный опыт фронтенд-кодирования, с улучшениями как в эстетике, так и в практичности фронтенд-программирования."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking — новейшая и самая мощная открытая модель для рассуждений. Она значительно расширяет глубину многошагового вывода и стабильно использует инструменты в 200300 последовательных вызовах. Установила новые стандарты в Humanity's Last Exam (HLE), BrowseComp и других бенчмарках. Модель демонстрирует выдающиеся результаты в программировании, математике, логическом мышлении и агентных сценариях. Построена на архитектуре смешанных экспертов (MoE), содержит около 1 триллиона параметров, поддерживает контекст до 256K и вызов инструментов."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 — крупномасштабная смешанная экспертная (MoE) языковая модель с триллионом параметров и 32 миллиардами активных параметров на проход. Оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждения и синтез кода."
},
@ -2721,7 +2733,7 @@
"description": "Сосредоточена на высокоуровневом выводе и решении сложных задач, включая математические и научные задачи. Идеально подходит для приложений, требующих глубокого понимания контекста и управления рабочими процессами."
},
"o1-mini": {
"description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
"description": "Меньше и быстрее, чем o1-preview, на 80% дешевле, хорошо справляется с генерацией кода и задачами с малым контекстом."
},
"o1-preview": {
"description": "Сосредоточен на продвинутом рассуждении и решении сложных задач, включая задачи по математике и естественным наукам. Отлично подходит для приложений, которым требуется глубокое понимание контекста и автономные рабочие процессы."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: модель серии Qwen с отличной производительностью в многоязычных и программных задачах, подходящая для средне-масштабного промышленного применения."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: модель с длинным контекстом, ориентированная на генерацию кода и выполнение сложных программных задач."
},
"qwen-coder-plus": {
"description": "Модель кода Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Новый API продукт, поддерживаемый моделью вывода DeepSeek."
},
"spark-x": {
"description": "Возможности X1.5: (1) Новая функция динамической настройки режима мышления через поле thinking; (2) Увеличенная длина контекста: по 64K на ввод и вывод; (3) Поддержка функции FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Последняя крупная модель генерации изображений из текста от Stability AI. Эта версия сохраняет преимущества предыдущих поколений и значительно улучшает качество изображений, понимание текста и разнообразие стилей, позволяя точнее интерпретировать сложные естественные языковые подсказки и создавать более точные и разнообразные изображения."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 — это быстрая модель генерации кода от xAI, обеспечивающая читаемый и инженерно пригодный вывод."
},
"x1": {
"description": "Модель Spark X1 будет дополнительно обновлена, и на основе уже существующих лидерских позиций в математических задачах, достигнет сопоставимых результатов в общих задачах, таких как рассуждение, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 — передовая языковая модель с выдающимися возможностями рассуждения. Обладает продвинутыми навыками в чатах, кодировании и рассуждениях, превосходя Claude 3.5 Sonnet и GPT-4-Turbo в рейтинге LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 — это флагманская модель от Z.AI с расширенной длиной контекста и улучшенными возможностями кодирования."
},
"zai-glm-4.6": {
"description": "Отлично справляется с задачами программирования и рассуждений, поддерживает потоковую обработку и вызов инструментов, подходит для агентного кодирования и сложных логических сценариев."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 — базовая модель, специально созданная для приложений с агентами, использующая архитектуру смешанных экспертов (Mixture-of-Experts). Модель глубоко оптимизирована для вызова инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, поддерживает бесшовную интеграцию с кодовыми агентами, такими как Claude Code и Roo Code. GLM-4.5 использует смешанный режим вывода, адаптируясь к сложным рассуждениям и повседневным задачам."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Bu e-posta adresi zaten kayıtlı, lütfen doğrudan giriş yapın",
"emailInvalid": "Lütfen geçerli bir e-posta adresi girin",
"emailNotRegistered": "Bu e-posta henüz kayıtlı değil",
"emailNotVerified": "E-posta doğrulanmamış, lütfen önce e-postanızı doğrulayın",
@ -65,6 +66,7 @@
"passwordMaxLength": "Şifre en fazla 64 karakter olabilir",
"passwordMinLength": "Şifre en az 8 karakter olmalıdır",
"passwordRequired": "Lütfen şifrenizi girin",
"usernameNotRegistered": "Bu kullanıcı adı henüz kayıtlı değil",
"usernameRequired": "Lütfen kullanıcı adınızı girin"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Zitadel ile giriş yap",
"emailPlaceholder": "Lütfen e-posta adresinizi girin",
"emailStep": {
"subtitle": "Devam etmek için e-posta adresinizi girin",
"title": "Giriş Yap"
},
"error": "Giriş başarısız, lütfen e-posta ve şifrenizi kontrol edin",
@ -194,6 +195,7 @@
"resetPasswordError": "Şifre sıfırlama bağlantısı gönderilemedi",
"resetPasswordSent": "Şifre sıfırlama bağlantısı gönderildi, lütfen e-postanızı kontrol edin",
"save": "Kaydet",
"setPassword": "Şifreyi Ayarla",
"sso": {
"link": {
"button": "Hesabı bağla",
@ -210,7 +212,14 @@
"title": "Profil Bilgileri",
"updateAvatar": "Avatarı güncelle",
"updateFullName": "Tam adı güncelle",
"username": "Kullanıcı Adı"
"updateUsername": "Kullanıcı Adını Güncelle",
"username": "Kullanıcı Adı",
"usernameDuplicate": "Kullanıcı adı zaten kullanılıyor",
"usernameInputHint": "Lütfen yeni bir kullanıcı adı girin",
"usernamePlaceholder": "Lütfen harf, rakam veya alt çizgi içeren bir kullanıcı adı girin",
"usernameRequired": "Kullanıcı adı boş bırakılamaz",
"usernameRule": "Kullanıcı adı yalnızca harf, rakam veya alt çizgi içerebilir",
"usernameUpdateFailed": "Kullanıcı adı güncellenemedi, lütfen daha sonra tekrar deneyin"
},
"signout": ıkış Yap",
"signup": "Kayıt Ol",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Verimli kodlama ve Agent iş akışları için özel olarak tasarlandı."
},
"MiniMax-M2-Stable": {
"description": "Yüksek verimli kodlama ve Agent iş akışları için özel olarak tasarlanmıştır, daha yüksek eşzamanlılık ve ticari kullanım için uygundur."
},
"MiniMax-Text-01": {
"description": "MiniMax-01 serisi modellerinde cesur yenilikler yaptık: ilk kez büyük ölçekli lineer dikkat mekanizmasını gerçekleştirdik, geleneksel Transformer mimarisi artık tek seçenek değil. Bu modelin parametre sayısı 456 milyara kadar çıkmakta, tek bir aktivasyonda 45.9 milyar. Modelin genel performansı, yurtdışındaki en iyi modellerle karşılaştırılabilirken, dünya genelinde 4 milyon token uzunluğundaki bağlamı verimli bir şekilde işleyebilir, bu da GPT-4o'nun 32 katı, Claude-3.5-Sonnet'in 20 katıdır."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo, Kimi K2 serisinin Turbo versiyonudur. Akıl yürütme hızı ve işlem hacmi açısından optimize edilmiştir ve aynı zamanda K2 Thinkingin çok adımlı akıl yürütme ve araç kullanımı yeteneklerini korur. Model, yaklaşık 1T toplam parametreye sahip karma uzman (MoE) mimarisi üzerine kuruludur, doğal olarak 256K bağlamı destekler ve büyük ölçekli araç çağrılarını istikrarlı bir şekilde gerçekleştirebilir. Gecikme ve eşzamanlılık gereksinimlerinin yüksek olduğu üretim senaryoları için uygundur."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview, karmaşık diyalog oluşturma ve bağlam anlama görevlerini etkili bir şekilde işleyebilen yenilikçi bir doğal dil işleme modelidir."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR, DeepSeek AI tarafından geliştirilen bir görsel-dil modelidir. Optik karakter tanıma (OCR) ve \"bağlamsal optik sıkıştırma\" üzerine odaklanır. Bu model, görsellerden bağlam bilgisini sıkıştırma sınırlarını keşfetmeyi amaçlar, belgeleri verimli bir şekilde işleyerek Markdown gibi yapılandırılmış metin formatlarına dönüştürebilir. Görsellerdeki metinleri doğru şekilde tanıyabilir ve özellikle belge dijitalleştirme, metin çıkarımı ve yapılandırılmış veri işleme gibi uygulamalar için uygundur."
},
"deepseek-r1": {
"description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision görsel derin düşünme modeli, eğitim, görüntü denetimi, denetim ve güvenlik ile AI arama ve soru-cevap gibi senaryolarda daha güçlü genel çok modlu anlama ve akıl yürütme yetenekleri sergiler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token olabilir."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code, Agentic programlama görevleri için derinlemesine optimize edilmiştir. Çok modlu (metin/görsel/video) desteği ve 256K uzun bağlam kapasitesi sunar, Anthropic API ile uyumludur. Programlama, görsel anlama ve Agent senaryoları için uygundur."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Doubao resim oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve resim girişini destekler, yüksek kontrol ve kaliteli resim oluşturma deneyimi sunar. Metin komutlarıyla görüntü düzenlemeyi destekler ve oluşturulan görüntülerin kenar uzunluğu 512 ile 1536 piksel arasındadır."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, çok modlu açık kaynak modeli, görsel-metin anlama ve çıkarım görevlerini destekler."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking, yerel tam modlu amiral gemisi modelidir. Metin, görsel, ses ve video gibi tüm modaliteleri tek bir modelde birleştirir. Kapsamlı yetenek yükseltmeleriyle karmaşık soru-cevap, içerik üretimi ve akıllı ajan senaryoları için uygundur."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Önizleme Sürümü, yerel tam modlu amiral gemisi modeli, metin, görsel, ses ve video için birleşik modelleme desteği sunar, karmaşık soru-cevap, yaratım ve akıllı ajan senaryoları için uygundur."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Kimi akıllı asistan ürünü, en son Kimi büyük modelini kullanır ve henüz kararlı olmayan özellikler içerebilir. Görüntü anlayışını desteklerken, isteğin bağlam uzunluğuna göre 8k/32k/128k modelini faturalama modeli olarak otomatik olarak seçecektir."
},
"kimi-thinking-preview": {
"description": "kimi-thinking-preview modeli, Ay'ın karanlık yüzü tarafından sunulan çok modlu akıl yürütme ve genel akıl yürütme yeteneklerine sahip çok modlu düşünme modelidir; derin akıl yürütmede uzmandır ve daha zor sorunların çözümüne yardımcı olur."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (sınırlı süreli ücretsiz), kod anlama ve otomatik programlama üzerine odaklanır; verimli programlama ajan görevleri için uygundur."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Llama 3.3 komut ince ayarlı modeli, diyalog senaryoları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında birçok mevcut açık kaynaklı sohbet modelini geride bırakmaktadır."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: Yüksek performanslı Llama serisi modeli; yüksek işlem hacmi ve düşük gecikme gerektiren senaryolar için idealdir."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking, en yeni ve en güçlü açık kaynak düşünme modelidir. Çok adımlı akıl yürütme derinliğini büyük ölçüde artırarak ve 200300 ardışık araç çağrısı sırasında istikrarlı araç kullanımı sağlayarak Humanity's Last Exam (HLE), BrowseComp ve diğer kıyaslamalarda yeni standartlar belirlemiştir. Ayrıca programlama, matematik, mantıksal akıl yürütme ve Agent senaryolarında üstün performans sergiler. Model, yaklaşık 1T toplam parametreye sahip karma uzman (MoE) mimarisi üzerine kuruludur, 256K bağlam penceresini destekler ve araç çağrılarını destekler."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük ölçekli karma uzman (MoE) dil modeli olup, toplamda 1 trilyon parametre ve her ileri geçişte 32 milyar aktif parametreye sahiptir. Ajan yetenekleri için optimize edilmiştir; gelişmiş araç kullanımı, çıkarım ve kod sentezi içerir."
},
@ -2721,7 +2733,7 @@
"description": "Gelişmiş çıkarım ve karmaşık sorunları çözmeye odaklanır, matematik ve bilim görevlerini içerir. Derin bağlam anlayışı ve aracılık iş akışları gerektiren uygulamalar için son derece uygundur."
},
"o1-mini": {
"description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
"description": "o1-preview modeline göre daha küçük ve daha hızlıdır, maliyeti %80 daha düşüktür. Kod üretimi ve kısa bağlam işlemlerinde iyi performans gösterir."
},
"o1-preview": {
"description": "İleri düzey muhakeme ve matematik ile fen görevleri dahil olmak üzere karmaşık sorunların çözümüne odaklanır. Derin bağlam anlayışı ve özerk iş akışları gerektiren uygulamalar için son derece uygundur."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: Qwen serisi, çok dilli ve kodlama görevlerinde üstün performans gösterir; orta ölçekli üretim kullanımı için uygundur."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: Kod üretimi ve karmaşık programlama görevleri için tasarlanmış uzun bağlamlı bir modeldir."
},
"qwen-coder-plus": {
"description": "Tongyi Qianwen kodlama modeli."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "DeepSeek'in akıl yürütme modeli tarafından desteklenen yeni API ürünü."
},
"spark-x": {
"description": "X1.5 Özellikleri: (1) Düşünme modunu dinamik olarak ayarlama özelliği eklendi, thinking alanı ile kontrol edilir; (2) Bağlam uzunluğu artırıldı: giriş ve çıkış için 64K; (3) FunctionCall özelliği desteklenmektedir."
},
"stable-diffusion-3-medium": {
"description": "Stability AI tarafından geliştirilen en yeni metinden görüntü oluşturma büyük modelidir. Önceki sürümlerin avantajlarını koruyarak, görüntü kalitesi, metin anlama ve stil çeşitliliği alanlarında önemli iyileştirmeler sunar. Karmaşık doğal dil istemlerini daha doğru yorumlayabilir ve daha kesin, çeşitli görüntüler oluşturabilir."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1, xAI'nin hızlı kodlama modelidir; okunabilirlik ve mühendislik uyumluluğu yüksek çıktılar üretir."
},
"x1": {
"description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
},
"xai/grok-2": {
"description": "Grok 2, en ileri çıkarım yeteneklerine sahip öncü bir dil modelidir. Sohbet, kodlama ve çıkarımda gelişmiş yetenekler sunar ve LMSYS sıralamasında Claude 3.5 Sonnet ve GPT-4-Turbo'nun önündedir."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6, Z.AI'nin amiral gemisi modelidir; bağlam uzunluğunu ve kodlama yeteneklerini genişletmiştir."
},
"zai-glm-4.6": {
"description": "Programlama ve akıl yürütme görevlerinde üstün performans gösterir, akışlı çıktı ve araç çağrısını destekler. Agentic kodlama ve karmaşık akıl yürütme senaryoları için uygundur."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5, akıllı ajan uygulamaları için tasarlanmış temel modeldir ve Mixture-of-Experts (MoE) mimarisi kullanır. Araç çağrısı, web tarama, yazılım mühendisliği ve ön uç programlama alanlarında derin optimizasyonlar içerir. Claude Code, Roo Code gibi kod ajanlarına sorunsuz entegrasyon destekler. GLM-4.5, karmaşık çıkarım ve günlük kullanım gibi çeşitli senaryolara uyum sağlayan hibrit çıkarım moduna sahiptir."
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "Email này đã được đăng ký, vui lòng đăng nhập trực tiếp",
"emailInvalid": "Vui lòng nhập địa chỉ email hợp lệ",
"emailNotRegistered": "Email này chưa được đăng ký",
"emailNotVerified": "Email chưa được xác minh, vui lòng xác minh trước",
@ -65,6 +66,7 @@
"passwordMaxLength": "Mật khẩu không được vượt quá 64 ký tự",
"passwordMinLength": "Mật khẩu phải có ít nhất 8 ký tự",
"passwordRequired": "Vui lòng nhập mật khẩu",
"usernameNotRegistered": "Tên người dùng này chưa được đăng ký",
"usernameRequired": "Vui lòng nhập tên người dùng"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "Đăng nhập bằng Zitadel",
"emailPlaceholder": "Vui lòng nhập địa chỉ email",
"emailStep": {
"subtitle": "Vui lòng nhập địa chỉ email của bạn để tiếp tục",
"title": "Đăng nhập"
},
"error": "Đăng nhập thất bại, vui lòng kiểm tra email và mật khẩu",
@ -194,6 +195,7 @@
"resetPasswordError": "Gửi liên kết đặt lại mật khẩu thất bại",
"resetPasswordSent": "Liên kết đặt lại mật khẩu đã được gửi, vui lòng kiểm tra email",
"save": "Lưu",
"setPassword": "Đặt mật khẩu",
"sso": {
"link": {
"button": "Kết nối tài khoản",
@ -210,7 +212,14 @@
"title": "Chi tiết hồ sơ cá nhân",
"updateAvatar": "Cập nhật ảnh đại diện",
"updateFullName": "Cập nhật họ và tên",
"username": "Tên người dùng"
"updateUsername": "Cập nhật tên người dùng",
"username": "Tên người dùng",
"usernameDuplicate": "Tên người dùng đã được sử dụng",
"usernameInputHint": "Vui lòng nhập tên người dùng mới",
"usernamePlaceholder": "Vui lòng nhập tên người dùng gồm chữ cái, số hoặc dấu gạch dưới",
"usernameRequired": "Tên người dùng không được để trống",
"usernameRule": "Tên người dùng chỉ được chứa chữ cái, số hoặc dấu gạch dưới",
"usernameUpdateFailed": "Cập nhật tên người dùng thất bại, vui lòng thử lại sau"
},
"signout": "Đăng xuất",
"signup": "Đăng ký",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "Được thiết kế đặc biệt cho lập trình hiệu quả và quy trình làm việc của Agent"
},
"MiniMax-M2-Stable": {
"description": "Được thiết kế đặc biệt cho mã hóa hiệu quả và quy trình làm việc của Agent, hỗ trợ đồng thời cao hơn, phù hợp cho mục đích thương mại."
},
"MiniMax-Text-01": {
"description": "Trong dòng mô hình MiniMax-01, chúng tôi đã thực hiện những đổi mới táo bạo: lần đầu tiên hiện thực hóa quy mô lớn cơ chế chú ý tuyến tính, kiến trúc Transformer truyền thống không còn là lựa chọn duy nhất. Mô hình này có số lượng tham số lên tới 4560 tỷ, trong đó kích hoạt một lần là 45,9 tỷ. Hiệu suất tổng hợp của mô hình tương đương với các mô hình hàng đầu quốc tế, đồng thời có khả năng xử lý hiệu quả ngữ cảnh dài nhất toàn cầu lên tới 4 triệu token, gấp 32 lần GPT-4o và 20 lần Claude-3.5-Sonnet."
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh mẽ nhất của Kimi K2. Đây là một mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) hàng đầu với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt. Các đặc điểm chính của mô hình bao gồm: tăng cường trí tuệ mã hóa tác nhân, thể hiện sự cải thiện đáng kể trong các bài kiểm tra chuẩn công khai và các nhiệm vụ mã hóa tác nhân trong thế giới thực; cải tiến trải nghiệm mã hóa giao diện người dùng, nâng cao cả về tính thẩm mỹ và tính thực tiễn trong lập trình giao diện."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo là phiên bản Turbo của dòng Kimi K2, được tối ưu hóa về tốc độ suy luận và thông lượng, đồng thời vẫn giữ được khả năng suy luận nhiều bước và gọi công cụ của K2 Thinking. Mô hình này dựa trên kiến trúc chuyên gia hỗn hợp (MoE), với tổng số tham số khoảng 1 nghìn tỷ, hỗ trợ ngữ cảnh lên đến 256K và có thể thực hiện gọi công cụ quy mô lớn một cách ổn định, phù hợp với các tình huống sản xuất yêu cầu độ trễ thấp và khả năng xử lý đồng thời cao."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview là một mô hình xử lý ngôn ngữ tự nhiên độc đáo, có khả năng xử lý hiệu quả các nhiệm vụ tạo đối thoại phức tạp và hiểu ngữ cảnh."
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR là một mô hình ngôn ngữ thị giác do DeepSeek AI phát triển, tập trung vào nhận dạng ký tự quang học (OCR) và 'nén quang học theo ngữ cảnh'. Mô hình này nhằm khám phá giới hạn của việc nén thông tin ngữ cảnh từ hình ảnh, có khả năng xử lý tài liệu hiệu quả và chuyển đổi chúng thành các định dạng văn bản có cấu trúc như Markdown. Nó có thể nhận diện chính xác nội dung văn bản trong hình ảnh, đặc biệt phù hợp với các ứng dụng như số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc."
},
"deepseek-r1": {
"description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision là mô hình suy nghĩ sâu về thị giác, thể hiện khả năng hiểu và suy luận đa phương thức tổng quát mạnh mẽ hơn trong các kịch bản như giáo dục, kiểm duyệt hình ảnh, kiểm tra và an ninh, cũng như tìm kiếm và hỏi đáp AI. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa lên đến 64k token."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code được tối ưu hóa sâu cho các tác vụ lập trình theo hướng Agentic, hỗ trợ đa phương tiện (văn bản/hình ảnh/video) và ngữ cảnh dài 256k, tương thích với API của Anthropic, phù hợp với các tình huống lập trình, hiểu thị giác và Agent."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Mô hình tạo ảnh Doubao do đội Seed của ByteDance phát triển, hỗ trợ đầu vào văn bản và hình ảnh, cung cấp trải nghiệm tạo ảnh chất lượng cao và kiểm soát tốt. Hỗ trợ chỉnh sửa hình ảnh qua chỉ dẫn văn bản, kích thước ảnh tạo ra từ 512 đến 1536 pixel."
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, mô hình đa phương thức mã nguồn mở, hỗ trợ các nhiệm vụ hiểu và suy luận hình ảnh-văn bản."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking là mô hình hàng đầu hỗ trợ toàn bộ các chế độ đầu vào, hỗ trợ mô hình hóa thống nhất văn bản, hình ảnh, âm thanh và video, với năng lực tổng thể được nâng cấp toàn diện, phù hợp với các tình huống hỏi đáp phức tạp, sáng tạo và ứng dụng Agent."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview, mô hình hàng đầu toàn phương thức nguyên bản, hỗ trợ mô hình hóa thống nhất văn bản, hình ảnh, âm thanh và video, nâng cấp toàn diện năng lực tổng hợp, phù hợp với hỏi đáp phức tạp, sáng tạo và tác tử thông minh."
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Sản phẩm trợ lý thông minh Kimi sử dụng mô hình lớn Kimi mới nhất, có thể chứa các tính năng chưa ổn định. Hỗ trợ hiểu hình ảnh, đồng thời tự động chọn mô hình 8k/32k/128k làm mô hình tính phí dựa trên độ dài ngữ cảnh yêu cầu."
},
"kimi-thinking-preview": {
"description": "Mô hình kimi-thinking-preview do Moon's Dark Side cung cấp, có khả năng suy luận đa phương thức và suy luận tổng quát, nổi bật với khả năng suy luận sâu, giúp giải quyết nhiều vấn đề khó khăn hơn."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (miễn phí trong thời gian giới hạn) tập trung vào hiểu mã và lập trình tự động, dùng cho các tác vụ lập trình hiệu quả."
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Mô hình Llama 3.3 được tối ưu hóa cho các tình huống đối thoại, và đã vượt qua nhiều mô hình trò chuyện nguồn mở hiện có trong các bài kiểm tra chuẩn ngành phổ biến."
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout: Mô hình hiệu suất cao thuộc dòng Llama, lý tưởng cho các tình huống yêu cầu thông lượng cao và độ trễ thấp."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B cung cấp khả năng xử lý phức tạp vô song, được thiết kế riêng cho các dự án yêu cầu cao."
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh mẽ nhất của Kimi K2. Đây là một mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) hàng đầu với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt. Các đặc điểm chính của mô hình bao gồm: tăng cường trí tuệ mã hóa tác nhân, thể hiện sự cải thiện đáng kể trong các bài kiểm tra chuẩn công khai và các nhiệm vụ mã hóa tác nhân trong thế giới thực; cải tiến trải nghiệm mã hóa giao diện người dùng, nâng cao cả về tính thẩm mỹ và tính thực tiễn trong lập trình giao diện."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking là mô hình suy nghĩ mã nguồn mở mới nhất và mạnh mẽ nhất. Nó mở rộng đáng kể độ sâu suy luận nhiều bước và duy trì khả năng sử dụng công cụ ổn định trong 200300 lần gọi liên tiếp, thiết lập tiêu chuẩn mới trong các bài kiểm tra như Humanity's Last Exam (HLE), BrowseComp và các benchmark khác. Đồng thời, K2 Thinking thể hiện xuất sắc trong lập trình, toán học, suy luận logic và các tình huống Agent. Mô hình này dựa trên kiến trúc chuyên gia hỗn hợp (MoE), với tổng số tham số khoảng 1 nghìn tỷ, hỗ trợ cửa sổ ngữ cảnh 256K và gọi công cụ."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 là mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) quy mô lớn do Moonshot AI phát triển, với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt mỗi lần truyền tiến. Nó được tối ưu cho khả năng đại lý, bao gồm sử dụng công cụ nâng cao, suy luận và tổng hợp mã."
},
@ -2721,7 +2733,7 @@
"description": "Tập trung vào suy diễn nâng cao và giải quyết các vấn đề phức tạp, bao gồm các nhiệm vụ toán học và khoa học. Rất phù hợp cho các ứng dụng cần hiểu biết sâu sắc về ngữ cảnh và quy trình làm việc đại diện."
},
"o1-mini": {
"description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
"description": "Nhỏ hơn và nhanh hơn o1-preview, tiết kiệm chi phí đến 80%, thể hiện tốt trong việc tạo mã và xử lý ngữ cảnh nhỏ."
},
"o1-preview": {
"description": "Tập trung vào suy luận nâng cao và giải quyết các vấn đề phức tạp, bao gồm các bài toán và nhiệm vụ khoa học. Rất phù hợp cho những ứng dụng cần khả năng hiểu biết ngữ cảnh sâu sắc và quy trình làm việc tự chủ."
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32B: Mô hình dòng Qwen có hiệu suất tốt trong các nhiệm vụ đa ngôn ngữ và lập trình, thích hợp cho các ứng dụng sản xuất quy mô trung bình."
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B: Mô hình ngữ cảnh dài dành cho sinh mã và các nhiệm vụ lập trình phức tạp."
},
"qwen-coder-plus": {
"description": "Mô hình mã hóa Tongyi Qianwen."
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "Sản phẩm API mới được hỗ trợ bởi mô hình suy diễn DeepSeek."
},
"spark-x": {
"description": "Giới thiệu khả năng của X1.5: (1) Thêm chế độ suy nghĩ điều chỉnh động, điều khiển qua trường thinking; (2) Tăng độ dài ngữ cảnh: đầu vào và đầu ra đều 64K; (3) Hỗ trợ chức năng FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Mô hình tạo hình ảnh từ văn bản mới nhất do Stability AI phát hành. Phiên bản này kế thừa ưu điểm của thế hệ trước, cải tiến đáng kể về chất lượng hình ảnh, hiểu văn bản và đa dạng phong cách, có thể giải thích chính xác các gợi ý ngôn ngữ tự nhiên phức tạp và tạo ra hình ảnh chính xác, đa dạng hơn."
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 là mô hình mã nhanh của xAI, đầu ra dễ đọc và phù hợp với kỹ thuật phần mềm."
},
"x1": {
"description": "Mô hình Spark X1 sẽ được nâng cấp thêm, trên nền tảng dẫn đầu trong các nhiệm vụ toán học trong nước, đạt được hiệu quả trong các nhiệm vụ chung như suy luận, tạo văn bản, hiểu ngôn ngữ tương đương với OpenAI o1 và DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 là mô hình ngôn ngữ tiên tiến với khả năng suy luận hàng đầu. Nó có năng lực vượt trội trong trò chuyện, mã hóa và suy luận, đứng trên Claude 3.5 Sonnet và GPT-4-Turbo trên bảng xếp hạng LMSYS."
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 là mô hình hàng đầu của Z.AI, mở rộng độ dài ngữ cảnh và khả năng lập trình."
},
"zai-glm-4.6": {
"description": "Thể hiện xuất sắc trong các tác vụ lập trình và suy luận, hỗ trợ truyền dữ liệu theo luồng và gọi công cụ, phù hợp với lập trình Agentic và các tình huống suy luận phức tạp."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 là mô hình nền tảng dành cho ứng dụng tác nhân thông minh, sử dụng kiến trúc chuyên gia hỗn hợp (Mixture-of-Experts). Được tối ưu sâu trong các lĩnh vực gọi công cụ, duyệt web, kỹ thuật phần mềm và lập trình front-end, hỗ trợ tích hợp liền mạch vào các tác nhân mã như Claude Code, Roo Code. GLM-4.5 sử dụng chế độ suy luận hỗn hợp, thích ứng với nhiều kịch bản ứng dụng như suy luận phức tạp và sử dụng hàng ngày."
},

View file

@ -54,10 +54,11 @@
},
"betterAuth": {
"errors": {
"emailInvalid": "请输入有效的邮箱地址",
"emailNotRegistered": "该邮箱尚未注册",
"emailExists": "该邮箱已注册,请直接登录",
"emailInvalid": "请输入有效的邮箱地址或用户名",
"emailNotRegistered": "该邮箱或用户名尚未注册",
"emailNotVerified": "邮箱尚未验证,请先验证邮箱",
"emailRequired": "请输入邮箱地址",
"emailRequired": "请输入邮箱或用户名",
"firstNameRequired": "请输入名字",
"lastNameRequired": "请输入姓氏",
"loginFailed": "登录失败,请检查邮箱和密码",
@ -65,6 +66,7 @@
"passwordMaxLength": "密码最多不超过 64 个字符",
"passwordMinLength": "密码至少需要 8 个字符",
"passwordRequired": "请输入密码",
"usernameNotRegistered": "该用户名尚未注册",
"usernameRequired": "请输入用户名"
},
"resetPassword": {
@ -99,9 +101,8 @@
"continueWithOkta": "使用 Okta 登录",
"continueWithWechat": "使用微信登录",
"continueWithZitadel": "使用 Zitadel 登录",
"emailPlaceholder": "请输入邮箱地址",
"emailPlaceholder": "请输入邮箱或用户名",
"emailStep": {
"subtitle": "请输入您的邮箱地址以继续",
"title": "登录"
},
"error": "登录失败,请检查邮箱和密码",
@ -194,6 +195,7 @@
"resetPasswordError": "发送密码重置链接失败",
"resetPasswordSent": "密码重置链接已发送,请检查邮箱",
"save": "保存",
"setPassword": "设置密码",
"sso": {
"link": {
"button": "连接帐户",
@ -202,15 +204,22 @@
"loading": "正在加载已绑定的第三方账户",
"providers": "连接的帐户",
"unlink": {
"description": "解绑后,您将无法使用 {{provider}} 账户\"{{providerAccountId}}\"登录。如果您需要重新绑定 {{provider}} 账户到当前账户,请确保 {{provider}} 账户的邮件地址为 {{email}} ,我们会在登陆时为你自动绑定到当前登录账户。",
"forbidden": "您至少需要保留一个第三方账户绑定。",
"title": "是否解绑该第三方账户 {{provider}} "
"description": "解绑后再次使用 {{provider}} 登录需要重新授权或绑定。",
"forbidden": "您至少需要保留一个登录方式。",
"title": "确认解绑 {{provider}} 账户"
}
},
"title": "个人资料详情",
"updateAvatar": "更新头像",
"updateFullName": "更新全名",
"username": "用户名"
"updateUsername": "更新用户名",
"username": "用户名",
"usernameDuplicate": "用户名已被占用",
"usernameInputHint": "请输入新的用户名",
"usernamePlaceholder": "请输入由字母、数字或下划线组成的用户名",
"usernameRequired": "用户名不能为空",
"usernameRule": "用户名仅支持字母、数字或下划线",
"usernameUpdateFailed": "更新用户名失败,请稍后重试"
},
"signout": "退出登录",
"signup": "注册",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "专为高效编码与Agent工作流而生"
},
"MiniMax-M2-Stable": {
"description": "专为高效编码与Agent工作流而生更高并发商业使用。"
},
"MiniMax-Text-01": {
"description": "在 MiniMax-01系列模型中我们做了大胆创新首次大规模实现线性注意力机制传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿其中单次激活459亿。模型综合性能比肩海外顶尖模型同时能够高效处理全球最长400万token的上下文是GPT-4o的32倍Claude-3.5-Sonnet的20倍。"
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最强大的版本。它是一款顶尖的混合专家MoE语言模型拥有 1 万亿的总参数和 320 亿的激活参数。该模型的主要特性包括:增强的智能体编码智能,在公开基准测试和真实世界的编码智能体任务中表现出显著的性能提升;改进的前端编码体验,在前端编程的美观性和实用性方面均有进步。"
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo 是 Kimi K2 系列的 Turbo 版本,针对推理速度和吞吐进行了优化,同时保留 K2 Thinking 的多步推理与工具调用能力。该模型基于混合专家MoE架构总参数约 1T原生支持 256K 上下文并可稳定执行大规模工具调用,适用于对延迟和并发有更高要求的生产场景。"
},
"QwQ-32B-Preview": {
"description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型专注于提升AI推理能力。"
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
},
"deepseek-ocr": {
"description": "DeepSeek-OCR 是由深度求索DeepSeek AI推出的一个视觉语言模型专注于光学字符识别OCR与\"上下文光学压缩\"。该模型旨在探索从图像中压缩上下文信息的边界,能够高效处理文档并将其转换为如 Markdown 等结构化文本格式。它能够准确识别图像中的文字内容,特别适用于文档数字化、文字提取和结构化处理等应用场景。"
},
"deepseek-r1": {
"description": "DeepSeek-R1 在强化学习RL之前引入了冷启动数据在数学、代码和推理任务上表现可与 OpenAI-o1 相媲美。"
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision 视觉深度思考模型在教育、图像审核、巡检与安防和AI 搜索问答等场景下展现出更强的通用多模态理解和推理能力。支持 256k 上下文窗口,输出长度支持最大 64k tokens。"
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code 面向 Agentic 编程任务进行了深度优化,支持多模态(文字/图片/视频)与 256k 长上下文,兼容 Anthropic API适用于编程、视觉理解与 Agent 场景。"
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Doubao图片生成模型由字节跳动 Seed 团队研发支持文字与图片输入提供高可控、高质量的图片生成体验。支持通过文本指令编辑图像生成图像的边长在5121536之间。"
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B多模态开源模型支持图文理解与推理任务。"
},
"ernie-5.0-thinking-latest": {
"description": "文心5.0 Thinking原生全模态旗舰模型支持文本、图像、音频、视频统一建模综合能力全面升级适用于复杂问答、创作与智能体场景。"
},
"ernie-5.0-thinking-preview": {
"description": "文心5.0 Thinking 预览版,原生全模态旗舰模型,支持文本、图像、音频、视频统一建模,综合能力全面升级,适用于复杂问答、创作与智能体场景。"
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Kimi 智能助手产品使用最新的 Kimi 大模型,可能包含尚未稳定的特性。支持图片理解,同时会自动根据请求的上下文长度选择 8k/32k/128k 模型作为计费模型"
},
"kimi-thinking-preview": {
"description": "kimi-thinking-preview 模型是月之暗面提供的具有多模态推理能力和通用推理能力的多模态思考模型,它擅长深度推理,帮助解决更多更难的事情"
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1限时免费专注于代码理解与自动化编程用于高效的编程代理任务。"
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Llama 3.3 指令微调模型针对对话场景进行了优化,在常见的行业基准测试中,超越了许多现有的开源聊天模型。"
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout高性能的 Llama 系列模型,适合需高吞吐与低延迟的场景。"
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。"
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最强大的版本。它是一款顶尖的混合专家MoE语言模型拥有 1 万亿的总参数和 320 亿的激活参数。该模型的主要特性包括:增强的智能体编码智能,在公开基准测试和真实世界的编码智能体任务中表现出显著的性能提升;改进的前端编码体验,在前端编程的美观性和实用性方面均有进步。"
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking 是最新、最强大的开源思考模型。它通过大幅扩展多步推理深度,并在 200300 次连续工具调用中保持稳定的工具使用,在 Humanity's Last Exam (HLE)、BrowseComp 及其他基准测试中树立了新的标杆。同时K2 Thinking 在编程、数学、逻辑推理和 Agent 场景中表现卓越。该模型基于混合专家MoE架构总参数约 1T支持 256K 上下文窗口并支持工具调用。"
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 是由月之暗面 AI 开发的大规模混合专家 (MoE) 语言模型,具有 1 万亿总参数和每次前向传递 320 亿激活参数。它针对代理能力进行了优化,包括高级工具使用、推理和代码合成。"
},
@ -2721,7 +2733,7 @@
"description": "o1是OpenAI新的推理模型支持图文输入并输出文本适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。"
},
"o1-mini": {
"description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
"description": "比 o1-preview 更小、更快成本低80%,在代码生成和小上下文操作方面表现良好。"
},
"o1-preview": {
"description": "专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。"
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32BQwen 系列在多语言与编码任务上表现优良,适合中等规模生产化使用。"
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B面向代码生成与复杂编程任务的长上下文模型。"
},
"qwen-coder-plus": {
"description": "通义千问代码模型。"
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
},
"spark-x": {
"description": "X1.5能力介绍1新增动态调整思考模式通过thinking 字段控制2上下文长度增大输入、输出各64K3支持FunctionCall功能。"
},
"stable-diffusion-3-medium": {
"description": "由 Stability AI 推出的最新文生图大模型。这一版本在继承了前代的优点上,对图像质量、文本理解和风格多样性等方面进行了显著改进,能够更准确地解读复杂的自然语言提示,并生成更为精确和多样化的图像。"
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 是 xAI 的快速代码模型,输出具可读性与工程化适配。"
},
"x1": {
"description": "Spark X1 模型将进一步升级,在原来数学任务国内领先基础上,推理、文本生成、语言理解等通用任务实现效果对标 OpenAI o1 和 DeepSeek R1。"
},
"xai/grok-2": {
"description": "Grok 2 是一个具有最先进推理能力的前沿语言模型。它在聊天、编码和推理方面具有先进能力,在 LMSYS 排行榜上优于 Claude 3.5 Sonnet 和 GPT-4-Turbo。"
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 是 Z.AI 的旗舰模型,扩展了上下文长度和编码能力。"
},
"zai-glm-4.6": {
"description": "在编程与推理任务上表现优良,支持流式与工具调用,适合 agentic 编码与复杂推理场景。"
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 是一款专为智能体应用打造的基础模型使用了混合专家Mixture-of-Experts架构。在工具调用、网页浏览、软件工程、前端编程领域进行了深度优化支持无缝接入 Claude Code、Roo Code 等代码智能体中使用。GLM-4.5 采用混合推理模式,可以适应复杂推理和日常使用等多种应用场景。"
},

View file

@ -54,6 +54,7 @@
},
"betterAuth": {
"errors": {
"emailExists": "該電子郵件已註冊,請直接登入",
"emailInvalid": "請輸入有效的電子郵件地址",
"emailNotRegistered": "該電子郵件尚未註冊",
"emailNotVerified": "電子郵件尚未驗證,請先完成驗證",
@ -65,6 +66,7 @@
"passwordMaxLength": "密碼長度不得超過 64 個字元",
"passwordMinLength": "密碼長度至少需為 8 個字元",
"passwordRequired": "請輸入密碼",
"usernameNotRegistered": "該使用者名稱尚未註冊",
"usernameRequired": "請輸入使用者名稱"
},
"resetPassword": {
@ -101,7 +103,6 @@
"continueWithZitadel": "使用 Zitadel 登入",
"emailPlaceholder": "請輸入電子郵件地址",
"emailStep": {
"subtitle": "請輸入您的電子郵件地址以繼續",
"title": "登入"
},
"error": "登入失敗,請檢查電子郵件與密碼",
@ -194,6 +195,7 @@
"resetPasswordError": "發送密碼重設連結失敗",
"resetPasswordSent": "密碼重設連結已發送,請查收電子郵件",
"save": "儲存",
"setPassword": "設定密碼",
"sso": {
"link": {
"button": "連接帳號",
@ -210,7 +212,14 @@
"title": "個人資料詳情",
"updateAvatar": "更新頭像",
"updateFullName": "更新全名",
"username": "用戶名"
"updateUsername": "更新使用者名稱",
"username": "用戶名",
"usernameDuplicate": "使用者名稱已被使用",
"usernameInputHint": "請輸入新的使用者名稱",
"usernamePlaceholder": "請輸入由字母、數字或底線組成的使用者名稱",
"usernameRequired": "使用者名稱不能為空",
"usernameRule": "使用者名稱僅支援字母、數字或底線",
"usernameUpdateFailed": "更新使用者名稱失敗,請稍後再試"
},
"signout": "登出",
"signup": "註冊",

View file

@ -221,6 +221,9 @@
"MiniMax-M2": {
"description": "專為高效編碼與 Agent 工作流程而生"
},
"MiniMax-M2-Stable": {
"description": "專為高效編碼與 Agent 工作流程而設計,具備更高併發能力,適用於商業用途。"
},
"MiniMax-Text-01": {
"description": "在 MiniMax-01系列模型中我們做了大膽創新首次大規模實現線性注意力機制傳統 Transformer架構不再是唯一的選擇。這個模型的參數量高達4560億其中單次激活459億。模型綜合性能比肩海外頂尖模型同時能夠高效處理全球最長400萬token的上下文是GPT-4o的32倍Claude-3.5-Sonnet的20倍。"
},
@ -299,6 +302,9 @@
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最強大的版本。它是一款頂尖的混合專家MoE語言模型擁有 1 兆的總參數和 320 億的激活參數。該模型的主要特性包括:增強的智能體編碼智能,在公開基準測試和真實世界的編碼智能體任務中表現出顯著的性能提升;改進的前端編碼體驗,在前端程式設計的美觀性和實用性方面均有進步。"
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo 是 Kimi K2 系列的加速版本,針對推理速度與吞吐量進行優化,同時保留 K2 Thinking 的多步推理與工具調用能力。該模型採用混合專家MoE架構總參數約為 1 兆,原生支援 256K 上下文,並可穩定執行大規模工具調用,適用於對延遲與併發有更高要求的生產場景。"
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview 是一款獨具創新的自然語言處理模型,能夠高效處理複雜的對話生成與上下文理解任務。"
},
@ -1052,6 +1058,9 @@
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。"
},
"deepseek-ocr": {
"description": "DeepSeek-OCR 是由深度求索DeepSeek AI推出的視覺語言模型專注於光學字元辨識OCR與「上下文光學壓縮」。該模型旨在探索從影像中壓縮上下文資訊的極限能高效處理文件並轉換為如 Markdown 等結構化文字格式。它能準確辨識影像中的文字內容,特別適用於文件數位化、文字擷取與結構化處理等應用場景。"
},
"deepseek-r1": {
"description": "DeepSeek-R1 是一款強化學習RL驅動的推理模型解決了模型中的重複性和可讀性問題。在 RL 之前DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
},
@ -1268,6 +1277,9 @@
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision 視覺深度思考模型,在教育、圖像審核、巡檢與安防和 AI 搜尋問答等場景下展現出更強的通用多模態理解和推理能力。支援 256k 上下文視窗,輸出長度支援最大 64k tokens。"
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code 對 Agentic 程式設計任務進行深度優化,支援多模態(文字/圖片/影片)與 256K 長上下文,兼容 Anthropic API適用於程式設計、視覺理解與 Agent 應用場景。"
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Doubao 圖片生成模型由字節跳動 Seed 團隊研發支援文字與圖片輸入提供高可控、高品質的圖片生成體驗。支援透過文字指令編輯圖像生成圖像的邊長在5121536之間。"
},
@ -1328,6 +1340,9 @@
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B多模態開源模型支援圖文理解與推理任務。"
},
"ernie-5.0-thinking-latest": {
"description": "文心 5.0 Thinking原生全模態旗艦模型支援文字、圖像、音訊、影片的統一建模整體能力全面升級適用於複雜問答、創作與智慧體應用場景。"
},
"ernie-5.0-thinking-preview": {
"description": "文心 5.0 Thinking 預覽版,原生全模態旗艦模型,支援文字、圖像、音訊、影片統一建模,整體能力全面升級,適用於複雜問答、創作與智能體場景。"
},
@ -2198,9 +2213,6 @@
"kimi-latest": {
"description": "Kimi 智能助手產品使用最新的 Kimi 大模型,可能包含尚未穩定的特性。支持圖片理解,同時會自動根據請求的上下文長度選擇 8k/32k/128k 模型作為計費模型"
},
"kimi-thinking-preview": {
"description": "kimi-thinking-preview 模型是月之暗面提供的具有多模態推理能力和通用推理能力的多模態思考模型,它擅長深度推理,幫助解決更多更難的事情"
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1限時免費專注於程式碼理解與自動化編程適用於高效的程式代理任務。"
},
@ -2246,9 +2258,6 @@
"llama-3.3-instruct": {
"description": "Llama 3.3 指令微調模型針對對話場景進行了優化,在常見的行業基準測試中,超越了許多現有的開源聊天模型。"
},
"llama-4-scout-17b-16e-instruct": {
"description": "Llama 4 Scout高效能的 Llama 系列模型,適用於需高吞吐量與低延遲的場景。"
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B 提供無與倫比的複雜性處理能力,為高要求項目量身定制。"
},
@ -2681,6 +2690,9 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最強大的版本。它是一款頂尖的混合專家MoE語言模型擁有 1 兆的總參數和 320 億的激活參數。該模型的主要特性包括:增強的智能體編碼智能,在公開基準測試和真實世界的編碼智能體任務中表現出顯著的性能提升;改進的前端編碼體驗,在前端程式設計的美觀性和實用性方面均有進步。"
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking 是最新且最強大的開源思考模型。它大幅提升多步推理的深度,並能在 200300 次連續工具調用中保持穩定表現,在 Humanity's Last ExamHLE、BrowseComp 及其他基準測試中樹立新標竿。同時K2 Thinking 在程式設計、數學、邏輯推理與 Agent 應用場景中表現卓越。該模型採用混合專家MoE架構總參數約為 1 兆,支援 256K 上下文視窗與工具調用。"
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 是由月之暗面 AI 開發的大規模混合專家 (MoE) 語言模型,具有 1 兆總參數和每次前向傳遞 320 億激活參數。它針對代理能力進行了優化,包括高級工具使用、推理和程式碼合成。"
},
@ -2721,7 +2733,7 @@
"description": "專注於高級推理和解決複雜問題,包括數學和科學任務。非常適合需要深入上下文理解和代理工作流程的應用程序。"
},
"o1-mini": {
"description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。"
"description": "比 o1-preview 更小、更快,成本降低 80%,在程式碼生成與小型上下文操作方面表現優異。"
},
"o1-preview": {
"description": "專注於高階推理與解決複雜問題(包括數學與科學任務)。非常適合需要深入上下文理解並能自主執行工作流程的應用。"
@ -2960,9 +2972,6 @@
"qwen-3-32b": {
"description": "Qwen 3 32BQwen 系列在多語言與編碼任務上表現優異,適合中等規模的生產化應用。"
},
"qwen-3-coder-480b": {
"description": "Qwen 3 Coder 480B面向程式碼生成與複雜編程任務的長上下文模型。"
},
"qwen-coder-plus": {
"description": "通義千問程式碼模型。"
},
@ -3323,6 +3332,9 @@
"sonar-reasoning-pro": {
"description": "由 DeepSeek 推理模型提供支援的新 API 產品。"
},
"spark-x": {
"description": "X1.5 能力介紹1新增可動態調整的思考模式可透過 thinking 欄位控制2上下文長度提升輸入與輸出各為 64K3支援 FunctionCall 功能。"
},
"stable-diffusion-3-medium": {
"description": "由 Stability AI 推出的最新文生圖大模型。這一版本在繼承了前代的優點上,對圖像品質、文本理解和風格多樣性等方面進行了顯著改進,能夠更準確地解讀複雜的自然語言提示,並生成更為精確和多樣化的圖像。"
},
@ -3524,9 +3536,6 @@
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 是 xAI 的快速程式碼模型,輸出具可讀性與工程適配性。"
},
"x1": {
"description": "Spark X1 模型將進一步升級,在原來數學任務國內領先的基礎上,推理、文本生成、語言理解等通用任務實現效果對標 OpenAI o1 和 DeepSeek R1。"
},
"xai/grok-2": {
"description": "Grok 2 是一個具有最先進推理能力的前沿語言模型。它在聊天、編碼和推理方面具有先進能力,在 LMSYS 排行榜上優於 Claude 3.5 Sonnet 和 GPT-4-Turbo。"
},
@ -3593,6 +3602,9 @@
"z-ai/glm-4.6": {
"description": "GLM 4.6 是 Z.AI 的旗艦模型,擴展上下文長度與編碼能力。"
},
"zai-glm-4.6": {
"description": "在程式設計與推理任務中表現優異,支援串流與工具調用,適合用於 Agentic 編碼與複雜推理場景。"
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 是一款專為智能體應用打造的基礎模型使用了混合專家Mixture-of-Experts架構。在工具調用、網頁瀏覽、軟體工程、前端程式設計領域進行了深度優化支持無縫接入 Claude Code、Roo Code 等程式碼智能體中使用。GLM-4.5 採用混合推理模式,可以適應複雜推理和日常使用等多種應用場景。"
},

View file

@ -268,7 +268,7 @@ const nextConfig: NextConfig = {
// when external packages in dev mode with turbopack, this config will lead to bundle error
serverExternalPackages: isProd ? ['@electric-sql/pglite', 'pdfkit'] : ['pdfkit'],
transpilePackages: ['pdfjs-dist', 'mermaid'],
transpilePackages: ['pdfjs-dist', 'mermaid', 'better-auth-harmony'],
turbopack: {},
typescript: {

View file

@ -202,6 +202,7 @@
"antd-style": "^3.7.1",
"async-retry": "^1.3.3",
"better-auth": "^1.4.3",
"better-auth-harmony": "^1.2.5",
"brotli-wasm": "^3.0.1",
"chroma-js": "^3.2.0",
"cmdk": "^1.1.1",

View file

@ -0,0 +1,4 @@
ALTER TABLE "users" ADD COLUMN IF NOT EXISTS "normalized_email" text;--> statement-breakpoint
CREATE INDEX IF NOT EXISTS "users_email_idx" ON "users" USING btree ("email");--> statement-breakpoint
CREATE INDEX IF NOT EXISTS "users_username_idx" ON "users" USING btree ("username");--> statement-breakpoint
CREATE UNIQUE INDEX IF NOT EXISTS "users_normalized_email_unique_idx" ON "users" USING btree ("normalized_email");--> statement-breakpoint

File diff suppressed because it is too large Load diff

View file

@ -413,6 +413,13 @@
"when": 1764842015809,
"tag": "0058_add_source_into_user_plugins",
"breakpoints": true
},
{
"idx": 59,
"version": "7",
"when": 1764858574403,
"tag": "0059_add_normalized_email_indexes",
"breakpoints": true
}
],
"version": "6"

View file

@ -926,5 +926,17 @@
"bps": true,
"folderMillis": 1764842015809,
"hash": "276514dc101fffc66794156f4ba644599a4ae5997a68b9e7f54452ee374bfa61"
},
{
"sql": [
"ALTER TABLE \"users\" ADD COLUMN IF NOT EXISTS \"normalized_email\" text;",
"\nCREATE INDEX IF NOT EXISTS \"users_email_idx\" ON \"users\" USING btree (\"email\");",
"\nCREATE INDEX IF NOT EXISTS \"users_username_idx\" ON \"users\" USING btree (\"username\");",
"\nCREATE UNIQUE INDEX IF NOT EXISTS \"users_normalized_email_unique_idx\" ON \"users\" USING btree (\"normalized_email\");",
"\n"
],
"bps": true,
"folderMillis": 1764858574403,
"hash": "7838f9938b370867470e5e11807855253d23b11c2ac6aa9e90687844a356c949"
}
]

View file

@ -199,7 +199,7 @@ export class UserModel {
* Normalize unique user fields so empty strings become null, keeping unique constraints safe.
*/
private static normalizeUniqueUserFields = <
T extends { email?: string | null; phone?: string | null },
T extends { email?: string | null; phone?: string | null; username?: string | null },
>(
value: T,
) => {
@ -207,11 +207,16 @@ export class UserModel {
typeof value.email === 'string' && value.email.trim() === '' ? null : value.email;
const normalizedPhone =
typeof value.phone === 'string' && value.phone.trim() === '' ? null : value.phone;
const normalizedUsername =
typeof value.username === 'string' && value.username.trim() === ''
? null
: value.username?.trim();
return {
...value,
...(value.email !== undefined ? { email: normalizedEmail } : {}),
...(value.phone !== undefined ? { phone: normalizedPhone } : {}),
...(value.username !== undefined ? { username: normalizedUsername } : {}),
};
};
@ -241,6 +246,13 @@ export class UserModel {
return db.query.users.findFirst({ where: eq(users.id, id) });
};
static findByUsername = async (db: LobeChatDatabase, username: string) => {
const normalizedUsername = username.trim();
if (!normalizedUsername) return null;
return db.query.users.findFirst({ where: eq(users.username, normalizedUsername) });
};
static findByEmail = async (db: LobeChatDatabase, email: string) => {
return db.query.users.findFirst({ where: eq(users.email, email) });
};

View file

@ -2,46 +2,54 @@
import { DEFAULT_PREFERENCE } from '@lobechat/const';
import type { CustomPluginParams } from '@lobechat/types';
import { LobeChatPluginManifest } from '@lobehub/chat-plugin-sdk';
import { boolean, jsonb, pgTable, primaryKey, text } from 'drizzle-orm/pg-core';
import { boolean, index, jsonb, pgTable, primaryKey, text } from 'drizzle-orm/pg-core';
import { timestamps, timestamptz, varchar255 } from './_helpers';
export const users = pgTable('users', {
id: text('id').primaryKey().notNull(),
username: text('username').unique(),
email: text('email').unique(),
export const users = pgTable(
'users',
{
id: text('id').primaryKey().notNull(),
username: text('username').unique(),
email: text('email').unique(),
normalizedEmail: text('normalized_email').unique(),
avatar: text('avatar'),
phone: text('phone').unique(),
firstName: text('first_name'),
lastName: text('last_name'),
fullName: text('full_name'),
avatar: text('avatar'),
phone: text('phone').unique(),
firstName: text('first_name'),
lastName: text('last_name'),
fullName: text('full_name'),
isOnboarded: boolean('is_onboarded').default(false),
// Time user was created in Clerk
clerkCreatedAt: timestamptz('clerk_created_at'),
isOnboarded: boolean('is_onboarded').default(false),
// Time user was created in Clerk
clerkCreatedAt: timestamptz('clerk_created_at'),
// Required by better-auth
emailVerified: boolean('email_verified').default(false).notNull(),
// Required by nextauth, all null allowed
emailVerifiedAt: timestamptz('email_verified_at'),
// Required by better-auth
emailVerified: boolean('email_verified').default(false).notNull(),
// Required by nextauth, all null allowed
emailVerifiedAt: timestamptz('email_verified_at'),
preference: jsonb('preference').$defaultFn(() => DEFAULT_PREFERENCE),
preference: jsonb('preference').$defaultFn(() => DEFAULT_PREFERENCE),
// better-auth admin
role: text('role'),
banned: boolean('banned').default(false),
banReason: text('ban_reason'),
banExpires: timestamptz('ban_expires'),
// better-auth admin
role: text('role'),
banned: boolean('banned').default(false),
banReason: text('ban_reason'),
banExpires: timestamptz('ban_expires'),
// better-auth two-factor
twoFactorEnabled: boolean('two_factor_enabled').default(false),
// better-auth two-factor
twoFactorEnabled: boolean('two_factor_enabled').default(false),
// better-auth phone number
phoneNumberVerified: boolean('phone_number_verified'),
// better-auth phone number
phoneNumberVerified: boolean('phone_number_verified'),
...timestamps,
});
...timestamps,
},
(table) => ({
emailIdx: index('users_email_idx').on(table.email),
usernameIdx: index('users_username_idx').on(table.username),
}),
);
export type NewUser = typeof users.$inferInsert;
export type UserItem = typeof users.$inferSelect;

View file

@ -0,0 +1,52 @@
import { eq } from 'drizzle-orm';
import { NextRequest, NextResponse } from 'next/server';
import { users } from '@/database/schemas/user';
import { serverDB } from '@/database/server';
export interface ResolveUsernameResponseData {
email?: string | null;
exists: boolean;
}
/**
* Resolve a username to the associated email address.
* @param req - POST request with { username: string }
* @returns { exists: boolean, email?: string | null }
*/
export async function POST(req: NextRequest) {
try {
const body = await req.json();
const { username } = body;
if (!username || typeof username !== 'string') {
return NextResponse.json({ error: 'Username is required', exists: false }, { status: 400 });
}
const normalizedUsername = username.trim();
if (!normalizedUsername) {
return NextResponse.json({ error: 'Username is required', exists: false }, { status: 400 });
}
const [user] = await serverDB
.select({ email: users.email })
.from(users)
.where(eq(users.username, normalizedUsername))
.limit(1);
if (!user || !user.email) {
return NextResponse.json({ exists: false } satisfies ResolveUsernameResponseData);
}
return NextResponse.json({
email: user.email,
exists: true,
} satisfies ResolveUsernameResponseData);
} catch (error) {
console.error('Error resolving username to email:', error);
return NextResponse.json({ error: 'Internal server error', exists: false }, { status: 500 });
}
}
export const runtime = 'nodejs';

View file

@ -11,6 +11,7 @@ import { useTranslation } from 'react-i18next';
import { Flexbox } from 'react-layout-kit';
import type { CheckUserResponseData } from '@/app/(backend)/api/auth/check-user/route';
import type { ResolveUsernameResponseData } from '@/app/(backend)/api/auth/resolve-username/route';
import { message } from '@/components/AntdStaticMethods';
import AuthIcons from '@/components/NextAuth/AuthIcons';
import { getAuthConfig } from '@/envs/auth';
@ -18,7 +19,7 @@ import { requestPasswordReset, signIn } from '@/libs/better-auth/auth-client';
import { isBuiltinProvider, normalizeProviderId } from '@/libs/better-auth/utils/client';
import { useServerConfigStore } from '@/store/serverConfig';
const useStyles = createStyles(({ css, token }) => ({
const useStyles = createStyles(({ css, token, responsive }) => ({
backButton: css`
cursor: pointer;
font-size: 14px;
@ -29,10 +30,13 @@ const useStyles = createStyles(({ css, token }) => ({
}
`,
card: css`
display: flex;
flex-direction: column;
padding-block: 2.5rem;
padding-inline: 2rem;
`,
container: css`
overflow: hidden;
width: 360px;
border: 1px solid ${token.colorBorder};
border-radius: ${token.borderRadiusLG}px;
@ -42,6 +46,11 @@ const useStyles = createStyles(({ css, token }) => ({
height: 1px;
background: ${token.colorBorder};
`,
dividerRow: css`
${responsive.mobile} {
order: -1;
}
`,
dividerText: css`
font-size: 14px;
color: ${token.colorTextSecondary};
@ -51,6 +60,13 @@ const useStyles = createStyles(({ css, token }) => ({
color: ${token.colorTextSecondary};
text-align: center;
`,
emailForm: css`
margin-block-start: 0.5rem;
${responsive.mobile} {
margin-block: 0;
}
`,
footer: css`
padding: 1rem;
border-block-start: 1px solid ${token.colorBorder};
@ -61,6 +77,12 @@ const useStyles = createStyles(({ css, token }) => ({
background: ${token.colorBgElevated};
`,
socialSection: css`
${responsive.mobile} {
order: 1;
margin-block-start: 1rem;
}
`,
subtitle: css`
margin-block-start: 0.5rem;
font-size: 14px;
@ -77,13 +99,22 @@ const useStyles = createStyles(({ css, token }) => ({
`,
}));
const EMAIL_REGEX = /^[^\s@]+@[^\s@]+\.[^\s@]+$/;
const USERNAME_REGEX = /^\w+$/;
type Step = 'email' | 'password';
type IdentifierType = 'email' | 'username';
interface SignInFormValues {
email: string;
password: string;
}
interface ResolvedEmailResult {
email: string;
identifierType: IdentifierType;
}
export default function SignInPage() {
const { styles } = useStyles();
const theme = useTheme();
@ -154,12 +185,56 @@ export default function SignInPage() {
}
};
const resolveEmailFromIdentifier = async (
identifier: string,
): Promise<ResolvedEmailResult | null> => {
const trimmedIdentifier = identifier.trim();
if (!trimmedIdentifier) return null;
const isEmailIdentifier = EMAIL_REGEX.test(trimmedIdentifier);
if (isEmailIdentifier) {
return { email: trimmedIdentifier.toLowerCase(), identifierType: 'email' };
}
if (!USERNAME_REGEX.test(trimmedIdentifier)) {
message.error(t('betterAuth.errors.emailInvalid'));
return null;
}
try {
const response = await fetch('/api/auth/resolve-username', {
body: JSON.stringify({ username: trimmedIdentifier }),
headers: { 'Content-Type': 'application/json' },
method: 'POST',
});
const data: ResolveUsernameResponseData = await response.json();
if (!response.ok || !data.exists || !data.email) {
message.error(t('betterAuth.errors.usernameNotRegistered'));
return null;
}
return { email: data.email, identifierType: 'username' };
} catch (error) {
console.error('Error resolving username:', error);
message.error(t('betterAuth.signin.error'));
return null;
}
};
// Check if user exists
const handleCheckUser = async (values: Pick<SignInFormValues, 'email'>) => {
setLoading(true);
try {
const resolvedEmail = await resolveEmailFromIdentifier(values.email);
if (!resolvedEmail) return;
const { email: targetEmail, identifierType } = resolvedEmail;
const response = await fetch('/api/auth/check-user', {
body: JSON.stringify({ email: values.email }),
body: JSON.stringify({ email: targetEmail }),
headers: { 'Content-Type': 'application/json' },
method: 'POST',
});
@ -167,14 +242,18 @@ export default function SignInPage() {
const data: CheckUserResponseData = await response.json();
if (!data.exists) {
// User not found, redirect to signup page with email pre-filled
if (identifierType === 'username') {
message.error(t('betterAuth.errors.usernameNotRegistered'));
return;
}
const callbackUrl = searchParams.get('callbackUrl') || '/';
router.push(
`/signup?email=${encodeURIComponent(values.email)}&callbackUrl=${encodeURIComponent(callbackUrl)}`,
`/signup?email=${encodeURIComponent(targetEmail)}&callbackUrl=${encodeURIComponent(callbackUrl)}`,
);
return;
}
setEmail(values.email);
setEmail(targetEmail);
if (data.hasPassword) {
setStep('password');
@ -182,7 +261,7 @@ export default function SignInPage() {
}
if (enableMagicLink) {
await handleSendMagicLink(values.email);
await handleSendMagicLink(targetEmail);
return;
}
@ -302,13 +381,11 @@ export default function SignInPage() {
{step === 'email' && (
<>
<p className={styles.subtitle}>{t('betterAuth.signin.emailStep.subtitle')}</p>
{/* Social Login Section Skeleton */}
{!serverConfigInit && (
<Flexbox gap={12} style={{ marginTop: '2rem' }}>
<Flexbox className={styles.socialSection} gap={12}>
<Skeleton.Button active block size="large" />
<Flexbox align="center" gap={12} horizontal>
<Flexbox align="center" className={styles.dividerRow} gap={12} horizontal>
<div className={styles.divider} />
<Skeleton.Input active size="small" style={{ minWidth: 80, width: 80 }} />
<div className={styles.divider} />
@ -318,7 +395,7 @@ export default function SignInPage() {
{/* Social Login Section */}
{serverConfigInit && oAuthSSOProviders.length > 0 && (
<Flexbox gap={12} style={{ marginTop: '2rem' }}>
<Flexbox className={styles.socialSection} gap={12}>
{oAuthSSOProviders.map((provider) => (
<Button
block
@ -333,7 +410,7 @@ export default function SignInPage() {
))}
{/* Divider */}
<Flexbox align="center" gap={12} horizontal>
<Flexbox align="center" className={styles.dividerRow} gap={12} horizontal>
<div className={styles.divider} />
<span className={styles.dividerText}>
{t('betterAuth.signin.orContinueWith')}
@ -344,16 +421,27 @@ export default function SignInPage() {
)}
<Form
className={styles.emailForm}
form={form}
layout="vertical"
onFinish={handleCheckUser}
style={{ marginTop: '0.5rem' }}
>
<Form.Item
name="email"
rules={[
{ message: t('betterAuth.errors.emailRequired'), required: true },
{ message: t('betterAuth.errors.emailInvalid'), type: 'email' },
{
validator: (_, value) => {
if (!value) return Promise.resolve();
const trimmedValue = (value as string).trim();
if (EMAIL_REGEX.test(trimmedValue) || USERNAME_REGEX.test(trimmedValue)) {
return Promise.resolve();
}
return Promise.reject(new Error(t('betterAuth.errors.emailInvalid')));
},
},
]}
style={{ marginBottom: 0 }}
>

View file

@ -88,6 +88,21 @@ export default function BetterAuthSignUpForm() {
});
if (error) {
const isEmailDuplicate =
error.code === 'FAILED_TO_CREATE_USER' &&
// Postgres unique constraint violation
(error as any)?.details?.cause?.code === '23505';
if (isEmailDuplicate) {
message.error(t('betterAuth.errors.emailExists'));
return;
}
if (error.code === 'INVALID_EMAIL') {
message.error(t('betterAuth.errors.emailInvalid'));
return;
}
message.error(error.message || t('betterAuth.signup.error'));
return;
}

View file

@ -3,7 +3,15 @@
import { LoadingOutlined } from '@ant-design/icons';
import { Button, Divider, Input, Skeleton, Spin, Typography, Upload } from 'antd';
import { AnimatePresence, motion } from 'framer-motion';
import { CSSProperties, ReactNode, memo, useCallback, useEffect, useState } from 'react';
import {
CSSProperties,
ChangeEvent,
ReactNode,
memo,
useCallback,
useEffect,
useState,
} from 'react';
import { useTranslation } from 'react-i18next';
import { Flexbox } from 'react-layout-kit';
@ -201,9 +209,145 @@ const FullNameRow = memo(() => {
);
});
const UsernameRow = memo(() => {
const { t } = useTranslation('auth');
const username = useUserStore(userProfileSelectors.username);
const updateUsername = useUserStore((s) => s.updateUsername);
const [isEditing, setIsEditing] = useState(false);
const [editValue, setEditValue] = useState('');
const [saving, setSaving] = useState(false);
const [error, setError] = useState('');
const usernameRegex = /^\w+$/;
const handleStartEdit = () => {
setEditValue(username || '');
setError('');
setIsEditing(true);
};
const handleCancel = () => {
setIsEditing(false);
setEditValue('');
setError('');
};
const validateUsername = (value: string): string => {
const trimmed = value.trim();
if (!trimmed) return t('profile.usernameRequired');
if (!usernameRegex.test(trimmed)) return t('profile.usernameRule');
return '';
};
const handleSave = useCallback(async () => {
const validationError = validateUsername(editValue);
if (validationError) {
setError(validationError);
return;
}
try {
setSaving(true);
setError('');
await updateUsername(editValue.trim());
setIsEditing(false);
} catch (err: any) {
console.error('Failed to update username:', err);
// Handle duplicate username error
if (err?.data?.code === 'CONFLICT' || err?.message === 'USERNAME_TAKEN') {
setError(t('profile.usernameDuplicate'));
} else {
setError(t('profile.usernameUpdateFailed'));
}
} finally {
setSaving(false);
}
}, [editValue, updateUsername, t]);
const handleInputChange = (e: ChangeEvent<HTMLInputElement>) => {
const value = e.target.value;
setEditValue(value);
if (!value.trim()) {
setError('');
return;
}
if (!usernameRegex.test(value)) {
setError(t('profile.usernameRule'));
return;
}
setError('');
};
return (
<Flexbox gap={24} horizontal style={rowStyle}>
<Typography.Text style={labelStyle}>{t('profile.username')}</Typography.Text>
<Flexbox style={{ flex: 1 }}>
<AnimatePresence mode="wait">
{isEditing ? (
<motion.div
animate={{ opacity: 1, y: 0 }}
exit={{ opacity: 0, y: -10 }}
initial={{ opacity: 0, y: -10 }}
key="editing"
transition={{ duration: 0.2 }}
>
<Flexbox gap={12}>
<Typography.Text strong>{t('profile.usernameInputHint')}</Typography.Text>
<Input
autoFocus
onChange={handleInputChange}
onPressEnter={handleSave}
placeholder={t('profile.usernamePlaceholder')}
status={error ? 'error' : undefined}
value={editValue}
/>
{error && (
<Typography.Text style={{ fontSize: 12 }} type="danger">
{error}
</Typography.Text>
)}
<Flexbox gap={8} horizontal justify="flex-end">
<Button disabled={saving} onClick={handleCancel} size="small">
{t('profile.cancel')}
</Button>
<Button loading={saving} onClick={handleSave} size="small" type="primary">
{t('profile.save')}
</Button>
</Flexbox>
</Flexbox>
</motion.div>
) : (
<motion.div
animate={{ opacity: 1 }}
exit={{ opacity: 0 }}
initial={{ opacity: 0 }}
key="display"
transition={{ duration: 0.2 }}
>
<Flexbox align="center" horizontal justify="space-between">
<Typography.Text>{username || '--'}</Typography.Text>
<Typography.Text
onClick={handleStartEdit}
style={{ cursor: 'pointer', fontSize: 13 }}
>
{t('profile.updateUsername')}
</Typography.Text>
</Flexbox>
</motion.div>
)}
</AnimatePresence>
</Flexbox>
</Flexbox>
);
});
const PasswordRow = memo(() => {
const { t } = useTranslation('auth');
const userProfile = useUserStore(userProfileSelectors.userProfile);
const hasPasswordAccount = useUserStore(authSelectors.hasPasswordAccount);
const [sending, setSending] = useState(false);
const handleChangePassword = useCallback(async () => {
@ -239,12 +383,12 @@ const PasswordRow = memo(() => {
opacity: sending ? 0.5 : 1,
}}
>
{t('profile.changePassword')}
{hasPasswordAccount ? t('profile.changePassword') : t('profile.setPassword')}
</Typography.Text>
}
label={t('profile.password')}
>
<Typography.Text></Typography.Text>
<Typography.Text>{hasPasswordAccount ? '••••••' : '--'}</Typography.Text>
</ProfileRow>
);
});
@ -254,12 +398,10 @@ const Client = memo<{ mobile?: boolean }>(({ mobile }) => {
authSelectors.isLoginWithNextAuth(s),
authSelectors.isLoginWithBetterAuth(s),
]);
const [username, userProfile, isUserLoaded] = useUserStore((s) => [
userProfileSelectors.username(s),
const [userProfile, isUserLoaded] = useUserStore((s) => [
userProfileSelectors.userProfile(s),
s.isLoaded,
]);
const isEmailPasswordAuth = useUserStore(authSelectors.isEmailPasswordAuth);
const isLoadedAuthProviders = useUserStore(authSelectors.isLoadedAuthProviders);
const fetchAuthProviders = useUserStore((s) => s.fetchAuthProviders);
@ -302,15 +444,13 @@ const Client = memo<{ mobile?: boolean }>(({ mobile }) => {
<Divider style={{ margin: 0 }} />
{/* Username Row - Read Only */}
<ProfileRow label={t('profile.username')}>
<Typography.Text>{username || '--'}</Typography.Text>
</ProfileRow>
{/* Username Row - Editable */}
<UsernameRow />
<Divider style={{ margin: 0 }} />
{/* Password Row - Only for Better Auth users with credential login */}
{isLoginWithBetterAuth && isEmailPasswordAuth && (
{/* Password Row - For Better Auth users to change or set password */}
{isLoginWithBetterAuth && (
<>
<PasswordRow />
<Divider style={{ margin: 0 }} />

View file

@ -12,23 +12,22 @@ import { userService } from '@/services/user';
import { useServerConfigStore } from '@/store/serverConfig';
import { serverConfigSelectors } from '@/store/serverConfig/selectors';
import { useUserStore } from '@/store/user';
import { authSelectors, userProfileSelectors } from '@/store/user/selectors';
import { authSelectors } from '@/store/user/selectors';
const providerNameStyle: CSSProperties = {
textTransform: 'capitalize',
};
export const SSOProvidersList = memo(() => {
const userProfile = useUserStore(userProfileSelectors.userProfile);
const isLoginWithBetterAuth = useUserStore(authSelectors.isLoginWithBetterAuth);
const providers = useUserStore(authSelectors.authProviders);
const isEmailPasswordAuth = useUserStore(authSelectors.isEmailPasswordAuth);
const hasPasswordAccount = useUserStore(authSelectors.hasPasswordAccount);
const refreshAuthProviders = useUserStore((s) => s.refreshAuthProviders);
const oAuthSSOProviders = useServerConfigStore(serverConfigSelectors.oAuthSSOProviders);
const { t } = useTranslation('auth');
// Allow unlink if user has multiple SSO providers OR has email/password login
const allowUnlink = providers.length > 1 || isEmailPasswordAuth;
const allowUnlink = providers.length > 1 || hasPasswordAccount;
// Get linked provider IDs for filtering
const linkedProviderIds = useMemo(() => {
@ -49,11 +48,7 @@ export const SSOProvidersList = memo(() => {
return;
}
modal.confirm({
content: t('profile.sso.unlink.description', {
email: userProfile?.email || 'None',
provider,
providerAccountId,
}),
content: t('profile.sso.unlink.description', { provider }),
okButtonProps: {
danger: true,
},

View file

@ -150,6 +150,12 @@ const DiscoverLayout = dynamic(() => import('./(main)/discover/_layout/Desktop/i
ssr: false,
});
// NotFound component
const NotFoundPage = dynamic(() => import('@/components/404'), {
loading: () => <Loading />,
ssr: false,
});
// Knowledge components
const KnowledgeHome = dynamic(() => import('./(main)/knowledge/routes/KnowledgeHome'), {
loading: () => <Loading />,
@ -491,7 +497,7 @@ export const createDesktopRouter = (locale: Locales) =>
// Catch-all route
{
loader: () => redirect('/chat', { status: 302 }),
element: <NotFoundPage />,
path: '*',
},
],

View file

@ -150,6 +150,12 @@ const DiscoverLayout = dynamic(() => import('./(main)/discover/_layout/Mobile/in
ssr: false,
});
// NotFound component
const NotFoundPage = dynamic(() => import('@/components/404'), {
loading: () => <Loading />,
ssr: false,
});
// Knowledge components
const KnowledgeHome = dynamic(() => import('./(main)/knowledge/routes/KnowledgeHome'), {
loading: () => <Loading />,
@ -535,7 +541,7 @@ export const createMobileRouter = (locale: Locales) =>
// Catch-all route
{
loader: () => redirect('/chat', { status: 302 }),
element: <NotFoundPage />,
path: '*',
},
],

View file

@ -1,6 +1,7 @@
/* eslint-disable sort-keys-fix/sort-keys-fix, typescript-sort-keys/interface */
import { createNanoId, idGenerator, serverDB } from '@lobechat/database';
import { betterAuth } from 'better-auth';
import { emailHarmony } from 'better-auth-harmony';
import { drizzleAdapter } from 'better-auth/adapters/drizzle';
import { admin, genericOAuth, magicLink } from 'better-auth/plugins';
@ -176,6 +177,7 @@ export const auth = betterAuth({
},
},
plugins: [
emailHarmony({ allowNormalizedSignin: false }),
admin(),
...(genericOAuthProviders.length > 0
? [

View file

@ -54,10 +54,11 @@ export default {
},
betterAuth: {
errors: {
emailInvalid: '请输入有效的邮箱地址',
emailNotRegistered: '该邮箱尚未注册',
emailExists: '该邮箱已注册,请直接登录',
emailInvalid: '请输入有效的邮箱地址或用户名',
emailNotRegistered: '该邮箱或用户名尚未注册',
emailNotVerified: '邮箱尚未验证,请先验证邮箱',
emailRequired: '请输入邮箱地址',
emailRequired: '请输入邮箱或用户名',
firstNameRequired: '请输入名字',
lastNameRequired: '请输入姓氏',
loginFailed: '登录失败,请检查邮箱和密码',
@ -65,6 +66,7 @@ export default {
passwordMaxLength: '密码最多不超过 64 个字符',
passwordMinLength: '密码至少需要 8 个字符',
passwordRequired: '请输入密码',
usernameNotRegistered: '该用户名尚未注册',
usernameRequired: '请输入用户名',
},
resetPassword: {
@ -99,9 +101,8 @@ export default {
continueWithOkta: '使用 Okta 登录',
continueWithWechat: '使用微信登录',
continueWithZitadel: '使用 Zitadel 登录',
emailPlaceholder: '请输入邮箱地址',
emailPlaceholder: '请输入邮箱或用户名',
emailStep: {
subtitle: '请输入您的邮箱地址以继续',
title: '登录',
},
error: '登录失败,请检查邮箱和密码',
@ -194,6 +195,7 @@ export default {
resetPasswordError: '发送密码重置链接失败',
resetPasswordSent: '密码重置链接已发送,请检查邮箱',
save: '保存',
setPassword: '设置密码',
sso: {
link: {
button: '连接帐户',
@ -202,16 +204,22 @@ export default {
loading: '正在加载已绑定的第三方账户',
providers: '连接的帐户',
unlink: {
description:
'解绑后,您将无法使用 {{provider}} 账户"{{providerAccountId}}"登录。如果您需要重新绑定 {{provider}} 账户到当前账户,请确保 {{provider}} 账户的邮件地址为 {{email}} ,我们会在登陆时为你自动绑定到当前登录账户。',
forbidden: '您至少需要保留一个第三方账户绑定。',
title: '是否解绑该第三方账户 {{provider}} ',
description: '解绑后再次使用 {{provider}} 登录需要重新授权或绑定。',
forbidden: '您至少需要保留一个登录方式。',
title: '确认解绑 {{provider}} 账户?',
},
},
title: '个人资料详情',
updateAvatar: '更新头像',
updateFullName: '更新全名',
updateUsername: '更新用户名',
username: '用户名',
usernameDuplicate: '用户名已被占用',
usernameInputHint: '请输入新的用户名',
usernamePlaceholder: '请输入由字母、数字或下划线组成的用户名',
usernameRequired: '用户名不能为空',
usernameRule: '用户名仅支持字母、数字或下划线',
usernameUpdateFailed: '更新用户名失败,请稍后重试',
},
signout: '退出登录',
signup: '注册',

View file

@ -9,6 +9,7 @@ import {
UserSettings,
UserSettingsSchema,
} from '@lobechat/types';
import { TRPCError } from '@trpc/server';
import { v4 as uuidv4 } from 'uuid';
import { z } from 'zod';
@ -25,6 +26,12 @@ import { FileService } from '@/server/services/file';
import { NextAuthUserService } from '@/server/services/nextAuthUser';
import { UserService } from '@/server/services/user';
const usernameSchema = z
.string()
.trim()
.min(1, { message: 'USERNAME_REQUIRED' })
.regex(/^\w+$/, { message: 'USERNAME_INVALID' });
const userProcedure = authedProcedure.use(serverDatabase).use(async ({ ctx, next }) => {
return next({
ctx: {
@ -228,6 +235,17 @@ export const userRouter = router({
return ctx.userModel.updateSetting(nextValue);
}),
updateUsername: userProcedure.input(usernameSchema).mutation(async ({ ctx, input }) => {
const username = input.trim();
const existedUser = await UserModel.findByUsername(ctx.serverDB, username);
if (existedUser && existedUser.id !== ctx.userId) {
throw new TRPCError({ code: 'CONFLICT', message: 'USERNAME_TAKEN' });
}
return ctx.userModel.updateUser({ username });
}),
});
export type UserRouter = typeof userRouter;

View file

@ -37,6 +37,10 @@ export class UserService {
return lambdaClient.user.updateFullName.mutate(fullName);
};
updateUsername = async (username: string) => {
return lambdaClient.user.updateUsername.mutate(username);
};
updatePreference = async (preference: Partial<UserPreference>) => {
return lambdaClient.user.updatePreference.mutate(preference);
};

View file

@ -66,7 +66,7 @@ afterEach(() => {
useUserStore.setState({
isLoadedAuthProviders: false,
authProviders: [],
isEmailPasswordAuth: false,
hasPasswordAccount: false,
});
});
@ -312,7 +312,7 @@ describe('createAuthSlice', () => {
expect(mockBetterAuthClient.listAccounts).toHaveBeenCalled();
expect(result.current.isLoadedAuthProviders).toBe(true);
expect(result.current.isEmailPasswordAuth).toBe(true);
expect(result.current.hasPasswordAccount).toBe(true);
});
it('should handle fetch error gracefully', async () => {

View file

@ -7,7 +7,7 @@ import { userService } from '@/services/user';
import type { UserStore } from '../../store';
interface AuthProvidersData {
isEmailPasswordAuth: boolean;
hasPasswordAccount: boolean;
providers: SSOProvider[];
}
@ -36,7 +36,7 @@ const fetchAuthProvidersData = async (): Promise<AuthProvidersData> => {
const { accountInfo, listAccounts } = await import('@/libs/better-auth/auth-client');
const result = await listAccounts();
const accounts = result.data || [];
const isEmailPasswordAuth = accounts.some((account) => account.providerId === 'credential');
const hasPasswordAccount = accounts.some((account) => account.providerId === 'credential');
const providers = await Promise.all(
accounts
.filter((account) => account.providerId !== 'credential')
@ -51,12 +51,12 @@ const fetchAuthProvidersData = async (): Promise<AuthProvidersData> => {
};
}),
);
return { isEmailPasswordAuth, providers };
return { hasPasswordAccount, providers };
}
// Fallback for NextAuth
const providers = await userService.getUserSSOProviders();
return { isEmailPasswordAuth: false, providers };
return { hasPasswordAccount: false, providers };
};
export const createAuthSlice: StateCreator<
@ -73,8 +73,8 @@ export const createAuthSlice: StateCreator<
if (get().isLoadedAuthProviders) return;
try {
const { isEmailPasswordAuth, providers } = await fetchAuthProvidersData();
set({ authProviders: providers, isEmailPasswordAuth, isLoadedAuthProviders: true });
const { hasPasswordAccount, providers } = await fetchAuthProvidersData();
set({ authProviders: providers, hasPasswordAccount, isLoadedAuthProviders: true });
} catch (error) {
console.error('Failed to fetch auth providers:', error);
set({ isLoadedAuthProviders: true });
@ -139,8 +139,8 @@ export const createAuthSlice: StateCreator<
},
refreshAuthProviders: async () => {
try {
const { isEmailPasswordAuth, providers } = await fetchAuthProvidersData();
set({ authProviders: providers, isEmailPasswordAuth });
const { hasPasswordAccount, providers } = await fetchAuthProvidersData();
set({ authProviders: providers, hasPasswordAccount });
} catch (error) {
console.error('Failed to refresh auth providers:', error);
}

View file

@ -22,7 +22,7 @@ export interface UserAuthState {
/**
* Whether user registered with email/password (credential login)
*/
isEmailPasswordAuth?: boolean;
hasPasswordAccount?: boolean;
isLoaded?: boolean;
isLoadedAuthProviders?: boolean;

View file

@ -57,7 +57,7 @@ const isLogin = (s: UserStore) => {
export const authSelectors = {
authProviders: (s: UserStore): SSOProvider[] => s.authProviders || [],
isEmailPasswordAuth: (s: UserStore) => s.isEmailPasswordAuth ?? false,
hasPasswordAccount: (s: UserStore) => s.hasPasswordAccount ?? false,
isLoaded: (s: UserStore) => s.isLoaded,
isLoadedAuthProviders: (s: UserStore) => s.isLoadedAuthProviders ?? false,
isLogin,

View file

@ -26,6 +26,7 @@ export interface CommonAction {
updateAvatar: (avatar: string) => Promise<void>;
updateFullName: (fullName: string) => Promise<void>;
updateKeyVaultConfig: (provider: string, config: any) => Promise<void>;
updateUsername: (username: string) => Promise<void>;
useCheckTrace: (shouldFetch: boolean) => SWRResponse;
useInitUserState: (
isLogin: boolean | undefined,
@ -60,6 +61,11 @@ export const createCommonSlice: StateCreator<
await get().setSettings({ keyVaults: { [provider]: config } });
},
updateUsername: async (username) => {
await userService.updateUsername(username);
await get().refreshUserState();
},
useCheckTrace: (shouldFetch) =>
useSWR<boolean>(
shouldFetch ? 'checkTrace' : null,