🤖 style: update i18n (#11100)

💄 style: update i18n

Co-authored-by: canisminor1990 <17870709+canisminor1990@users.noreply.github.com>
This commit is contained in:
LobeHub Bot 2026-01-02 10:20:04 +08:00 committed by GitHub
parent b43404c892
commit bb4571b0d5
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
36 changed files with 439 additions and 127 deletions

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick هو نموذج MoE كبير مع تفعيل خبراء فعال لأداء استدلال قوي.",
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
"MiniMax-M2.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية.",
"MiniMax-M2.1-Lightning.description": "قدرات برمجية متعددة اللغات قوية، ترتقي بتجربة البرمجة إلى مستوى جديد. أسرع وأكثر كفاءة.",
"MiniMax-M2.1.description": "قدرات برمجية متعددة اللغات قوية، ترتقي بتجربة البرمجة إلى مستوى جديد.",
"MiniMax-M2.description": "مصمم خصيصًا للبرمجة الفعالة وتدفقات عمل الوكلاء.",
"MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 هو نموذج استدلال واسع النطاق بوزن مفتوح يستخدم انتباهًا هجينًا، يحتوي على 456 مليار معامل إجماليًا و~45.9 مليار مفعّلة لكل رمز. يدعم سياقًا يصل إلى 1M ويستخدم Flash Attention لتقليل FLOPs بنسبة 75% عند توليد 100K رمز مقارنة بـ DeepSeek R1. بهيكل MoE وتدريب RL هجين، يحقق أداءً رائدًا في الاستدلال طويل المدخلات ومهام هندسة البرمجيات الواقعية.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 يعيد تعريف كفاءة الوكلاء. هو نموذج MoE مدمج وسريع وفعال من حيث التكلفة يحتوي على 230 مليار معامل إجماليًا و10 مليار مفعّلة، مصمم لمهام البرمجة والوكلاء من الدرجة الأولى مع الحفاظ على ذكاء عام قوي. مع 10 مليار معامل مفعّلة فقط، ينافس نماذج أكبر بكثير، مما يجعله مثاليًا للتطبيقات عالية الكفاءة.",
@ -268,20 +270,15 @@
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic، مع تحسينات في المهارات وتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة البرق وقدرة على التفكير المطول.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكير متسلسل خطوة بخطوة مع تحكم دقيق لمستخدمي واجهة البرمجة.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
@ -352,7 +349,6 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
"deepseek-chat.description": "يوفر DeepSeek V3.2 توازنًا بين التفكير وطول المخرجات لمهام الأسئلة اليومية ووكلاء الذكاء الاصطناعي. تصل معاييره العامة إلى مستوى GPT-5، وهو أول من يدمج التفكير في استخدام الأدوات، متصدرًا تقييمات الوكلاء مفتوحة المصدر.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@ -375,7 +371,6 @@
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج تفكير عميق يولد سلسلة تفكير قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية وأداء تفكير مماثل لـ Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",

View file

@ -29,7 +29,6 @@
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
"lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick е голям MoE модел с ефективна активация на експерти за силна логическа производителност.",
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
"MiniMax-M2.description": "Създаден за ефективно програмиране и агентски работни потоци.",
"MiniMax-M2.1-Lightning.description": "Мощни многоезични програмни възможности за цялостно подобрено програмиране. По-бързо, по-ефективно.",
"MiniMax-M2.1.description": "Мощни многоезични програмни възможности за цялостно подобрено програмиране",
"MiniMax-M2.description": "Създаден за ефективно кодиране и агентски работни потоци",
"MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е отворен модел с голям мащаб и хибридно внимание, с общо 456B параметри и ~45.9B активни на токен. Поддържа нативно 1M контекст и използва Flash Attention за 75% по-малко FLOPs при генериране на 100K токена спрямо DeepSeek R1. С MoE архитектура, CISPO и хибридно обучение с внимание и RL, постига водеща производителност при дълги входове и реални задачи по софтуерно инженерство.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 преосмисля ефективността на агентите. Това е компактен, бърз и икономичен MoE модел с 230B общо и 10B активни параметри, създаден за водещи задачи по програмиране и агенти, като същевременно запазва силен общ интелект. Със само 10B активни параметри, съперничи на много по-големи модели, което го прави идеален за приложения с висока ефективност.",
@ -268,20 +270,15 @@
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от следващо поколение на Anthropic, подобрен във всички умения и надминаващ предишния флагман Claude 3 Opus в много тестове.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, поддържащ почти мигновени отговори или разширено мислене с прецизен контрол.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено стъпково мислене с прецизен контрол за API потребители.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick ist ein großes MoE-Modell mit effizienter Expertenaktivierung für starke Argumentationsleistung.",
"MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
"MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
"MiniMax-M2.description": "Entwickelt für effizientes Coden und Agenten-Workflows.",
"MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten für ein rundum verbessertes Programmiererlebnis. Schneller und effizienter.",
"MiniMax-M2.1.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten für ein rundum verbessertes Programmiererlebnis",
"MiniMax-M2.description": "Speziell entwickelt für effizientes Programmieren und Agenten-Workflows",
"MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 ist ein Open-Weights-Modell für großskalige hybride Aufmerksamkeits- und Schlussfolgerungsaufgaben mit insgesamt 456 Milliarden Parametern und etwa 45,9 Milliarden aktiven Parametern pro Token. Es unterstützt nativ einen Kontext von 1 Million Tokens und nutzt Flash Attention, um die FLOPs bei der Generierung von 100.000 Tokens im Vergleich zu DeepSeek R1 um 75 % zu reduzieren. Durch die MoE-Architektur, CISPO und hybrides RL-Training erzielt es führende Leistungen bei Aufgaben mit langen Eingaben und realer Softwareentwicklung.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 definiert Effizienz für Agenten neu. Es handelt sich um ein kompaktes, schnelles und kosteneffizientes MoE-Modell mit insgesamt 230 Milliarden und 10 Milliarden aktiven Parametern, das für erstklassige Programmier- und Agentenaufgaben entwickelt wurde und gleichzeitig eine starke allgemeine Intelligenz beibehält. Trotz nur 10 Milliarden aktiver Parameter konkurriert es mit deutlich größeren Modellen und eignet sich ideal für Anwendungen mit hoher Effizienz.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Es wurde mit 14,8 Billionen hochwertigen Tokens vortrainiert und mit SFT und RL weiter abgestimmt. Es übertrifft andere Open-Source-Modelle und nähert sich führenden Closed-Source-Modellen an.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 ist das neue Flaggschiffmodell von Zhipu mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktiven Parametern. Es bietet umfassende Verbesserungen in allgemeiner Konversation, logischem Denken und Agentenfähigkeiten. GLM-4.7 stärkt das Interleaved Thinking (verzahntes Denken) und führt Preserved Thinking (bewahrtes Denken) sowie Turn-level Thinking (Denken auf Gesprächsebene) ein.",
"QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview ist ein Forschungsmodell von Qwen mit Schwerpunkt auf visuellem Denken. Es überzeugt durch seine Fähigkeit zur Analyse komplexer Szenen und zur Lösung visueller Mathematikaufgaben.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell zur Verbesserung der KI-Logik und des Denkvermögens.",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic mit verbesserten Fähigkeiten, das das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks übertrifft.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste hybride Denkmodell auf dem Markt. Es unterstützt nahezu sofortige Antworten oder erweitertes Denken mit feiner Steuerung.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Denkmodell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Besonders stark ist Sonnet in den Bereichen Programmierung, Datenwissenschaft, Bildverarbeitung und Agentenaufgaben.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktion und erweitertem Denkvermögen.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben herausragend in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feiner Steuerung für API-Nutzer.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@ -332,6 +335,53 @@
"computer-use-preview.description": "computer-use-preview ist ein spezialisiertes Modell für das Tool „Computer Use“, das darauf trainiert ist, computerbezogene Aufgaben zu verstehen und auszuführen.",
"dall-e-2.description": "Zweite Generation des DALL·E-Modells mit realistischeren, genaueren Bildgenerierungen und vierfacher Auflösung im Vergleich zur ersten Generation.",
"dall-e-3.description": "Das neueste DALL·E-Modell, veröffentlicht im November 2023, bietet realistischere, genauere Bildgenerierung mit höherem Detailgrad.",
"databricks/dbrx-instruct.description": "DBRX Instruct bietet zuverlässige Anweisungsverarbeitung für verschiedenste Branchen.",
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR ist ein Vision-Language-Modell von DeepSeek AI, das sich auf OCR und „kontextuelle optische Kompression“ konzentriert. Es komprimiert Bildkontext effizient, verarbeitet Dokumente und wandelt sie in strukturierte Texte (z.B. Markdown) um. Es erkennt Text in Bildern präzise und eignet sich ideal für Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung.",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B destilliert das Chain-of-Thought-Verfahren von DeepSeek-R1-0528 in das Qwen3 8B Basismodell. Es erreicht SOTA unter offenen Modellen, übertrifft Qwen3 8B um 10% bei AIME 2024 und entspricht der Leistung von Qwen3-235B-thinking. Herausragend in Mathematik, Programmierung und logischem Denken. Es nutzt die Qwen3-8B-Architektur mit dem Tokenizer von DeepSeek-R1-0528.",
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 nutzt zusätzliche Rechenleistung und algorithmische Optimierungen nach dem Training, um das Denkvermögen zu vertiefen. Es erzielt starke Ergebnisse in Benchmarks für Mathematik, Programmierung und logisches Denken und nähert sich führenden Modellen wie o3 und Gemini 2.5 Pro an.",
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Die destillierten Modelle von DeepSeek-R1 nutzen RL und Cold-Start-Daten zur Verbesserung des Denkvermögens und setzen neue Maßstäbe für offene Multi-Task-Modelle.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Die destillierten Modelle von DeepSeek-R1 nutzen RL und Cold-Start-Daten zur Verbesserung des Denkvermögens und setzen neue Maßstäbe für offene Multi-Task-Modelle.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Die destillierten Modelle von DeepSeek-R1 nutzen RL und Cold-Start-Daten zur Verbesserung des Denkvermögens und setzen neue Maßstäbe für offene Multi-Task-Modelle.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B ist aus Qwen2.5-32B destilliert und auf 800.000 kuratierten DeepSeek-R1-Beispielen feinabgestimmt. Es überzeugt in Mathematik, Programmierung und logischem Denken mit starken Ergebnissen bei AIME 2024, MATH-500 (94,3% Genauigkeit) und GPQA Diamond.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B ist aus Qwen2.5-Math-7B destilliert und auf 800.000 kuratierten DeepSeek-R1-Beispielen feinabgestimmt. Es erzielt starke Leistungen mit 92,8% bei MATH-500, 55,5% bei AIME 2024 und einem CodeForces-Rating von 1189 für ein 7B-Modell.",
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 verbessert das Denkvermögen durch RL und Cold-Start-Daten, setzt neue Maßstäbe für offene Multi-Task-Modelle und übertrifft OpenAI-o1-mini.",
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 ist ein Upgrade von DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct und kombiniert allgemeine und Programmierfähigkeiten. Es verbessert das Schreiben und das Befolgen von Anweisungen für eine bessere Präferenzanpassung und zeigt deutliche Fortschritte bei AlpacaEval 2.0, ArenaHard, AlignBench und MT-Bench.",
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus ist ein aktualisiertes V3.1-Modell, das als hybrides Agenten-LLM positioniert ist. Es behebt gemeldete Probleme, verbessert die Stabilität und Sprachkonsistenz und reduziert gemischte chinesisch/englische Ausgaben sowie fehlerhafte Zeichen. Es integriert Denk- und Nicht-Denk-Modi mit Chat-Vorlagen für flexibles Umschalten. Zudem verbessert es die Leistung von Code- und Suchagenten für zuverlässigere Toolnutzung und mehrstufige Aufgaben.",
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 verwendet eine hybride Denkarchitektur und unterstützt sowohl Denk- als auch Nicht-Denk-Modi.",
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp ist eine experimentelle V3.2-Version, die zur nächsten Architektur überleitet. Sie ergänzt DeepSeek Sparse Attention (DSA) auf Basis von V3.1-Terminus zur Verbesserung von Training und Inferenz bei langen Kontexten. Optimiert für Toolnutzung, Dokumentenverständnis und mehrstufiges Denken ideal zur Erforschung effizienteren Denkens bei großem Kontextbudget.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Vortrainiert auf 14,8B hochwertigen Tokens mit SFT und RL übertrifft es andere offene Modelle und nähert sich führenden geschlossenen Modellen an.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) ist ein innovatives Modell mit tiefem Sprachverständnis und Interaktionsfähigkeit.",
"deepseek-ai/deepseek-r1.description": "Ein hochmodernes, effizientes LLM mit Stärken in logischem Denken, Mathematik und Programmierung.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es bewahrt die Dialogfähigkeit des Chatmodells und die starke Programmierleistung des Codermodells mit besserer Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2B Tokens (87% Code, 13% chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
"deepseek-ocr.description": "DeepSeek-OCR ist ein Vision-Language-Modell von DeepSeek AI, das sich auf OCR und „kontextuelle optische Kompression“ konzentriert. Es komprimiert kontextuelle Informationen aus Bildern, verarbeitet Dokumente effizient und wandelt sie in strukturierte Textformate wie Markdown um. Es erkennt Text in Bildern präzise und eignet sich ideal für Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung.",
"deepseek-r1-0528.description": "685B-Vollmodell veröffentlicht am 28.05.2025. DeepSeek-R1 nutzt großskaliges RL im Nachtraining, verbessert das Denkvermögen mit minimalen gelabelten Daten erheblich und erzielt starke Leistungen in Mathematik, Programmierung und natürlichem Sprachverständnis.",
"deepseek-r1-250528.description": "DeepSeek R1 250528 ist das vollständige DeepSeek-R1-Denkmodell für schwierige Mathematik- und Logikaufgaben.",
"deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B Schnellversion mit Echtzeit-Websuche schnellere Antworten bei gleichbleibender Leistung.",
"deepseek-r1-70b-online.description": "DeepSeek R1 70B Standardversion mit Echtzeit-Websuche geeignet für aktuelle Chat- und Textaufgaben.",
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B kombiniert R1-Denkvermögen mit dem Llama-Ökosystem.",
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B ist aus Llama-3.1-8B destilliert unter Verwendung von DeepSeek R1-Ausgaben.",
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama ist aus DeepSeek-R1 auf Llama destilliert.",
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B ist ein R1-Destillat auf Basis von Qianfan-70B mit hohem Mehrwert.",
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B ist ein R1-Destillat auf Basis von Qianfan-8B für kleine und mittlere Anwendungen.",
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B ist ein R1-Destillat auf Basis von Llama-70B.",
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B ist ein ultraleichtes Destillatmodell für Umgebungen mit sehr geringen Ressourcen.",
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B ist ein mittelgroßes Destillatmodell für den Einsatz in verschiedenen Szenarien.",
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B ist ein R1-Destillat auf Basis von Qwen-32B ausgewogen in Leistung und Kosten.",
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B ist ein leichtgewichtiges Destillatmodell für Edge- und private Unternehmensumgebungen.",
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen ist aus DeepSeek-R1 auf Qwen destilliert.",
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche bietet stärkeres Verständnis und bessere Generierung.",
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
"deepseek-reasoner.description": "DeepSeek V3.2 Denkmodus gibt eine Chain-of-Thought vor der finalen Antwort aus, um die Genauigkeit zu verbessern.",
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern ideal für visuelle Verständnisanwendungen.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung inklusive Funktionsaufrufen für individuelle Integrationen.",
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is a large MoE model with efficient expert activation for strong reasoning performance.",
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
"MiniMax-M2.description": "Built for efficient coding and agent workflows.",
"MiniMax-M2.1-Lightning.description": "强大多语言编程实力,全面升级编程体验。更快,更高效。",
"MiniMax-M2.1.description": "强大多语言编程实力,全面升级编程体验",
"MiniMax-M2.description": "专为高效编码与Agent工作流而生",
"MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is an open-weights large-scale hybrid-attention reasoning model with 456B total parameters and ~45.9B active per token. It natively supports 1M context and uses Flash Attention to cut FLOPs by 75% on 100K-token generation vs DeepSeek R1. With an MoE architecture plus CISPO and hybrid-attention RL training, it achieves leading performance on long-input reasoning and real software engineering tasks.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefines agent efficiency. It is a compact, fast, cost-effective MoE model with 230B total and 10B active parameters, built for top-tier coding and agent tasks while retaining strong general intelligence. With only 10B active parameters, it rivals much larger models, making it ideal for high-efficiency applications.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is a 671B-parameter MoE model using MLA and DeepSeekMoE with loss-free load balancing for efficient inference and training. Pretrained on 14.8T high-quality tokens and further tuned with SFT and RL, it outperforms other open models and approaches leading closed models.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is the newest and most powerful Kimi K2. It is a top-tier MoE model with 1T total and 32B active parameters. Key features include stronger agentic coding intelligence with significant gains on benchmarks and real-world agent tasks, plus improved frontend coding aesthetics and usability.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is the Turbo variant optimized for reasoning speed and throughput while retaining K2 Thinkings multi-step reasoning and tool use. It is an MoE model with ~1T total parameters, native 256K context, and stable large-scale tool calling for production scenarios with stricter latency and concurrency needs.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 是智谱新一代旗舰模型,总参数量 355B激活参数量 32B在通用对话、推理和智能体能力方面全面升级。GLM-4.7 增强了 Interleaved Thinking交错思考并引入了 Preserved Thinking保留思考和 Turn-level Thinking轮级思考。",
"QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improving reasoning.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview is a research model from Qwen focused on visual reasoning, with strengths in complex scene understanding and visual math problems.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improved AI reasoning.",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropics fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropics fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropics most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropics most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropics fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropics fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropics fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropics flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropics most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
@ -352,7 +355,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat models general dialogue and the coder models strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@ -375,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks code-focused model with strong code generation.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@ -385,6 +388,7 @@
"deepseek-v3.1:671b.description": "DeepSeek V3.1 is a next-generation reasoning model with improved complex reasoning and chain-of-thought, suited for tasks requiring deep analysis.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduces sparse attention to improve training and inference efficiency on long text, at a lower price than deepseek-v3.1.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think is a full deep-thinking model with stronger long-chain reasoning.",
"deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首个将思考融入工具使用的混合推理模型,用高效架构省算力、大规模强化学习提能力、大规模合成任务数据强泛化,三者结合性能媲美 GPT-5-High输出长度大幅降低显著减少了计算开销与用户等待时间。",
"deepseek-v3.description": "DeepSeek-V3 is a powerful MoE model with 671B total parameters and 37B active per token.",
"deepseek-vl2-small.description": "DeepSeek VL2 Small is a lightweight multimodal version for resource-constrained and high-concurrency use.",
"deepseek-vl2.description": "DeepSeek VL2 is a multimodal model for image-text understanding and fine-grained visual QA.",
@ -430,6 +434,7 @@
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking significantly strengthens reasoning, further improving core abilities in coding, math, and logical reasoning over Doubao-1.5-thinking-pro, while adding vision understanding. It supports a 256k context window and up to 16k output tokens.",
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision is a visual deep-reasoning model that delivers stronger multimodal understanding and reasoning for education, image review, inspection/security, and AI search Q&A. It supports a 256k context window and up to 64k output tokens.",
"doubao-seed-1.6.description": "Doubao-Seed-1.6 is a new multimodal deep-reasoning model with auto, thinking, and non-thinking modes. In non-thinking mode, it significantly outperforms Doubao-1.5-pro/250115. It supports a 256k context window and up to 16k output tokens.",
"doubao-seed-1.8.description": "Doubao-Seed-1.8 有着更强的多模态理解能力和 Agent 能力,支持文本/图片/视频输入与上下文缓存,可在复杂任务中提供更出色的表现。",
"doubao-seed-code.description": "Doubao-Seed-Code is deeply optimized for agentic coding, supports multimodal inputs (text/image/video) and a 256k context window, is compatible with the Anthropic API, and fits coding, vision understanding, and agent workflows.",
"doubao-seededit-3-0-i2i-250628.description": "The Doubao image model from ByteDance Seed supports text and image inputs with highly controllable, high-quality image generation. It supports text-guided image editing, with output sizes between 512 and 1536 on the long side.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
@ -466,7 +471,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@ -474,8 +479,8 @@
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
"fal-ai/nano-banana.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@ -521,8 +526,8 @@
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-3-flash-preview.description": "Gemini 3 Flash Preview is Googles latest best-value model, improving on Gemini 2.5 Flash.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
"gemini-3-flash-preview.description": "Gemini 3 Flash 是为速度而打造的最智能的模型,将前沿智能与卓越的搜索接地相结合。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的图像生成模型,同时支持多模态对话。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Googles image generation model and also supports multimodal chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is Googles most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
@ -555,7 +560,8 @@
"glm-4.5-x.description": "GLM-4.5 fast edition, delivering strong performance with generation speeds up to 100 tokens/sec.",
"glm-4.5.description": "Zhipu flagship model with a switchable thinking mode, delivering open-source SOTA overall and up to 128K context.",
"glm-4.5v.description": "Zhipus next-generation MoE vision reasoning model has 106B total parameters with 12B active, achieving SOTA among similarly sized open-source multimodal models across image, video, document understanding, and GUI tasks.",
"glm-4.6.description": "Zhipus latest flagship GLM-4.6 (355B) surpasses the prior generation in advanced coding, long-context handling, reasoning, and agent capabilities. Its coding performance is on par with Claude Sonnet 4, making it a top-tier coding model in China.",
"glm-4.6.description": "智谱最新旗舰模型 GLM-4.6 (355B) 在高级编码、长文本处理、推理与智能体能力上全面超越前代,尤其在编程能力上对齐 Claude Sonnet 4成为国内顶尖的 Coding 模型。",
"glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同并在多个公开基准的当期榜单中取得开源模型中的领先表现。通用能力提升回复更简洁自然写作更具沉浸感。在执行复杂智能体任务在工具调用时指令遵循更强Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。",
"glm-4.description": "GLM-4 is the older flagship released in Jan 2024, now replaced by the stronger GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash focuses on efficient single-image understanding for fast analysis scenarios such as real-time or batch image processing.",
"glm-4v-plus-0111.description": "GLM-4V-Plus understands video and multiple images, suitable for multimodal tasks.",
@ -705,6 +711,7 @@
"hunyuan-turbos-role-plus.description": "Latest roleplay model, officially fine-tuned on roleplay datasets, delivering stronger baseline performance for roleplay scenarios.",
"hunyuan-turbos-vision-20250619.description": "Latest TurboS vision-language flagship with major gains on image-text tasks such as entity recognition, knowledge QA, copywriting, and photo-based problem solving.",
"hunyuan-turbos-vision.description": "A next-gen vision-language flagship based on the latest TurboS, focused on image-text understanding tasks like entity recognition, knowledge QA, copywriting, and photo-based problem solving.",
"hunyuan-vision-1.5-instruct.description": "基于文本 TurboS 基座生产的图生文快思考模型,相比上一版本在图像基础识别、图像分析推理等维度都有明显的效果提升。",
"hunyuan-vision.description": "Latest multimodal model supporting image + text input to generate text.",
"image-01-live.description": "An image generation model with fine detail, supporting text-to-image and controllable style presets.",
"image-01.description": "A new image generation model with fine detail, supporting text-to-image and image-to-image.",
@ -855,7 +862,8 @@
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 is a language model from Microsoft AI that excels at complex dialogue, multilingual tasks, reasoning, and assistants.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B is Microsoft AIs most advanced Wizard model with highly competitive performance.",
"minicpm-v.description": "MiniCPM-V is OpenBMBs next-generation multimodal model with excellent OCR and multimodal understanding for wide-ranging use cases.",
"minimax-m2.description": "MiniMax M2 is an efficient LLM built for coding and agent workflows.",
"minimax-m2.1.description": "MiniMax-M2.1 是 MiniMax 系列的最新版本,专为多语言编程和真实世界复杂任务优化。作为一款 AI 原生模型MiniMax-M2.1 在模型性能、智能体框架支持以及多场景适配方面实现了显著提升,旨在帮助企业和个人更快地找到 AI 原生的工作与生活方式。",
"minimax-m2.description": "MiniMax M2 是专为编码和代理工作流程构建的高效大型语言模型。",
"minimax/minimax-m2.description": "MiniMax-M2 is a high-value model that excels at coding and agent tasks for many engineering scenarios.",
"minimaxai/minimax-m2.description": "MiniMax-M2 is a compact, fast, cost-effective MoE model (230B total, 10B active) built for top-tier coding and agent performance while retaining strong general intelligence. It excels at multi-file edits, code-run-fix loops, test validation, and complex toolchains.",
"ministral-3b-latest.description": "Ministral 3B is Mistrals top-tier edge model.",

View file

@ -29,7 +29,6 @@
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
"modelscope.description": "ModelScope is Alibaba Clouds model-as-a-service platform, offering a wide range of AI models and inference services.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick es un modelo MoE grande con activación eficiente de expertos para un rendimiento sólido en razonamiento.",
"MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
"MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
"MiniMax-M2.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes.",
"MiniMax-M2.1-Lightning.description": "Potente capacidad de programación multilingüe para una experiencia de codificación completamente mejorada. Más rápido y más eficiente.",
"MiniMax-M2.1.description": "Potente capacidad de programación multilingüe para una experiencia de codificación completamente mejorada",
"MiniMax-M2.description": "Diseñado para una codificación eficiente y flujos de trabajo con agentes",
"MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 es un modelo de razonamiento híbrido de gran escala con pesos abiertos, 456B de parámetros totales y ~45.9B activos por token. Admite nativamente 1M de contexto y utiliza Flash Attention para reducir FLOPs en un 75% en generación de 100K tokens frente a DeepSeek R1. Con arquitectura MoE más CISPO y entrenamiento híbrido con atención y RL, logra rendimiento líder en razonamiento con entradas largas y tareas reales de ingeniería de software.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefine la eficiencia de los agentes. Es un modelo MoE compacto, rápido y rentable con 230B totales y 10B parámetros activos, diseñado para tareas de codificación y agentes de alto nivel, manteniendo una inteligencia general sólida. Con solo 10B activos, rivaliza con modelos mucho más grandes, ideal para aplicaciones de alta eficiencia.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE de 671 mil millones de parámetros que utiliza MLA y DeepSeekMoE con balanceo de carga sin pérdida para inferencia y entrenamiento eficientes. Preentrenado con 14,8 billones de tokens de alta calidad y ajustado con SFT y RL, supera a otros modelos abiertos y se acerca al rendimiento de modelos cerrados líderes.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo MoE de primer nivel con 1 billón de parámetros totales y 32 mil millones activos. Sus características clave incluyen mayor inteligencia en programación con agentes, mejoras significativas en pruebas de referencia y tareas reales de agentes, además de una estética y usabilidad mejoradas en programación frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo es la variante Turbo optimizada para velocidad de razonamiento y rendimiento, manteniendo el razonamiento de múltiples pasos y uso de herramientas de K2 Thinking. Es un modelo MoE con aproximadamente 1 billón de parámetros totales, contexto nativo de 256K y llamadas a herramientas estables a gran escala para escenarios de producción con necesidades estrictas de latencia y concurrencia.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu, con 355 mil millones de parámetros totales y 32 mil millones de parámetros activos. Ofrece mejoras integrales en conversación general, razonamiento e inteligencia de agentes. GLM-4.7 refuerza el Pensamiento Intercalado (Interleaved Thinking), e introduce el Pensamiento Preservado (Preserved Thinking) y el Pensamiento por Turnos (Turn-level Thinking).",
"QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview es un modelo de investigación de Qwen enfocado en razonamiento visual, con fortalezas en comprensión de escenas complejas y problemas visuales de matemáticas.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento de IA.",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en muchas pruebas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, con soporte para respuestas casi instantáneas o pensamiento extendido con control detallado.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso visibles para el usuario. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento paso a paso extendido con control detallado para usuarios de API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@ -295,6 +298,43 @@
"codeqwen.description": "CodeQwen1.5 es un modelo de lenguaje grande entrenado con datos extensos de código, diseñado para tareas de programación complejas.",
"codestral-latest.description": "Codestral es nuestro modelo de codificación más avanzado; la versión v2 (enero 2025) está orientada a tareas de baja latencia y alta frecuencia como FIM, corrección de código y generación de pruebas.",
"codestral.description": "Codestral es el primer modelo de código de Mistral AI, ofreciendo un sólido soporte para generación de código.",
"codex-mini-latest.description": "codex-mini-latest es un modelo o4-mini ajustado para la CLI de Codex. Para uso directo con API, se recomienda comenzar con gpt-4.1.",
"cogito-2.1:671b.description": "Cogito v2.1 671B es un modelo de lenguaje abierto de EE. UU. de uso comercial gratuito, con un rendimiento comparable a los mejores modelos, mayor eficiencia en razonamiento por tokens, contexto largo de 128k y gran capacidad general.",
"cogview-4.description": "CogView-4 es el primer modelo de texto a imagen de código abierto de Zhipu que puede generar caracteres chinos. Mejora la comprensión semántica, la calidad de imagen y la representación de texto en chino/inglés, admite entradas bilingües de longitud arbitraria y puede generar imágenes en cualquier resolución dentro de los rangos especificados.",
"cohere-command-r-plus.description": "Command R+ es un modelo avanzado optimizado para RAG, diseñado para cargas de trabajo empresariales.",
"cohere-command-r.description": "Command R es un modelo generativo escalable diseñado para RAG y uso de herramientas, permitiendo IA de nivel de producción.",
"cohere/Cohere-command-r-plus.description": "Command R+ es un modelo avanzado optimizado para RAG, diseñado para cargas de trabajo empresariales.",
"cohere/Cohere-command-r.description": "Command R es un modelo generativo escalable diseñado para RAG y uso de herramientas, permitiendo IA de nivel de producción.",
"cohere/command-a.description": "Command A es el modelo más potente de Cohere hasta la fecha, sobresaliendo en uso de herramientas, agentes, RAG y casos multilingües. Tiene una ventana de contexto de 256K, funciona con solo dos GPUs y ofrece un rendimiento 150% superior al de Command R+ 08-2024.",
"cohere/command-r-plus.description": "Command R+ es el último modelo LLM de Cohere optimizado para chat y contexto largo, con el objetivo de ofrecer un rendimiento excepcional para que las empresas pasen de prototipos a producción.",
"cohere/command-r.description": "Command R está optimizado para tareas de chat y contexto largo, posicionado como un modelo “escalable” que equilibra alto rendimiento y precisión para que las empresas avancen más allá de los prototipos.",
"cohere/embed-v4.0.description": "Un modelo que clasifica o convierte texto, imágenes o contenido mixto en embeddings.",
"comfyui/flux-dev.description": "FLUX.1 Dev es un modelo de texto a imagen de alta calidad (1050 pasos), ideal para resultados creativos y artísticos premium.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev es un modelo de edición de imágenes que admite ediciones guiadas por texto, incluidas ediciones locales y transferencia de estilo.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev es un modelo de texto a imagen con mejoras de seguridad, co-desarrollado con Krea, con filtros de seguridad integrados.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell es un modelo de texto a imagen ultrarrápido que genera imágenes de alta calidad en 1-4 pasos, ideal para uso en tiempo real y prototipado rápido.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 es un modelo clásico de texto a imagen 512x512, ideal para prototipado rápido y experimentación creativa.",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 con codificadores CLIP/T5 integrados no necesita archivos de codificador externos, adecuado para modelos como sd3.5_medium_incl_clips con menor uso de recursos.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 es un modelo de texto a imagen de próxima generación con variantes Large y Medium. Requiere archivos de codificador CLIP externos y ofrece excelente calidad de imagen y fidelidad al prompt.",
"comfyui/stable-diffusion-custom-refiner.description": "Modelo personalizado SDXL de imagen a imagen. Usa custom_sd_lobe.safetensors como nombre de archivo del modelo; si tienes un VAE, usa custom_sd_vae_lobe.safetensors. Coloca los archivos del modelo en las carpetas requeridas de Comfy.",
"comfyui/stable-diffusion-custom.description": "Modelo personalizado SD de texto a imagen. Usa custom_sd_lobe.safetensors como nombre de archivo del modelo; si tienes un VAE, usa custom_sd_vae_lobe.safetensors. Coloca los archivos del modelo en las carpetas requeridas de Comfy.",
"comfyui/stable-diffusion-refiner.description": "Modelo SDXL de imagen a imagen que realiza transformaciones de alta calidad a partir de imágenes de entrada, compatible con transferencia de estilo, restauración y variaciones creativas.",
"comfyui/stable-diffusion-xl.description": "SDXL es un modelo de texto a imagen que admite generación de alta resolución 1024x1024 con mejor calidad de imagen y detalle.",
"command-a-03-2025.description": "Command A es nuestro modelo más capaz hasta la fecha, sobresaliendo en uso de herramientas, agentes, RAG y escenarios multilingües. Tiene una ventana de contexto de 256K, funciona con solo dos GPUs y ofrece un rendimiento 150% superior al de Command R+ 08-2024.",
"command-light-nightly.description": "Para acortar el tiempo entre versiones principales, ofrecemos compilaciones nocturnas de Command. Para la serie command-light, se llama command-light-nightly. Es la versión más nueva y experimental (y potencialmente inestable), actualizada regularmente sin previo aviso, por lo que no se recomienda para producción.",
"command-light.description": "Una variante más pequeña y rápida de Command que es casi igual de capaz pero más veloz.",
"command-nightly.description": "Para acortar el tiempo entre versiones principales, ofrecemos compilaciones nocturnas de Command. Para la serie Command, se llama command-nightly. Es la versión más nueva y experimental (y potencialmente inestable), actualizada regularmente sin previo aviso, por lo que no se recomienda para producción.",
"command-r-03-2024.description": "Command R es un modelo de chat que sigue instrucciones con mayor calidad, fiabilidad y una ventana de contexto más larga que modelos anteriores. Admite flujos de trabajo complejos como generación de código, RAG, uso de herramientas y agentes.",
"command-r-08-2024.description": "command-r-08-2024 es una versión actualizada del modelo Command R lanzada en agosto de 2024.",
"command-r-plus-04-2024.description": "command-r-plus es un alias de command-r-plus-04-2024, por lo que usar command-r-plus en la API apunta a ese modelo.",
"command-r-plus-08-2024.description": "Command R+ es un modelo de chat que sigue instrucciones con mayor calidad, fiabilidad y una ventana de contexto más larga que modelos anteriores. Es ideal para flujos de trabajo RAG complejos y uso de herramientas en múltiples pasos.",
"command-r-plus.description": "Command R+ es un LLM de alto rendimiento diseñado para escenarios empresariales reales y aplicaciones complejas.",
"command-r.description": "Command R es un LLM optimizado para tareas de chat y contexto largo, ideal para interacción dinámica y gestión del conocimiento.",
"command-r7b-12-2024.description": "command-r7b-12-2024 es una actualización pequeña y eficiente lanzada en diciembre de 2024. Destaca en RAG, uso de herramientas y tareas de agentes que requieren razonamiento complejo en múltiples pasos.",
"command.description": "Un modelo de chat que sigue instrucciones y ofrece mayor calidad y fiabilidad en tareas lingüísticas, con una ventana de contexto más larga que nuestros modelos generativos base.",
"computer-use-preview.description": "computer-use-preview es un modelo especializado para la herramienta \"uso de computadora\", entrenado para comprender y ejecutar tareas relacionadas con computadoras.",
"dall-e-2.description": "Modelo DALL·E de segunda generación con generación de imágenes más realista y precisa, y 4× la resolución de la primera generación.",
"dall-e-3.description": "El modelo DALL·E más reciente, lanzado en noviembre de 2023, admite generación de imágenes más realista y precisa con mayor nivel de detalle.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@ -331,7 +371,6 @@
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 es un modelo de lenguaje de Microsoft AI que destaca en diálogos complejos, tareas multilingües, razonamiento y asistentes.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B es el modelo Wizard más avanzado de Microsoft AI, con un rendimiento altamente competitivo.",
"minicpm-v.description": "MiniCPM-V es el modelo multimodal de próxima generación de OpenBMB, con excelente OCR y comprensión multimodal para una amplia gama de casos de uso.",
"minimax-m2.description": "MiniMax M2 es un LLM eficiente diseñado para flujos de trabajo de codificación y agentes.",
"minimax/minimax-m2.description": "MiniMax-M2 es un modelo de alto valor que sobresale en tareas de codificación y agentes para muchos escenarios de ingeniería.",
"minimaxai/minimax-m2.description": "MiniMax-M2 es un modelo MoE compacto, rápido y rentable (230B en total, 10B activos) diseñado para un rendimiento de primer nivel en codificación y agentes, manteniendo una sólida inteligencia general. Destaca en ediciones de múltiples archivos, ciclos de ejecución y corrección de código, validación de pruebas y cadenas de herramientas complejas.",
"ministral-3b-latest.description": "Ministral 3B es el modelo de borde de más alto nivel de Mistral.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick یک مدل MoE بزرگ با فعال‌سازی کارآمد متخصصان برای عملکرد استدلالی قوی است.",
"MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدل‌های برتر جهانی.",
"MiniMax-M2-Stable.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور، با هم‌زمانی بالاتر برای استفاده تجاری.",
"MiniMax-M2.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور.",
"MiniMax-M2.1-Lightning.description": "توانایی قدرتمند در برنامه‌نویسی چندزبانه، ارتقاء کامل تجربه کدنویسی. سریع‌تر و کارآمدتر.",
"MiniMax-M2.1.description": "توانایی قدرتمند در برنامه‌نویسی چندزبانه، ارتقاء کامل تجربه کدنویسی",
"MiniMax-M2.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور",
"MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی می‌کند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه می‌دهد و تا ۴ میلیون توکن زمینه را پشتیبانی می‌کند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 یک مدل استدلالی با وزن‌های باز و معماری توجه ترکیبی در مقیاس بزرگ است با ۴۵۶ میلیارد پارامتر کل و حدود ۴۵.۹ میلیارد پارامتر فعال در هر توکن. این مدل به‌صورت بومی از زمینه ۱ میلیون توکن پشتیبانی می‌کند و با استفاده از Flash Attention، مصرف FLOPs را در تولید ۱۰۰ هزار توکن تا ۷۵٪ نسبت به DeepSeek R1 کاهش می‌دهد. با معماری MoE به‌همراه CISPO و آموزش تقویتی با توجه ترکیبی، عملکردی پیشرو در استدلال ورودی‌های طولانی و وظایف واقعی مهندسی نرم‌افزار ارائه می‌دهد.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 کارایی عامل‌ها را بازتعریف می‌کند. این مدل MoE فشرده، سریع و مقرون‌به‌صرفه با ۲۳۰ میلیارد پارامتر کل و ۱۰ میلیارد پارامتر فعال است که برای وظایف کدنویسی و عامل‌های سطح بالا طراحی شده و در عین حال هوش عمومی قوی را حفظ می‌کند. با تنها ۱۰ میلیارد پارامتر فعال، با مدل‌های بسیار بزرگ‌تر رقابت می‌کند و برای کاربردهای با کارایی بالا ایده‌آل است.",
@ -268,20 +270,15 @@
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که در مهارت‌های مختلف بهبود یافته و در بسیاری از آزمون‌ها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic است و اولین مدل استدلال ترکیبی در بازار محسوب می‌شود که از پاسخ‌های تقریباً فوری یا تفکر طولانی با کنترل دقیق پشتیبانی می‌کند.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت فوق‌العاده و تفکر گسترده همراه است.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با کنترل دقیق برای کاربران API ارائه می‌دهد.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",

View file

@ -29,7 +29,6 @@
"internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
"lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
"mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
"modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick est un grand modèle MoE avec activation efficace des experts pour des performances de raisonnement élevées.",
"MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million dentrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
"MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail dagents, avec une plus grande simultanéité pour un usage commercial.",
"MiniMax-M2.description": "Conçu pour un codage efficace et des flux de travail dagents.",
"MiniMax-M2.1-Lightning.description": "Puissante capacité de programmation multilingue, une expérience de codage entièrement améliorée. Plus rapide, plus efficace.",
"MiniMax-M2.1.description": "Puissante capacité de programmation multilingue, une expérience de codage entièrement améliorée",
"MiniMax-M2.description": "Conçu pour un codage efficace et des flux de travail d'agents",
"MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusquà 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 est un modèle de raisonnement à attention hybride à grande échelle avec poids ouverts, totalisant 456 milliards de paramètres et environ 45,9 milliards actifs par jeton. Il prend en charge nativement un contexte de 1 million de jetons et utilise Flash Attention pour réduire les FLOPs de 75 % sur une génération de 100 000 jetons par rapport à DeepSeek R1. Grâce à une architecture MoE, CISPO et un entraînement RL à attention hybride, il atteint des performances de pointe sur les tâches de raisonnement à long contexte et dingénierie logicielle réelle.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redéfinit lefficacité des agents. Cest un modèle MoE compact, rapide et économique avec 230 milliards de paramètres totaux et 10 milliards actifs, conçu pour des tâches de codage et dagents de haut niveau tout en conservant une intelligence générale solide. Avec seulement 10 milliards de paramètres actifs, il rivalise avec des modèles bien plus grands, ce qui en fait un choix idéal pour des applications à haute efficacité.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE de 671 milliards de paramètres utilisant MLA et DeepSeekMoE avec un équilibrage de charge sans perte pour une inférence et un entraînement efficaces. Préentraîné sur 14,8T de jetons de haute qualité et affiné avec SFT et RL, il surpasse les autres modèles open source et se rapproche des modèles fermés de pointe.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 est le tout dernier et le plus puissant modèle Kimi K2. Il s'agit d'un modèle MoE de premier plan avec 1T de paramètres totaux et 32B de paramètres actifs. Ses principales caractéristiques incluent une intelligence de codage agentique renforcée avec des gains significatifs sur les benchmarks et les tâches d'agents réels, ainsi qu'une esthétique et une convivialité améliorées pour le codage en interface utilisateur.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo est la variante Turbo optimisée pour la vitesse de raisonnement et le débit, tout en conservant le raisonnement multi-étapes et l'utilisation d'outils de K2 Thinking. Il s'agit d'un modèle MoE avec environ 1T de paramètres totaux, un contexte natif de 256K, et un appel d'outils à grande échelle stable pour des scénarios de production nécessitant une faible latence et une forte concurrence.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 est le nouveau modèle phare de Zhipu, avec 355 milliards de paramètres totaux et 32 milliards de paramètres actifs. Il offre des améliorations complètes en dialogue général, raisonnement et capacités d'agents. GLM-4.7 renforce la pensée entrelacée (Interleaved Thinking), et introduit la pensée préservée (Preserved Thinking) et la pensée par tour (Turn-level Thinking).",
"QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview est un modèle de recherche de Qwen axé sur le raisonnement visuel, avec des points forts en compréhension de scènes complexes et en résolution de problèmes visuels mathématiques.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement de l'IA.",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas dusage à grande échelle comme le support client, léducation et lassistance technique.",
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic, amélioré sur de nombreuses compétences et surpassant lancien modèle phare Claude 3 Opus sur plusieurs benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et surpasse le précédent plus grand modèle Claude 3 Opus sur de nombreux tests dintelligence.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent dAnthropic et le premier modèle de raisonnement hybride sur le marché, capable de fournir des réponses instantanées ou une réflexion approfondie avec un contrôle précis.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l'utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d'agents.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact dAnthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, combinant vitesse fulgurante et réflexion approfondie.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, combinant vitesse fulgurante et raisonnement approfondi.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent dAnthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion détaillée avec un contrôle précis pour les utilisateurs dAPI.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent dAnthropic à ce jour.",
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, linterprétation de code, la recherche web, lappel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est lun des meilleurs modèles de code sous 10 milliards de paramètres.",
@ -296,6 +299,42 @@
"codestral-latest.description": "Codestral est notre modèle de codage le plus avancé ; la version v2 (janvier 2025) cible les tâches à faible latence et haute fréquence comme FIM, la correction de code et la génération de tests.",
"codestral.description": "Codestral est le premier modèle de code de Mistral AI, offrant un excellent support pour la génération de code.",
"codex-mini-latest.description": "codex-mini-latest est un modèle o4-mini affiné pour l'interface en ligne de commande Codex. Pour une utilisation directe via l'API, nous recommandons de commencer avec gpt-4.1.",
"cogito-2.1:671b.description": "Cogito v2.1 671B est un modèle de langage open source américain, gratuit pour un usage commercial. Il rivalise avec les meilleurs modèles, offre une meilleure efficacité de raisonnement par jeton, un contexte long de 128k et de solides performances globales.",
"cogview-4.description": "CogView-4 est le premier modèle open source de génération d'images à partir de texte de Zhipu capable de générer des caractères chinois. Il améliore la compréhension sémantique, la qualité d'image et le rendu du texte en chinois/anglais, prend en charge des invites bilingues de longueur arbitraire et peut générer des images à toute résolution dans des plages spécifiées.",
"cohere-command-r-plus.description": "Command R+ est un modèle avancé optimisé pour le RAG, conçu pour les charges de travail en entreprise.",
"cohere-command-r.description": "Command R est un modèle génératif évolutif conçu pour le RAG et l'utilisation d'outils, permettant une IA de niveau production.",
"cohere/Cohere-command-r-plus.description": "Command R+ est un modèle avancé optimisé pour le RAG, conçu pour les charges de travail en entreprise.",
"cohere/Cohere-command-r.description": "Command R est un modèle génératif évolutif conçu pour le RAG et l'utilisation d'outils, permettant une IA de niveau production.",
"cohere/command-a.description": "Command A est le modèle le plus puissant de Cohere à ce jour, excellent dans l'utilisation d'outils, les agents, le RAG et les cas d'utilisation multilingues. Il dispose d'un contexte de 256K, fonctionne sur seulement deux GPU et offre un débit 150 % supérieur à Command R+ 08-2024.",
"cohere/command-r-plus.description": "Command R+ est le dernier modèle LLM de Cohere, optimisé pour le chat et les contextes longs, visant des performances exceptionnelles pour permettre aux entreprises de passer des prototypes à la production.",
"cohere/command-r.description": "Command R est optimisé pour les tâches de chat et de contexte long, positionné comme un modèle « évolutif » qui équilibre haute performance et précision pour permettre aux entreprises de dépasser les prototypes et passer à la production.",
"cohere/embed-v4.0.description": "Un modèle qui classe ou convertit du texte, des images ou du contenu mixte en embeddings.",
"comfyui/flux-dev.description": "FLUX.1 Dev est un modèle texte-vers-image de haute qualité (10 à 50 étapes), idéal pour des rendus créatifs et artistiques premium.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev est un modèle d'édition d'image qui prend en charge les modifications guidées par le texte, y compris les modifications locales et le transfert de style.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev est un modèle texte-vers-image renforcé en sécurité, co-développé avec Krea, avec des filtres de sécurité intégrés.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell est un modèle texte-vers-image ultra-rapide qui génère des images de haute qualité en 1 à 4 étapes, idéal pour une utilisation en temps réel et le prototypage rapide.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 est un modèle texte-vers-image classique en 512x512, idéal pour le prototypage rapide et les expérimentations créatives.",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 avec encodeurs CLIP/T5 intégrés ne nécessite aucun fichier d'encodeur externe, adapté aux modèles comme sd3.5_medium_incl_clips avec une utilisation réduite des ressources.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 est un modèle texte-vers-image de nouvelle génération avec des variantes Large et Medium. Il nécessite des fichiers d'encodeur CLIP externes et offre une excellente qualité d'image et une bonne fidélité aux invites.",
"comfyui/stable-diffusion-custom-refiner.description": "Modèle image-vers-image SDXL personnalisé. Utilisez custom_sd_lobe.safetensors comme nom de fichier du modèle ; si vous avez un VAE, utilisez custom_sd_vae_lobe.safetensors. Placez les fichiers du modèle dans les dossiers requis de Comfy.",
"comfyui/stable-diffusion-custom.description": "Modèle texte-vers-image SD personnalisé. Utilisez custom_sd_lobe.safetensors comme nom de fichier du modèle ; si vous avez un VAE, utilisez custom_sd_vae_lobe.safetensors. Placez les fichiers du modèle dans les dossiers requis de Comfy.",
"comfyui/stable-diffusion-refiner.description": "Modèle image-vers-image SDXL réalisant des transformations de haute qualité à partir d'images d'entrée, prenant en charge le transfert de style, la restauration et les variations créatives.",
"comfyui/stable-diffusion-xl.description": "SDXL est un modèle texte-vers-image prenant en charge la génération haute résolution 1024x1024 avec une meilleure qualité d'image et plus de détails.",
"command-a-03-2025.description": "Command A est notre modèle le plus performant à ce jour, excellent dans l'utilisation d'outils, les agents, le RAG et les scénarios multilingues. Il dispose d'une fenêtre de contexte de 256K, fonctionne sur seulement deux GPU et offre un débit 150 % supérieur à Command R+ 08-2024.",
"command-light-nightly.description": "Pour réduire l'intervalle entre les versions majeures, nous proposons des versions Command nocturnes. Pour la série command-light, cela s'appelle command-light-nightly. C'est la version la plus récente, la plus expérimentale (et potentiellement instable), mise à jour régulièrement sans préavis, donc non recommandée pour la production.",
"command-light.description": "Une variante Command plus petite et plus rapide, presque aussi performante mais plus rapide.",
"command-nightly.description": "Pour réduire l'intervalle entre les versions majeures, nous proposons des versions Command nocturnes. Pour la série Command, cela s'appelle command-nightly. C'est la version la plus récente, la plus expérimentale (et potentiellement instable), mise à jour régulièrement sans préavis, donc non recommandée pour la production.",
"command-r-03-2024.description": "Command R est un modèle de chat suivant les instructions avec une qualité supérieure, une fiabilité accrue et une fenêtre de contexte plus longue que les modèles précédents. Il prend en charge des flux de travail complexes tels que la génération de code, le RAG, l'utilisation d'outils et les agents.",
"command-r-08-2024.description": "command-r-08-2024 est une version mise à jour du modèle Command R publiée en août 2024.",
"command-r-plus-04-2024.description": "command-r-plus est un alias de command-r-plus-04-2024, donc utiliser command-r-plus dans l'API pointe vers ce modèle.",
"command-r-plus-08-2024.description": "Command R+ est un modèle de chat suivant les instructions avec une qualité supérieure, une fiabilité accrue et une fenêtre de contexte plus longue que les modèles précédents. Il est idéal pour les flux de travail RAG complexes et l'utilisation d'outils en plusieurs étapes.",
"command-r-plus.description": "Command R+ est un LLM haute performance conçu pour des scénarios d'entreprise réels et des applications complexes.",
"command-r.description": "Command R est un LLM optimisé pour le chat et les tâches à long contexte, idéal pour l'interaction dynamique et la gestion des connaissances.",
"command-r7b-12-2024.description": "command-r7b-12-2024 est une mise à jour légère et efficace publiée en décembre 2024. Il excelle dans le RAG, l'utilisation d'outils et les tâches d'agents nécessitant un raisonnement complexe en plusieurs étapes.",
"command.description": "Un modèle de chat suivant les instructions qui offre une qualité et une fiabilité supérieures pour les tâches linguistiques, avec une fenêtre de contexte plus longue que nos modèles génératifs de base.",
"computer-use-preview.description": "computer-use-preview est un modèle spécialisé pour l'outil \"utilisation de l'ordinateur\", entraîné pour comprendre et exécuter des tâches liées à l'informatique.",
"dall-e-2.description": "Modèle DALL·E de deuxième génération avec une génération d'images plus réaliste et précise, et une résolution 4× supérieure à la première génération.",
"dall-e-3.description": "Le dernier modèle DALL·E, publié en novembre 2023, prend en charge une génération d'images plus réaliste et précise avec un niveau de détail renforcé.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de Crédits liés aux jetons des modèles.",
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick è un grande modello MoE con attivazione efficiente degli esperti per prestazioni di ragionamento elevate.",
"MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.",
"MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.",
"MiniMax-M2.description": "Progettato per flussi di lavoro di codifica e agenti efficienti.",
"MiniMax-M2.1-Lightning.description": "Potente supporto alla programmazione multilingue, per un'esperienza di codifica completamente rinnovata. Più veloce, più efficiente.",
"MiniMax-M2.1.description": "Potente supporto alla programmazione multilingue, per un'esperienza di codifica completamente rinnovata.",
"MiniMax-M2.description": "Progettato per una codifica efficiente e flussi di lavoro con agenti AI",
"MiniMax-Text-01.description": "MiniMax-01 introduce l'attenzione lineare su larga scala oltre i Transformer classici, con 456B parametri e 45,9B attivati per passaggio. Raggiunge prestazioni di alto livello e supporta fino a 4M token di contesto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 è un modello di ragionamento ibrido su larga scala con pesi open, 456B parametri totali e ~45,9B attivi per token. Supporta nativamente 1M di contesto e utilizza Flash Attention per ridurre i FLOPs del 75% nella generazione di 100K token rispetto a DeepSeek R1. Con architettura MoE, CISPO e addestramento RL ibrido, raggiunge prestazioni leader su ragionamento con input lunghi e compiti reali di ingegneria del software.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 ridefinisce l'efficienza degli agenti. È un modello MoE compatto, veloce ed economico con 230B parametri totali e 10B attivi, progettato per compiti di codifica e agenti di alto livello mantenendo una forte intelligenza generale. Con soli 10B parametri attivi, rivaleggia con modelli molto più grandi, rendendolo ideale per applicazioni ad alta efficienza.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE da 671B parametri che utilizza MLA e DeepSeekMoE con bilanciamento del carico senza perdite per un'inferenza e addestramento efficienti. Preaddestrato su 14,8T token di alta qualità e ulteriormente ottimizzato con SFT e RL, supera altri modelli open-source e si avvicina ai modelli chiusi leader.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 è la versione più recente e potente di Kimi K2. È un modello MoE di fascia alta con 1T di parametri totali e 32B attivi. Le caratteristiche principali includono un'intelligenza di codifica agentica più forte con miglioramenti significativi nei benchmark e nei compiti reali da agente, oltre a una migliore estetica e usabilità del codice frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo è la variante Turbo ottimizzata per velocità di ragionamento e throughput, mantenendo il ragionamento multi-step e l'uso di strumenti di K2 Thinking. È un modello MoE con ~1T parametri totali, contesto nativo da 256K e chiamata stabile di strumenti su larga scala per scenari di produzione con requisiti più severi di latenza e concorrenza.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 è il nuovo modello di punta di Zhipu AI, con 355 miliardi di parametri totali e 32 miliardi attivi. Offre miglioramenti completi nel dialogo generale, nel ragionamento e nelle capacità degli agenti. GLM-4.7 potenzia il pensiero intercalato (Interleaved Thinking) e introduce il pensiero preservato (Preserved Thinking) e il pensiero a livello di turno (Turn-level Thinking).",
"QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview è un modello di ricerca del team Qwen focalizzato sul ragionamento visivo, con punti di forza nella comprensione di scene complesse e nella risoluzione di problemi visivi di matematica.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento dell'IA.",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in tutte le competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in molti benchmark di intelligenza.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con controllo dettagliato.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all'utente. Sonnet eccelle in programmazione, data science, visione e compiti per agenti.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di pensiero esteso.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento esteso.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offrendo risposte quasi istantanee o riflessioni estese passo dopo passo con controllo dettagliato per gli utenti API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 può fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con processo visibile.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
@ -306,6 +309,32 @@
"cohere/command-r-plus.description": "Command R+ è l'ultimo LLM di Cohere ottimizzato per chat e contesto lungo, con prestazioni eccezionali per passare dai prototipi alla produzione.",
"cohere/command-r.description": "Command R è ottimizzato per chat e compiti a contesto lungo, posizionato come modello \"scalabile\" che bilancia alte prestazioni e precisione per passare dai prototipi alla produzione.",
"cohere/embed-v4.0.description": "Un modello che classifica o converte testo, immagini o contenuti misti in embedding.",
"comfyui/flux-dev.description": "FLUX.1 Dev è un modello testo-immagine di alta qualità (1050 passaggi), ideale per output creativi e artistici di livello premium.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev è un modello di editing immagini che supporta modifiche guidate da testo, inclusi ritocchi locali e trasferimento di stile.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev è un modello testo-immagine con filtri di sicurezza integrati, sviluppato in collaborazione con Krea.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell è un modello testo-immagine ultra-veloce che genera immagini di alta qualità in 1-4 passaggi, ideale per uso in tempo reale e prototipazione rapida.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 è un classico modello testo-immagine 512x512, ideale per prototipazione rapida ed esperimenti creativi.",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 con encoder CLIP/T5 integrati non richiede file encoder esterni, adatto a modelli come sd3.5_medium_incl_clips con uso ridotto di risorse.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 è un modello testo-immagine di nuova generazione con varianti Large e Medium. Richiede file encoder CLIP esterni e offre eccellente qualità d'immagine e aderenza ai prompt.",
"comfyui/stable-diffusion-custom-refiner.description": "Modello personalizzato SDXL immagine-a-immagine. Usa custom_sd_lobe.safetensors come nome file del modello; se hai un VAE, usa custom_sd_vae_lobe.safetensors. Inserisci i file modello nelle cartelle richieste da Comfy.",
"comfyui/stable-diffusion-custom.description": "Modello personalizzato SD testo-a-immagine. Usa custom_sd_lobe.safetensors come nome file del modello; se hai un VAE, usa custom_sd_vae_lobe.safetensors. Inserisci i file modello nelle cartelle richieste da Comfy.",
"comfyui/stable-diffusion-refiner.description": "Modello SDXL immagine-a-immagine che esegue trasformazioni di alta qualità da immagini in input, supportando trasferimento di stile, restauro e variazioni creative.",
"comfyui/stable-diffusion-xl.description": "SDXL è un modello testo-immagine che supporta generazione ad alta risoluzione 1024x1024 con migliore qualità e dettaglio visivo.",
"command-a-03-2025.description": "Command A è il nostro modello più avanzato, eccellente nell'uso di strumenti, agenti, RAG e scenari multilingue. Ha una finestra di contesto di 256K, funziona con solo due GPU e offre una produttività superiore del 150% rispetto a Command R+ 08-2024.",
"command-light-nightly.description": "Per ridurre il tempo tra le versioni principali, offriamo build notturne di Command. Per la serie command-light si chiama command-light-nightly. È la versione più recente ed esperimentale (potenzialmente instabile), aggiornata regolarmente senza preavviso, quindi non è consigliata per ambienti di produzione.",
"command-light.description": "Una variante Command più piccola e veloce, quasi altrettanto capace ma più rapida.",
"command-nightly.description": "Per ridurre il tempo tra le versioni principali, offriamo build notturne di Command. Per la serie Command si chiama command-nightly. È la versione più recente ed esperimentale (potenzialmente instabile), aggiornata regolarmente senza preavviso, quindi non è consigliata per ambienti di produzione.",
"command-r-03-2024.description": "Command R è un modello di chat che segue istruzioni, con qualità superiore, maggiore affidabilità e una finestra di contesto più lunga rispetto ai modelli precedenti. Supporta flussi di lavoro complessi come generazione di codice, RAG, uso di strumenti e agenti.",
"command-r-08-2024.description": "command-r-08-2024 è una versione aggiornata del modello Command R rilasciata ad agosto 2024.",
"command-r-plus-04-2024.description": "command-r-plus è un alias di command-r-plus-04-2024, quindi usare command-r-plus nell'API punta a quel modello.",
"command-r-plus-08-2024.description": "Command R+ è un modello di chat che segue istruzioni, con qualità superiore, maggiore affidabilità e una finestra di contesto più lunga rispetto ai modelli precedenti. È ideale per flussi di lavoro RAG complessi e uso multi-step di strumenti.",
"command-r-plus.description": "Command R+ è un LLM ad alte prestazioni progettato per scenari aziendali reali e applicazioni complesse.",
"command-r.description": "Command R è un LLM ottimizzato per chat e compiti a lungo contesto, ideale per interazioni dinamiche e gestione della conoscenza.",
"command-r7b-12-2024.description": "command-r7b-12-2024 è un aggiornamento piccolo ed efficiente rilasciato a dicembre 2024. Eccelle in RAG, uso di strumenti e compiti per agenti che richiedono ragionamento complesso multi-step.",
"command.description": "Un modello di chat che segue istruzioni, offrendo maggiore qualità e affidabilità nei compiti linguistici, con una finestra di contesto più lunga rispetto ai nostri modelli generativi base.",
"computer-use-preview.description": "computer-use-preview è un modello specializzato per lo strumento \"uso del computer\", addestrato per comprendere ed eseguire compiti legati al computer.",
"dall-e-2.description": "Modello DALL·E di seconda generazione con generazione di immagini più realistica e accurata e risoluzione 4× rispetto alla prima generazione.",
"dall-e-3.description": "L'ultimo modello DALL·E, rilasciato a novembre 2023, supporta generazione di immagini più realistica e accurata con maggiore dettaglio.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dellecosistema globale per linnovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
@ -342,7 +371,6 @@
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 è un modello linguistico di Microsoft AI eccellente nei dialoghi complessi, nei compiti multilingue, nel ragionamento e negli assistenti.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B è il modello Wizard più avanzato di Microsoft AI, con prestazioni altamente competitive.",
"minicpm-v.description": "MiniCPM-V è il modello multimodale di nuova generazione di OpenBMB, con eccellenti capacità OCR e comprensione multimodale per un'ampia gamma di casi d'uso.",
"minimax-m2.description": "MiniMax M2 è un LLM efficiente progettato per flussi di lavoro di codifica e agenti.",
"minimax/minimax-m2.description": "MiniMax-M2 è un modello ad alto valore che eccelle nella codifica e nei compiti per agenti in molti scenari ingegneristici.",
"minimaxai/minimax-m2.description": "MiniMax-M2 è un modello MoE compatto, veloce ed economico (230B totali, 10B attivi) progettato per prestazioni di alto livello nella codifica e nei compiti per agenti, mantenendo una forte intelligenza generale. Eccelle in modifiche multi-file, cicli di esecuzione-correzione del codice, validazione dei test e catene di strumenti complesse.",
"ministral-3b-latest.description": "Ministral 3B è il modello edge di punta di Mistral.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick は、効率的なエキスパート活性化により強力な推論性能を実現する大規模 MoE モデルです。",
"MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。",
"MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。",
"MiniMax-M2.description": "効率的なコーディングとエージェントワークフローのために設計されています。",
"MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング能力で、プログラミング体験を全面的にアップグレード。より高速、より効率的に。",
"MiniMax-M2.1.description": "強力な多言語プログラミング能力で、プログラミング体験を全面的にアップグレード",
"MiniMax-M2.description": "効率的なコーディングとエージェントワークフローのために設計されたモデル",
"MiniMax-Text-01.description": "MiniMax-01は、従来のTransformerを超える大規模な線形アテンションを導入し、4560億のパラメータと1パスあたり45.9億のアクティブパラメータを持ちます。最大400万トークンのコンテキストをサポートしGPT-4oの32倍、Claude-3.5-Sonnetの20倍、最高水準の性能を実現します。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1は、4560億の総パラメータとトークンあたり約45.9億のアクティブパラメータを持つ、オープンウェイトの大規模ハイブリッドアテンション推論モデルです。100Kトークン生成時にFLOPsを75%削減するFlash Attentionを採用し、1Mのコンテキストをネイティブにサポートします。MoEアーキテクチャ、CISPO、ハイブリッドアテンション強化学習により、長文推論や実際のソフトウェアエンジニアリングタスクで卓越した性能を発揮します。",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2は、エージェント効率を再定義するコンパクトで高速かつコスト効率の高いMoEモデルです。総パラメータ2300億、アクティブパラメータ100億で、優れたコーディングとエージェントタスクに対応しながら、強力な汎用知能を維持します。アクティブパラメータが少ないにもかかわらず、より大規模なモデルに匹敵する性能を発揮し、高効率なアプリケーションに最適です。",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3は、MLAとDeepSeekMoEを使用し、損失のない負荷分散により効率的な推論と学習を実現する6710億パラメータのMoEモデルです。14.8兆の高品質トークンで事前学習され、SFTとRLでさらに調整され、他のオープンモデルを上回り、主要なクローズドモデルに迫る性能を発揮します。",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 は、最新かつ最も高性能な Kimi K2 モデルです。1T の総パラメータと 32B のアクティブパラメータを持つ最上位の MoE モデルであり、エージェント型コーディング知能が強化され、ベンチマークおよび実世界のエージェントタスクにおいて大幅な性能向上を実現しています。さらに、フロントエンドのコード美学と使いやすさも改善されています。",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo は、K2 Thinking のマルチステップ推論とツール使用能力を維持しつつ、推論速度とスループットを最適化した Turbo バリアントです。約 1T の総パラメータを持つ MoE モデルで、ネイティブで 256K のコンテキスト長をサポートし、低レイテンシーかつ高同時実行性が求められる本番環境において安定した大規模ツール呼び出しが可能です。",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 は智譜の次世代フラッグシップモデルで、総パラメータ数は355B、アクティブパラメータ数は32Bです。汎用対話、推論、エージェント能力において全面的に強化されています。GLM-4.7 は Interleaved Thinking交差思考を強化し、Preserved Thinking思考の保持と Turn-level Thinkingターン単位の思考を導入しています。",
"QwQ-32B-Preview.description": "Qwen QwQ は、推論能力の向上に焦点を当てた実験的研究モデルです。",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview は、Qwen による視覚的推論に特化した研究モデルであり、複雑なシーン理解や視覚的数学問題に強みを持ちます。",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ は、AI の推論能力向上に焦点を当てた実験的研究モデルです。",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 HaikuはAnthropicの次世代モデルの中で最も高速なモデルであり、さまざまなスキルにおいて向上し、従来のフラッグシップモデルClaude 3 Opusを多くのベンチマークで上回ります。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は Anthropic の次世代モデルの中で最も高速なモデルです。Claude 3 Haiku と比較して全体的なスキルが向上しており、以前の最大モデル Claude 3 Opus を多くの知能ベンチマークで上回ります。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7はAnthropicの最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と深い思考の両方をサポートし、きめ細かな制御が可能です。",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet は Anthropic の最も知的なモデルで、市場初のハイブリッド推論モデルです。即時応答と、ユーザーが確認できる段階的な推論の両方を生成できます。特にコーディング、データサイエンス、画像処理、エージェントタスクに優れています。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5はAnthropicの中で最も高速かつ高知能なHaikuモデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は Anthropic の最速かつ最も賢い Haiku モデルで、稲妻のようなスピードと高度な推論能力を備えています。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4はAnthropicの中で最も高性能なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4 は Anthropic の最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4はAnthropic史上最も知的なモデルであり、APIユーザー向けに即時応答と段階的な思考をきめ細かく制御できます。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、即時応答または段階的な思考プロセスを可視化しながら生成できます。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
@ -333,6 +336,30 @@
"dall-e-2.description": "第2世代のDALL·Eモデルであり、より現実的かつ正確な画像生成が可能で、初代の4倍の解像度を実現します。",
"dall-e-3.description": "2023年11月にリリースされた最新のDALL·Eモデルであり、より現実的かつ正確な画像生成と高いディテール表現をサポートします。",
"databricks/dbrx-instruct.description": "DBRX Instruct は、業界を問わず高い信頼性のある指示処理を提供します。",
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR は DeepSeek AI による視覚と言語の統合モデルで、OCR光学文字認識と「コンテキスト光学圧縮」に特化しています。画像からの文脈情報を圧縮し、文書を効率的に処理して構造化テキストMarkdownに変換します。画像内のテキストを高精度で認識し、文書のデジタル化、テキスト抽出、構造化処理に最適です。",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B は、DeepSeek-R1-0528 の連想思考を Qwen3 8B Base に蒸留したモデルです。AIME 2024 で Qwen3 8B を 10% 上回り、Qwen3-235B-thinking に匹敵する性能を発揮します。数学的推論、プログラミング、一般的な論理ベンチマークに優れています。Qwen3-8B のアーキテクチャを共有しつつ、DeepSeek-R1-0528 のトークナイザーを使用しています。",
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 は追加の計算資源と事後学習アルゴリズムの最適化により推論能力を強化しています。数学、プログラミング、一般的な論理ベンチマークで高い性能を発揮し、o3 や Gemini 2.5 Pro などのリーダーモデルに迫る実力を持ちます。",
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 蒸留モデルは、強化学習RLとコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てます。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 蒸留モデルは、強化学習RLとコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てます。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 蒸留モデルは、強化学習RLとコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てます。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B は Qwen2.5-32B をベースに蒸留され、80 万件の厳選された DeepSeek-R1 サンプルでファインチューニングされています。数学、プログラミング、推論に優れ、AIME 2024、MATH-50094.3% 正答率、GPQA Diamond で高い成果を上げています。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B は Qwen2.5-Math-7B をベースに蒸留され、80 万件の厳選された DeepSeek-R1 サンプルでファインチューニングされています。MATH-500 で 92.8%、AIME 2024 で 55.5%、7B モデルとして CodeForces レーティング 1189 を記録しています。",
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 は強化学習RLとコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立て、OpenAI-o1-mini を上回る性能を発揮します。",
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 は DeepSeek-V2-Chat と DeepSeek-Coder-V2-Instruct を統合し、汎用能力とコーディング能力を兼ね備えたモデルです。文章生成と指示追従性が向上し、AlpacaEval 2.0、ArenaHard、AlignBench、MT-Bench で大きな進歩を示しています。",
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus は V3.1 の改良版で、ハイブリッドエージェント LLM として位置づけられています。ユーザーから報告された問題を修正し、安定性と言語一貫性を向上させ、中国語と英語の混在や異常文字を削減しています。思考モードと非思考モードをチャットテンプレートで柔軟に切り替えられ、Code Agent や Search Agent の性能も向上し、ツール使用やマルチステップタスクの信頼性が高まりました。",
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 はハイブリッド推論アーキテクチャを採用し、思考モードと非思考モードの両方をサポートします。",
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp は次世代アーキテクチャへの橋渡しとなる実験的な V3.2 リリースです。V3.1-Terminus をベースに DeepSeek Sparse AttentionDSAを追加し、長文コンテキストの学習と推論効率を向上させています。ツール使用、長文理解、マルチステップ推論に最適化されており、大規模コンテキストでの高効率推論の探求に理想的です。",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 は 671B パラメータの MoE モデルで、MLA と DeepSeekMoE を使用し、損失のない負荷分散により効率的な学習と推論を実現しています。14.8T の高品質トークンで事前学習され、SFT と RL により他のオープンモデルを上回り、クローズドモデルに迫る性能を発揮します。",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat67Bは、深い言語理解と対話能力を提供する革新的なモデルです。",
"deepseek-ai/deepseek-r1.description": "最先端の効率的な LLM で、推論、数学、プログラミングに強みを持ちます。",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
"deepseek-chat.description": "汎用能力とコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの対話能力とコーディングモデルの強力なコーディング能力を維持しつつ、ユーザーの好みによりよく適合します。DeepSeek-V2.5 は文章生成と指示追従性も向上しています。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
"deepseek-ocr.description": "DeepSeek-OCR は DeepSeek AI による視覚と言語の統合モデルで、OCR光学文字認識と「コンテキスト光学圧縮」に特化しています。画像からの文脈情報を圧縮し、文書を効率的に処理して構造化テキストMarkdownに変換します。画像内のテキストを高精度で認識し、文書のデジタル化、テキスト抽出、構造化処理に最適です。",
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
"gemini-pro-latest.description": "Gemini Pro の最新リリース",
@ -373,7 +400,6 @@
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 は Microsoft AI による言語モデルで、複雑な対話、多言語タスク、推論、アシスタントに優れています。",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B は Microsoft AI による最先端の Wizard モデルで、非常に競争力のある性能を発揮します。",
"minicpm-v.description": "MiniCPM-V は OpenBMB の次世代マルチモーダルモデルで、OCR とマルチモーダル理解に優れ、幅広い用途に対応します。",
"minimax-m2.description": "MiniMax M2 は、コーディングとエージェントワークフロー向けに構築された効率的な LLM です。",
"minimax/minimax-m2.description": "MiniMax-M2 は、エンジニアリングシナリオにおけるコーディングとエージェントタスクに優れた高価値モデルです。",
"minimaxai/minimax-m2.description": "MiniMax-M2 は、230B 総パラメータ中 10B アクティブのコンパクトで高速、コスト効率の高い MoE モデルで、マルチファイル編集、コード実行・修正ループ、テスト検証、複雑なツールチェーンに優れた性能を発揮します。",
"moonshot-v1-32k.description": "Moonshot V1 32Kは、32,768トークンの中程度の長さのコンテキストをサポートし、長文ドキュメントや複雑な対話に最適で、コンテンツ制作、レポート、チャットシステムに適しています。",

View file

@ -29,7 +29,6 @@
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を計測します。",
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービスMaaSプラットフォームで、幅広いAIモデルと推論サービスを提供します。",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick은 효율적인 전문가 활성화를 통해 강력한 추론 성능을 제공하는 대형 MoE 모델입니다.",
"MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.",
"MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
"MiniMax-M2.description": "효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
"MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 성능으로 프로그래밍 경험을 전면 업그레이드합니다. 더 빠르고, 더 효율적으로.",
"MiniMax-M2.1.description": "강력한 다국어 프로그래밍 성능으로 프로그래밍 경험을 전면 업그레이드합니다.",
"MiniMax-M2.description": "효율적인 코딩과 에이전트 워크플로우를 위해 설계된 모델입니다.",
"MiniMax-Text-01.description": "MiniMax-01은 기존 트랜스포머를 넘어선 대규모 선형 어텐션을 도입한 모델로, 4560억 파라미터 중 459억이 활성화됩니다. 최대 400만 토큰의 문맥을 지원하며, GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다.",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1은 오픈 가중치 기반의 대규모 하이브리드 어텐션 추론 모델로, 총 4560억 파라미터 중 토큰당 약 459억이 활성화됩니다. 100만 문맥을 기본 지원하며, Flash Attention을 통해 10만 토큰 생성 시 FLOPs를 DeepSeek R1 대비 75% 절감합니다. MoE 아키텍처와 CISPO, 하이브리드 어텐션 RL 학습을 통해 장문 추론 및 실제 소프트웨어 엔지니어링 작업에서 선도적인 성능을 보입니다.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2는 에이전트 효율성을 재정의한 모델로, 총 2300억 파라미터 중 100억만 활성화되는 컴팩트하고 빠르며 비용 효율적인 MoE 모델입니다. 최상위 수준의 코딩 및 에이전트 작업을 위해 설계되었으며, 강력한 범용 지능을 유지합니다. 활성 파라미터가 100억에 불과함에도 훨씬 더 큰 모델과 경쟁할 수 있어 고효율 응용에 이상적입니다.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3는 6710억 매개변수의 MoE 모델로, MLA와 DeepSeekMoE를 사용하며 손실 없는 부하 분산을 통해 효율적인 추론과 학습을 실현합니다. 14.8조 고품질 토큰으로 사전 학습되었고, SFT 및 RL로 추가 튜닝되어 다른 오픈 모델을 능가하며 상용 모델에 근접한 성능을 보입니다.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905는 최신이자 가장 강력한 Kimi K2 모델입니다. 총 1조, 활성 320억 매개변수를 가진 최상급 MoE 모델로, 에이전트 기반 코딩 지능이 강화되어 벤치마크 및 실제 에이전트 작업에서 큰 성능 향상을 보입니다. 프론트엔드 코드의 미적 품질과 사용성도 개선되었습니다.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo는 추론 속도와 처리량을 최적화한 Turbo 버전으로, K2 Thinking의 다단계 추론 및 도구 사용 능력을 유지합니다. 약 1조 매개변수를 가진 MoE 모델로, 기본 256K 컨텍스트를 지원하며, 대규모 도구 호출이 필요한 실시간 및 동시성 높은 환경에 적합합니다.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7은 Zhipu의 차세대 플래그십 모델로, 총 파라미터 수 355B, 활성 파라미터 수 32B를 갖추고 있으며, 일반 대화, 추론, 에이전트 능력 전반에서 대폭 향상되었습니다. Interleaved Thinking(교차 사고)을 강화하고, Preserved Thinking(보존 사고) 및 Turn-level Thinking(턴 단위 사고)을 도입하였습니다.",
"QwQ-32B-Preview.description": "Qwen QwQ는 추론 능력 향상을 목표로 한 실험적 연구 모델입니다.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview는 복잡한 장면 이해와 시각 수학 문제 해결에 강점을 가진 Qwen의 시각 추론 연구 모델입니다.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ는 AI 추론 능력 향상을 목표로 한 실험적 연구 모델입니다.",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상된 성능을 보이며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 가장 빠른 차세대 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 이전의 최고 모델인 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답 또는 정교한 사고 과정을 세밀하게 제어할 수 있습니다.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 제공합니다. 코딩, 데이터 과학, 비전, 에이전트 작업에 특히 강력합니다.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 사고 능력을 갖추고 있습니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 복잡한 작업을 위한 Anthropic의 가장 강력한 모델로, 성능, 지능, 유창성, 이해력에서 탁월한 결과를 보여줍니다.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic이 지금까지 개발한 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 생성할 수 있습니다.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
@ -317,6 +320,34 @@
"comfyui/stable-diffusion-custom.description": "사용자 정의 SD 텍스트-이미지 생성 모델입니다. 모델 파일명은 custom_sd_lobe.safetensors를 사용하고, VAE가 있다면 custom_sd_vae_lobe.safetensors를 사용하세요. 모델 파일은 Comfy의 지정된 폴더에 배치해야 합니다.",
"comfyui/stable-diffusion-refiner.description": "SDXL 이미지-이미지 모델로, 입력 이미지를 고품질로 변환하며 스타일 전환, 복원, 창의적 변형을 지원합니다.",
"comfyui/stable-diffusion-xl.description": "SDXL은 1024x1024 고해상도 생성을 지원하는 텍스트-이미지 모델로, 향상된 이미지 품질과 세부 묘사를 제공합니다.",
"command-a-03-2025.description": "Command A는 지금까지 가장 강력한 모델로, 도구 사용, 에이전트, RAG, 다국어 시나리오에서 뛰어난 성능을 발휘합니다. 256K 컨텍스트 윈도우를 지원하며, 단 2개의 GPU로 실행 가능하고 Command R+ 08-2024 대비 150% 높은 처리량을 제공합니다.",
"command-light-nightly.description": "주요 릴리스 간의 간격을 줄이기 위해, 매일 업데이트되는 Command 빌드를 제공합니다. command-light 시리즈의 경우 이를 command-light-nightly라고 하며, 가장 최신이자 실험적인(그리고 불안정할 수 있는) 버전입니다. 정기적으로 예고 없이 업데이트되므로, 프로덕션 환경에서는 사용을 권장하지 않습니다.",
"command-light.description": "거의 동일한 성능을 유지하면서도 더 빠른 속도를 제공하는 소형 Command 변형 모델입니다.",
"command-nightly.description": "주요 릴리스 간의 간격을 줄이기 위해, 매일 업데이트되는 Command 빌드를 제공합니다. Command 시리즈의 경우 이를 command-nightly라고 하며, 가장 최신이자 실험적인(그리고 불안정할 수 있는) 버전입니다. 정기적으로 예고 없이 업데이트되므로, 프로덕션 환경에서는 사용을 권장하지 않습니다.",
"command-r-03-2024.description": "Command R은 이전 모델보다 더 높은 품질과 신뢰성, 더 긴 컨텍스트 윈도우를 제공하는 지시문 기반 채팅 모델입니다. 코드 생성, RAG, 도구 사용, 에이전트 등 복잡한 워크플로우를 지원합니다.",
"command-r-08-2024.description": "command-r-08-2024는 2024년 8월에 출시된 Command R 모델의 업데이트 버전입니다.",
"command-r-plus-04-2024.description": "command-r-plus는 command-r-plus-04-2024의 별칭으로, API에서 command-r-plus를 사용하면 해당 모델을 가리킵니다.",
"command-r-plus-08-2024.description": "Command R+는 이전 모델보다 더 높은 품질과 신뢰성, 더 긴 컨텍스트 윈도우를 제공하는 지시문 기반 채팅 모델입니다. 복잡한 RAG 워크플로우와 다단계 도구 사용에 최적화되어 있습니다.",
"command-r-plus.description": "Command R+는 실제 기업 환경과 복잡한 애플리케이션을 위한 고성능 LLM입니다.",
"command-r.description": "Command R은 채팅 및 장문 컨텍스트 작업에 최적화된 LLM으로, 동적인 상호작용과 지식 관리에 이상적입니다.",
"command-r7b-12-2024.description": "command-r7b-12-2024는 2024년 12월에 출시된 소형이면서 효율적인 업데이트 모델입니다. 복잡한 다단계 추론이 필요한 RAG, 도구 사용, 에이전트 작업에 뛰어납니다.",
"command.description": "기본 생성 모델보다 더 높은 품질과 신뢰성을 제공하며, 더 긴 컨텍스트 윈도우를 지원하는 지시문 기반 채팅 모델입니다.",
"computer-use-preview.description": "computer-use-preview는 '컴퓨터 사용 도구'에 특화된 모델로, 컴퓨터 관련 작업을 이해하고 실행하도록 훈련되었습니다.",
"dall-e-2.description": "1세대보다 4배 높은 해상도와 더 사실적이고 정확한 이미지 생성을 지원하는 2세대 DALL·E 모델입니다.",
"dall-e-3.description": "2023년 11월에 출시된 최신 DALL·E 모델로, 더 사실적이고 정밀한 이미지 생성을 지원합니다.",
"databricks/dbrx-instruct.description": "DBRX Instruct는 다양한 산업 분야에서 신뢰도 높은 지시문 처리를 제공합니다.",
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR은 DeepSeek AI에서 개발한 비전-언어 모델로, OCR 및 '문맥 광학 압축'에 중점을 둡니다. 이미지에서 문맥을 압축하고 문서를 효율적으로 처리하여 구조화된 텍스트(예: Markdown)로 변환합니다. 이미지 내 텍스트를 정확하게 인식하여 문서 디지털화, 텍스트 추출, 구조화 처리에 적합합니다.",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B는 DeepSeek-R1-0528의 체인 오브 싱킹을 Qwen3 8B Base에 증류한 모델입니다. AIME 2024에서 Qwen3 8B보다 10% 높은 성능을 기록하며, Qwen3-235B-thinking과 동급의 성능을 보여줍니다. 수학 추론, 프로그래밍, 일반 논리 벤치마크에서 뛰어나며, Qwen3-8B 아키텍처를 공유하면서 DeepSeek-R1-0528 토크나이저를 사용합니다.",
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1은 추가 연산 자원과 사후 학습 알고리즘 최적화를 활용하여 추론 능력을 강화합니다. 수학, 프로그래밍, 일반 논리 벤치마크에서 강력한 성능을 발휘하며, o3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다.",
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 증류 모델은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키고, 새로운 오픈 모델 멀티태스크 벤치마크를 설정합니다.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 증류 모델은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키고, 새로운 오픈 모델 멀티태스크 벤치마크를 설정합니다.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 증류 모델은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키고, 새로운 오픈 모델 멀티태스크 벤치마크를 설정합니다.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B에서 증류되었으며, 80만 개의 DeepSeek-R1 정제 샘플로 미세 조정되었습니다. 수학, 프로그래밍, 추론에서 뛰어난 성능을 보이며, AIME 2024, MATH-500(정확도 94.3%), GPQA Diamond에서 우수한 결과를 기록합니다.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B는 Qwen2.5-Math-7B에서 증류되었으며, 80만 개의 DeepSeek-R1 정제 샘플로 미세 조정되었습니다. MATH-500에서 92.8%, AIME 2024에서 55.5%, CodeForces에서 1189점을 기록하며 7B 모델 중 뛰어난 성능을 보입니다.",
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키며, 새로운 오픈 모델 멀티태스크 벤치마크를 설정하고 OpenAI-o1-mini를 능가합니다.",
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5는 DeepSeek-V2-Chat과 DeepSeek-Coder-V2-Instruct를 업그레이드하여 일반 및 코딩 능력을 통합합니다. 글쓰기 및 지시문 이행 능력을 향상시켜 선호도 정렬을 개선하며, AlpacaEval 2.0, ArenaHard, AlignBench, MT-Bench에서 큰 성능 향상을 보입니다.",
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus는 하이브리드 에이전트 LLM으로 포지셔닝된 V3.1 모델의 업데이트 버전입니다. 사용자 피드백 문제를 해결하고 안정성, 언어 일관성, 중문/영문 혼합 및 비정상 문자 출력을 개선합니다. 사고 및 비사고 모드를 통합하고 채팅 템플릿을 통해 유연하게 전환할 수 있으며, Code Agent 및 Search Agent 성능도 향상되어 도구 사용 및 다단계 작업에서 더 높은 신뢰성을 제공합니다.",
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1은 하이브리드 추론 아키텍처를 사용하며, 사고 모드와 비사고 모드를 모두 지원합니다.",
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
@ -357,7 +388,6 @@
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2는 Microsoft AI의 언어 모델로, 복잡한 대화, 다국어 작업, 추론, 어시스턴트에 뛰어납니다.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B는 Microsoft AI의 가장 진보된 Wizard 모델로, 매우 경쟁력 있는 성능을 제공합니다.",
"minicpm-v.description": "MiniCPM-V는 OpenBMB의 차세대 멀티모달 모델로, 광범위한 사용 사례에 대해 뛰어난 OCR 및 멀티모달 이해력을 제공합니다.",
"minimax-m2.description": "MiniMax M2는 코딩 및 에이전트 워크플로우를 위해 설계된 효율적인 LLM입니다.",
"minimax/minimax-m2.description": "MiniMax-M2는 다양한 엔지니어링 시나리오에서 코딩 및 에이전트 작업에 뛰어난 고가치 모델입니다.",
"minimaxai/minimax-m2.description": "MiniMax-M2는 컴팩트하고 빠르며 비용 효율적인 MoE 모델(총 230B, 활성 10B)로, 다중 파일 편집, 코드 실행-수정 루프, 테스트 검증, 복잡한 툴체인에서 뛰어난 성능을 발휘하며 강력한 일반 지능을 유지합니다.",
"ministral-3b-latest.description": "Ministral 3B는 Mistral의 최고급 엣지 모델입니다.",

View file

@ -29,7 +29,6 @@
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is een groot MoE-model met efficiënte expertactivatie voor sterke redeneercapaciteiten.",
"MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
"MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
"MiniMax-M2.description": "Ontworpen voor efficiënte codeer- en agentworkflows.",
"MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeercapaciteiten, volledig vernieuwde programmeerervaring. Sneller en efficiënter.",
"MiniMax-M2.1.description": "Krachtige meertalige programmeercapaciteiten, volledig vernieuwde programmeerervaring",
"MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows",
"MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is een open-gewichten grootschalig hybrid-attention redeneermodel met 456B totale parameters en ~45,9B actief per token. Het ondersteunt native 1M context en gebruikt Flash Attention om FLOPs met 75% te verminderen bij 100K-token generatie versus DeepSeek R1. Met een MoE-architectuur plus CISPO en hybrid-attention RL-training behaalt het toonaangevende prestaties op lang-input redeneren en echte software engineering-taken.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 herdefinieert agent-efficiëntie. Het is een compact, snel, kosteneffectief MoE-model met 230B totaal en 10B actieve parameters, gebouwd voor topniveau codeer- en agenttaken met behoud van sterke algemene intelligentie. Met slechts 10B actieve parameters evenaart het veel grotere modellen, ideaal voor toepassingen met hoge efficiëntie.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLMs op je eigen computer.",
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick to duży model MoE z efektywną aktywacją ekspertów, zapewniający wysoką wydajność rozumowania.",
"MiniMax-M1.description": "Nowy wewnętrzny model rozumowania z 80 tys. łańcuchów myślowych i 1 mln tokenów wejściowych, oferujący wydajność porównywalną z czołowymi modelami światowymi.",
"MiniMax-M2-Stable.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów, z większą równoległością dla zastosowań komercyjnych.",
"MiniMax-M2.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów.",
"MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania w wielu językach kompleksowe ulepszenie doświadczenia kodowania. Szybciej i wydajniej.",
"MiniMax-M2.1.description": "Potężne możliwości programowania w wielu językach kompleksowe ulepszenie doświadczenia kodowania",
"MiniMax-M2.description": "Stworzony z myślą o wydajnym kodowaniu i przepływach pracy agentów",
"MiniMax-Text-01.description": "MiniMax-01 wprowadza dużą skalę uwagi liniowej wykraczającą poza klasyczne Transformatory, z 456 mld parametrów i 45,9 mld aktywowanych na przebieg. Osiąga najwyższą wydajność i obsługuje do 4 mln tokenów kontekstu (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 to model rozumowania o otwartych wagach, oparty na hybrydowej uwadze, z 456 mld parametrów ogółem i ~45,9 mld aktywnych na token. Natywnie obsługuje kontekst 1 mln tokenów i wykorzystuje Flash Attention, redukując FLOPs o 75% przy generowaniu 100 tys. tokenów w porównaniu do DeepSeek R1. Dzięki architekturze MoE, CISPO i treningowi RL z hybrydową uwagą, osiąga czołowe wyniki w zadaniach rozumowania z długim wejściem i rzeczywistym inżynierii oprogramowania.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefiniuje efektywność agentów. To kompaktowy, szybki i opłacalny model MoE z 230 mld parametrów ogółem i 10 mld aktywnych, zaprojektowany do zadań kodowania i agentowych najwyższej klasy, przy zachowaniu silnej inteligencji ogólnej. Dzięki tylko 10 mld aktywnych parametrów dorównuje znacznie większym modelom, co czyni go idealnym do zastosowań wymagających wysokiej wydajności.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
"mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
"modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick é um modelo MoE de grande porte com ativação eficiente de especialistas para desempenho robusto em raciocínio.",
"MiniMax-M1.description": "Um novo modelo de raciocínio interno com 80 mil cadeias de pensamento e 1 milhão de tokens de entrada, oferecendo desempenho comparável aos principais modelos globais.",
"MiniMax-M2-Stable.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes, com maior concorrência para uso comercial.",
"MiniMax-M2.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes.",
"MiniMax-M2.1-Lightning.description": "Poderosas capacidades de programação multilíngue, com uma experiência de codificação totalmente aprimorada. Mais rápido, mais eficiente.",
"MiniMax-M2.1.description": "Poderosas capacidades de programação multilíngue, com uma experiência de codificação totalmente aprimorada.",
"MiniMax-M2.description": "Projetado para codificação eficiente e fluxos de trabalho com agentes.",
"MiniMax-Text-01.description": "O MiniMax-01 introduz atenção linear em larga escala além dos Transformers clássicos, com 456 bilhões de parâmetros e 45,9 bilhões ativados por passagem. Alcança desempenho de ponta e suporta até 4 milhões de tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 é um modelo de raciocínio com pesos abertos, atenção híbrida em larga escala, com 456 bilhões de parâmetros totais e ~45,9 bilhões ativos por token. Suporta nativamente 1 milhão de tokens de contexto e utiliza Flash Attention para reduzir FLOPs em 75% na geração de 100 mil tokens em comparação com o DeepSeek R1. Com arquitetura MoE, CISPO e treinamento com atenção híbrida via RL, atinge desempenho líder em raciocínio com entradas longas e tarefas reais de engenharia de software.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefine a eficiência de agentes. É um modelo MoE compacto, rápido e econômico com 230 bilhões de parâmetros totais e 10 bilhões ativos, projetado para tarefas de codificação e agentes de alto nível, mantendo forte inteligência geral. Com apenas 10 bilhões de parâmetros ativos, rivaliza com modelos muito maiores, sendo ideal para aplicações de alta eficiência.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 é um modelo MoE com 671 bilhões de parâmetros, utilizando MLA e DeepSeekMoE com balanceamento de carga sem perdas para inferência e treinamento eficientes. Pré-treinado com 14,8 trilhões de tokens de alta qualidade e ajustado com SFT e RL, supera outros modelos abertos e se aproxima dos modelos fechados líderes.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 é o mais novo e poderoso modelo Kimi K2. Trata-se de um modelo MoE de alto nível com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos. Seus principais recursos incluem inteligência de codificação agentica aprimorada, com ganhos significativos em benchmarks e tarefas reais de agentes, além de melhorias na estética e usabilidade da codificação de frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo é a variante Turbo otimizada para velocidade de raciocínio e rendimento, mantendo o raciocínio em múltiplas etapas e o uso de ferramentas do K2 Thinking. É um modelo MoE com aproximadamente 1 trilhão de parâmetros totais, contexto nativo de 256K e chamadas de ferramentas em larga escala estáveis para cenários de produção com exigências mais rigorosas de latência e concorrência.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 é o novo modelo carro-chefe da Zhipu, com 355 bilhões de parâmetros totais e 32 bilhões de parâmetros ativos. Ele traz melhorias abrangentes em diálogo geral, raciocínio e capacidades de agentes. O GLM-4.7 aprimora o Interleaved Thinking (pensamento intercalado), e introduz Preserved Thinking (pensamento preservado) e Turn-level Thinking (pensamento por turno).",
"QwQ-32B-Preview.description": "Qwen QwQ é um modelo de pesquisa experimental focado em aprimorar o raciocínio.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview é um modelo de pesquisa da Qwen focado em raciocínio visual, com pontos fortes em compreensão de cenas complexas e problemas visuais de matemática.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ é um modelo de pesquisa experimental focado em aprimorar o raciocínio da IA.",
@ -268,21 +271,55 @@
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
"claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o modelo principal anterior, Claude 3 Opus, em muitos benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o modelo anterior Claude 3 Opus em muitos testes de inteligência.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento estendido com controle refinado.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas com agentes.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e pensamento estendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou pensamento passo a passo estendido com controle refinado para usuários de API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou raciocínios passo a passo com processo visível.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
"codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
"codegemma.description": "CodeGemma é um modelo leve para tarefas variadas de programação, permitindo iteração rápida e fácil integração.",
"codegemma:2b.description": "CodeGemma é um modelo leve para tarefas variadas de programação, permitindo iteração rápida e fácil integração.",
"codellama.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
"codellama:13b.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
"codellama:34b.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
"codellama:70b.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
"codeqwen.description": "CodeQwen1.5 é um modelo de linguagem grande treinado com uma ampla base de dados de código, projetado para tarefas complexas de programação.",
"codestral-latest.description": "Codestral é nosso modelo de codificação mais avançado; a versão v2 (jan 2025) é voltada para tarefas de baixa latência e alta frequência como FIM, correção de código e geração de testes.",
"codestral.description": "Codestral é o primeiro modelo de código da Mistral AI, oferecendo suporte robusto à geração de código.",
"codex-mini-latest.description": "codex-mini-latest é um modelo o4-mini ajustado para o Codex CLI. Para uso direto via API, recomendamos começar com o gpt-4.1.",
"cogito-2.1:671b.description": "Cogito v2.1 671B é um modelo de linguagem grande de código aberto dos EUA, gratuito para uso comercial, com desempenho comparável aos melhores modelos, maior eficiência de raciocínio por token, contexto longo de 128k e capacidade geral robusta.",
"cogview-4.description": "CogView-4 é o primeiro modelo de texto para imagem de código aberto da Zhipu que pode gerar caracteres chineses. Ele melhora a compreensão semântica, a qualidade da imagem e a renderização de texto em chinês/inglês, suporta prompts bilíngues de qualquer comprimento e pode gerar imagens em qualquer resolução dentro de faixas especificadas.",
"cohere-command-r-plus.description": "Command R+ é um modelo avançado otimizado para RAG, desenvolvido para cargas de trabalho empresariais.",
"cohere-command-r.description": "Command R é um modelo generativo escalável projetado para uso com RAG e ferramentas, permitindo IA em nível de produção.",
"cohere/Cohere-command-r-plus.description": "Command R+ é um modelo avançado otimizado para RAG, desenvolvido para cargas de trabalho empresariais.",
"cohere/Cohere-command-r.description": "Command R é um modelo generativo escalável projetado para uso com RAG e ferramentas, permitindo IA em nível de produção.",
"cohere/command-a.description": "Command A é o modelo mais poderoso da Cohere até o momento, com excelência no uso de ferramentas, agentes, RAG e casos de uso multilíngues. Possui janela de contexto de 256K, roda em apenas duas GPUs e oferece 150% mais rendimento que o Command R+ 08-2024.",
"cohere/command-r-plus.description": "Command R+ é o mais recente LLM da Cohere, otimizado para chat e contexto longo, visando desempenho excepcional para que empresas avancem de protótipos para produção.",
"cohere/command-r.description": "Command R é otimizado para tarefas de chat e contexto longo, posicionado como um modelo “escalável” que equilibra alto desempenho e precisão, permitindo que empresas avancem de protótipos para produção.",
"cohere/embed-v4.0.description": "Um modelo que classifica ou converte texto, imagens ou conteúdo misto em embeddings.",
"comfyui/flux-dev.description": "FLUX.1 Dev é um modelo de texto para imagem de alta qualidade (1050 etapas), ideal para resultados criativos e artísticos premium.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev é um modelo de edição de imagem que permite edições guiadas por texto, incluindo edições locais e transferência de estilo.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev é um modelo de texto para imagem com filtros de segurança integrados, co-desenvolvido com a Krea.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell é um modelo de texto para imagem ultrarrápido que gera imagens de alta qualidade em 14 etapas, ideal para uso em tempo real e prototipagem rápida.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 é um modelo clássico de texto para imagem 512x512, ideal para prototipagem rápida e experimentos criativos.",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 com codificadores CLIP/T5 integrados, não requer arquivos de codificador externos, adequado para modelos como sd3.5_medium_incl_clips com menor uso de recursos.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 é um modelo de texto para imagem de nova geração com variantes Large e Medium. Requer arquivos de codificador CLIP externos e oferece excelente qualidade de imagem e aderência ao prompt.",
"comfyui/stable-diffusion-custom-refiner.description": "Modelo personalizado SDXL de imagem para imagem. Use custom_sd_lobe.safetensors como nome do arquivo do modelo; se tiver um VAE, use custom_sd_vae_lobe.safetensors. Coloque os arquivos do modelo nas pastas exigidas pelo Comfy.",
"comfyui/stable-diffusion-custom.description": "Modelo personalizado SD de texto para imagem. Use custom_sd_lobe.safetensors como nome do arquivo do modelo; se tiver um VAE, use custom_sd_vae_lobe.safetensors. Coloque os arquivos do modelo nas pastas exigidas pelo Comfy.",
"comfyui/stable-diffusion-refiner.description": "Modelo SDXL de imagem para imagem que realiza transformações de alta qualidade a partir de imagens de entrada, com suporte a transferência de estilo, restauração e variações criativas.",
"comfyui/stable-diffusion-xl.description": "SDXL é um modelo de texto para imagem que suporta geração em alta resolução 1024x1024 com melhor qualidade de imagem e detalhes.",
"meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
"mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
"mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
"jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
"lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
"lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
"minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
"mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
"modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick — это крупная модель MoE с эффективной активацией экспертов для высокой производительности в логических задачах.",
"MiniMax-M1.description": "Новая внутренняя модель рассуждений с поддержкой 80K цепочек размышлений и 1M входных токенов, обеспечивающая производительность на уровне ведущих мировых моделей.",
"MiniMax-M2-Stable.description": "Создана для эффективного программирования и работы агентов, с повышенной параллельностью для коммерческого использования.",
"MiniMax-M2.description": "Создана для эффективного программирования и работы агентов.",
"MiniMax-M2.1-Lightning.description": "Мощные возможности многозадачного программирования, полностью обновлённый опыт кодирования. Быстрее и эффективнее.",
"MiniMax-M2.1.description": "Мощные возможности многозадачного программирования, полностью обновлённый опыт кодирования",
"MiniMax-M2.description": "Создан для эффективного программирования и рабочих процессов с агентами",
"MiniMax-Text-01.description": "MiniMax-01 представляет масштабное линейное внимание, выходящее за рамки классических трансформеров, с 456B параметрами и 45.9B активируемыми за проход. Обеспечивает производительность высшего уровня и поддерживает до 4M токенов контекста (в 32 раза больше GPT-4o, в 20 раз больше Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 — это модель рассуждений с открытыми весами, использующая гибридное внимание, с общим числом параметров 456B и ~45.9B активных на токен. Поддерживает 1M контекста и использует Flash Attention для снижения FLOPs на 75% при генерации 100K токенов по сравнению с DeepSeek R1. Благодаря архитектуре MoE, CISPO и обучению с подкреплением на гибридном внимании достигает лидирующих результатов в задачах рассуждения на длинных входах и реальных инженерных задачах.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 переопределяет эффективность агентов. Это компактная, быстрая и экономичная модель MoE с 230B общих и 10B активных параметров, созданная для задач программирования и агентов высшего уровня при сохранении сильного общего интеллекта. Имея всего 10B активных параметров, она сопоставима с гораздо более крупными моделями, что делает её идеальной для высокоэффективных приложений.",
@ -268,20 +270,15 @@
"chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
"claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по всем навыкам и превосходящая предыдущий флагман Claude 3 Opus на многих бенчмарках.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, поддерживающая как мгновенные ответы, так и длительное размышление с тонкой настройкой.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, с молниеносной скоростью и расширенным мышлением.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 — самая интеллектуальная модель от Anthropic на сегодняшний день, предлагающая мгновенные ответы или пошаговое рассуждение с тонкой настройкой для пользователей API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
"jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
"lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
"lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
"minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
"mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
"modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick, güçlü akıl yürütme performansı için verimli uzman etkinleştirme sunan büyük bir MoE modelidir.",
"MiniMax-M1.description": "80K düşünce zinciri ve 1M giriş desteğiyle üst düzey modellerle karşılaştırılabilir performans sunan yeni bir yerli akıl yürütme modeli.",
"MiniMax-M2-Stable.description": "Ticari kullanım için daha yüksek eşzamanlılık sunan, verimli kodlama ve ajan iş akışları için tasarlanmıştır.",
"MiniMax-M2.description": "Verimli kodlama ve ajan iş akışları için tasarlanmıştır.",
"MiniMax-M2.1-Lightning.description": "Güçlü çok dilli programlama yetenekleriyle programlama deneyimini tamamen yeniler. Daha hızlı, daha verimli.",
"MiniMax-M2.1.description": "Güçlü çok dilli programlama yetenekleriyle programlama deneyimini tamamen yeniler",
"MiniMax-M2.description": "Verimli kodlama ve Agent iş akışları için özel olarak tasarlandı",
"MiniMax-Text-01.description": "MiniMax-01, klasik Dönüştürücüler ötesinde büyük ölçekli doğrusal dikkat sunar. 456B parametreye ve geçiş başına 45.9B etkin parametreye sahiptir. Üst düzey performans sunar ve 4M bağlam (32× GPT-4o, 20× Claude-3.5-Sonnet) destekler.",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1, 456B toplam parametreye ve token başına yaklaşık 45.9B etkin parametreye sahip açık ağırlıklı büyük ölçekli karma dikkatli bir akıl yürütme modelidir. Doğal olarak 1M bağlamı destekler ve 100K-token üretiminde FLOPları %75 azaltmak için Flash Attention kullanır. MoE mimarisi, CISPO ve karma dikkatli RL eğitimi ile uzun girişli akıl yürütme ve gerçek yazılım mühendisliği görevlerinde lider performans sunar.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2, ajan verimliliğini yeniden tanımlar. 230B toplam ve 10B etkin parametreye sahip kompakt, hızlı ve maliyet etkin bir MoE modelidir. Üst düzey kodlama ve ajan görevleri için tasarlanmıştır ve güçlü genel zekayı korur. Sadece 10B etkin parametreyle çok daha büyük modellerle rekabet eder, bu da onu yüksek verimlilik uygulamaları için ideal kılar.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3, 671B parametreli bir MoE modelidir. MLA ve DeepSeekMoE kullanır, kayıpsız yük dengelemesiyle verimli çıkarım ve eğitim sağlar. 14.8T yüksek kaliteli token ile önceden eğitilmiş, SFT ve RL ile daha da ayarlanmıştır. Diğer açık modelleri geride bırakır ve önde gelen kapalı modellere yaklaşır.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905, en yeni ve en güçlü Kimi K2 modelidir. 1T toplam ve 32B aktif parametreye sahip üst düzey bir MoE modelidir. Temel özellikleri arasında, kıyaslama testlerinde ve gerçek dünya ajan görevlerinde önemli kazanımlar sağlayan daha güçlü ajan kodlama zekası, geliştirilmiş ön yüz kodlama estetiği ve kullanılabilirlik yer alır.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo, K2 Thinkingin çok adımlı akıl yürütme ve araç kullanımı yeteneklerini korurken, akıl yürütme hızı ve işlem hacmi için optimize edilmiş Turbo varyantıdır. Yaklaşık 1T toplam parametreye sahip bir MoE modelidir, yerel olarak 256K bağlamı destekler ve üretim senaryoları için kararlı büyük ölçekli araç çağrısı sağlar; düşük gecikme ve yüksek eşzamanlılık gereksinimlerini karşılar.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7, Zhipu'nun yeni nesil amiral gemisi modelidir. Toplam 355 milyar parametreye ve 32 milyar aktif parametreye sahiptir. Genel diyalog, akıl yürütme ve yapay zeka yeteneklerinde kapsamlı bir yükseltme sunar. GLM-4.7, Interleaved Thinking (Karma Düşünme) yeteneğini geliştirir, ayrıca Preserved Thinking (Korunan Düşünme) ve Turn-level Thinking (Tur Bazlı Düşünme) özelliklerini tanıtır.",
"QwQ-32B-Preview.description": "Qwen QwQ, akıl yürütme yeteneğini geliştirmeye odaklanan deneysel bir araştırma modelidir.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview, karmaşık sahne anlama ve görsel matematik problemlerinde güçlü olan görsel akıl yürütmeye odaklanan Qwen araştırma modelidir.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ, geliştirilmiş yapay zeka akıl yürütmesine odaklanan deneysel bir araştırma modelidir.",
@ -268,20 +271,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
"claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
"claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropicin en hızlı yeni nesil modelidir; birçok kıyaslamada önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropicin en hızlı yeni nesil modelidir. Claude 3 Haikuya kıyasla tüm becerilerde gelişme gösterir ve birçok zeka testinde önceki en büyük model olan Claude 3 Opusu geride bırakır.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropicin en zeki modelidir ve piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçleriyle ince ayar kontrolü sunar.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropicin en zeki modelidir ve piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların adım adım görebileceği şekilde detaylı akıl yürütme sunabilir. Sonnet, özellikle kodlama, veri bilimi, görsel analiz ve yapay zeka görevlerinde güçlüdür.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropicin en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropicin en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropicin en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropicin en hızlı ve en zeki Haiku modelidir; yıldırım hızında yanıtlar ve derin düşünme sunar.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropicin en hızlı ve en akıllı Haiku modelidir. Yıldırım hızında yanıtlar ve gelişmiş akıl yürütme sunar.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropicin en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropicin en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropicin en güçlü modelidir. Performans, zeka, akıcılık ve anlama açısından üst düzeydir.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropicin amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropicin bugüne kadarki en zeki modelidir; API kullanıcıları için ayrıntılı kontrolle anında yanıtlar veya adım adım düşünme sunar.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya adım adım düşünme süreciyle görünür şekilde detaylı akıl yürütme sunabilir.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropicin bugüne kadarki en zeki modelidir.",
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
@ -296,6 +299,42 @@
"codestral-latest.description": "Codestral, en gelişmiş kodlama modelimizdir; v2 (Ocak 2025), FIM, kod düzeltme ve test üretimi gibi düşük gecikmeli, yüksek frekanslı görevleri hedefler.",
"codestral.description": "Codestral, Mistral AInin ilk kod modelidir ve güçlü kod üretim desteği sunar.",
"codex-mini-latest.description": "codex-mini-latest, Codex CLI için ince ayarlanmış bir o4-mini modelidir. Doğrudan API kullanımı için gpt-4.1 ile başlamanız önerilir.",
"cogito-2.1:671b.description": "Cogito v2.1 671B, ticari kullanıma açık ABD menşeli açık kaynaklı bir büyük dil modelidir. Önde gelen modellerle rekabet eden performansa, daha yüksek token akıl yürütme verimliliğine, 128k uzun bağlam desteğine ve güçlü genel yeteneklere sahiptir.",
"cogview-4.description": "CogView-4, Zhipunun Çince karakter üretebilen ilk açık kaynaklı metinden-görüntüye modelidir. Anlamsal anlama, görüntü kalitesi ve Çince/İngilizce metin işleme konularında gelişmeler sunar. Her uzunlukta iki dilli istemleri destekler ve belirtilen aralıklarda herhangi bir çözünürlükte görüntü üretebilir.",
"cohere-command-r-plus.description": "Command R+, kurumsal iş yükleri için optimize edilmiş gelişmiş bir RAG modelidir.",
"cohere-command-r.description": "Command R, üretim düzeyinde yapay zeka sağlayan, RAG ve araç kullanımı için tasarlanmış ölçeklenebilir bir üretici modeldir.",
"cohere/Cohere-command-r-plus.description": "Command R+, kurumsal iş yükleri için optimize edilmiş gelişmiş bir RAG modelidir.",
"cohere/Cohere-command-r.description": "Command R, üretim düzeyinde yapay zeka sağlayan, RAG ve araç kullanımı için tasarlanmış ölçeklenebilir bir üretici modeldir.",
"cohere/command-a.description": "Command A, Coherein şimdiye kadarki en güçlü modelidir. Araç kullanımı, yapay zeka ajanları, RAG ve çok dilli senaryolarda üstündür. 256K bağlam uzunluğuna sahiptir, yalnızca iki GPU üzerinde çalışır ve Command R+ 08-2024e göre %150 daha yüksek verim sunar.",
"cohere/command-r-plus.description": "Command R+, sohbet ve uzun bağlam için optimize edilmiş Coherein en yeni büyük dil modelidir. Şirketlerin prototip aşamasını geçip üretime geçmesini sağlamak için olağanüstü performans hedeflenmiştir.",
"cohere/command-r.description": "Command R, sohbet ve uzun bağlam görevleri için optimize edilmiştir. Yüksek performans ve doğruluk arasında denge kurarak şirketlerin prototipten üretime geçmesini sağlar.",
"cohere/embed-v4.0.description": "Metin, görsel veya karışık içerikleri gömülere dönüştüren veya sınıflandıran bir modeldir.",
"comfyui/flux-dev.description": "FLUX.1 Dev, yüksek kaliteli metinden-görüntüye modelidir (1050 adım), yaratıcı ve sanatsal çıktılar için idealdir.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev, metinle yönlendirilen düzenlemeleri destekleyen bir görüntü düzenleme modelidir. Yerel düzenlemeler ve stil aktarımı gibi işlemleri destekler.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev, Krea ile birlikte geliştirilen güvenlik artırılmış bir metinden-görüntüye modelidir. Dahili güvenlik filtrelerine sahiptir.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell, 1-4 adımda yüksek kaliteli görüntüler üreten ultra hızlı bir metinden-görüntüye modelidir. Gerçek zamanlı kullanım ve hızlı prototipleme için idealdir.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5, 512x512 çözünürlükte klasik bir metinden-görüntüye modelidir. Hızlı prototipleme ve yaratıcı deneyler için uygundur.",
"comfyui/stable-diffusion-35-inclclip.description": "Dahili CLIP/T5 kodlayıcılarıyla gelen Stable Diffusion 3.5, harici kodlayıcı dosyalarına ihtiyaç duymaz. Daha az kaynak kullanımıyla sd3.5_medium_incl_clips gibi modeller için uygundur.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5, Büyük ve Orta varyantlarıyla yeni nesil bir metinden-görüntüye modelidir. Harici CLIP kodlayıcı dosyaları gerektirir ve mükemmel görüntü kalitesi ile istem uyumu sunar.",
"comfyui/stable-diffusion-custom-refiner.description": "Özel SDXL görüntüden-görüntüye modeli. Model dosya adı olarak custom_sd_lobe.safetensors kullanın; VAE varsa custom_sd_vae_lobe.safetensors kullanın. Model dosyalarını gerekli Comfy klasörlerine yerleştirin.",
"comfyui/stable-diffusion-custom.description": "Özel SD metinden-görüntüye modeli. Model dosya adı olarak custom_sd_lobe.safetensors kullanın; VAE varsa custom_sd_vae_lobe.safetensors kullanın. Model dosyalarını gerekli Comfy klasörlerine yerleştirin.",
"comfyui/stable-diffusion-refiner.description": "SDXL görüntüden-görüntüye modeli, giriş görüntülerinden yüksek kaliteli dönüşümler gerçekleştirir. Stil aktarımı, restorasyon ve yaratıcı varyasyonları destekler.",
"comfyui/stable-diffusion-xl.description": "SDXL, 1024x1024 yüksek çözünürlükte görüntü üretimini destekleyen bir metinden-görüntüye modelidir. Daha iyi görüntü kalitesi ve detay sunar.",
"command-a-03-2025.description": "Command A, şimdiye kadarki en yetenekli modelimizdir. Araç kullanımı, yapay zeka ajanları, RAG ve çok dilli senaryolarda üstündür. 256K bağlam penceresine sahiptir, yalnızca iki GPU üzerinde çalışır ve Command R+ 08-2024e göre %150 daha yüksek verim sunar.",
"command-light-nightly.description": "Büyük sürümler arasındaki boşluğu azaltmak için her gece güncellenen Command sürümleri sunuyoruz. command-light serisi için bu sürüm command-light-nightly olarak adlandırılır. En yeni, en deneysel (ve potansiyel olarak kararsız) sürümdür. Düzenli olarak bildirim yapılmadan güncellenir, bu nedenle üretim ortamlarında önerilmez.",
"command-light.description": "Neredeyse aynı yetenekte ancak daha hızlı olan daha küçük ve hızlı bir Command varyantı.",
"command-nightly.description": "Büyük sürümler arasındaki boşluğu azaltmak için her gece güncellenen Command sürümleri sunuyoruz. Command serisi için bu sürüm command-nightly olarak adlandırılır. En yeni, en deneysel (ve potansiyel olarak kararsız) sürümdür. Düzenli olarak bildirim yapılmadan güncellenir, bu nedenle üretim ortamlarında önerilmez.",
"command-r-03-2024.description": "Command R, önceki modellere göre daha yüksek kalite, daha fazla güvenilirlik ve daha uzun bağlam penceresi sunan bir talimat izleme sohbet modelidir. Kod üretimi, RAG, araç kullanımı ve yapay zeka ajanları gibi karmaşık iş akışlarını destekler.",
"command-r-08-2024.description": "command-r-08-2024, Ağustos 2024te yayınlanan güncellenmiş bir Command R modelidir.",
"command-r-plus-04-2024.description": "command-r-plus, command-r-plus-04-2024ün takma adıdır. APIde command-r-plus kullanıldığında bu modele yönlendirilir.",
"command-r-plus-08-2024.description": "Command R+, önceki modellere göre daha yüksek kalite, daha fazla güvenilirlik ve daha uzun bağlam penceresi sunan bir talimat izleme sohbet modelidir. Karmaşık RAG iş akışları ve çok adımlı araç kullanımı için en uygunudur.",
"command-r-plus.description": "Command R+, gerçek kurumsal senaryolar ve karmaşık uygulamalar için tasarlanmış yüksek performanslı bir büyük dil modelidir.",
"command-r.description": "Command R, sohbet ve uzun bağlam görevleri için optimize edilmiş bir büyük dil modelidir. Dinamik etkileşim ve bilgi yönetimi için idealdir.",
"command-r7b-12-2024.description": "command-r7b-12-2024, Aralık 2024te yayınlanan küçük ve verimli bir güncellemedir. RAG, araç kullanımı ve çok adımlı akıl yürütme gerektiren ajan görevlerinde üstündür.",
"command.description": "Dil görevlerinde daha yüksek kalite ve güvenilirlik sunan, temel üretici modellerimize göre daha uzun bağlam penceresine sahip bir talimat izleme sohbet modelidir.",
"computer-use-preview.description": "computer-use-preview, \"bilgisayar kullanımı aracı\" için özel olarak eğitilmiş, bilgisayarla ilgili görevleri anlama ve yürütme yeteneğine sahip bir modeldir.",
"dall-e-2.description": "İkinci nesil DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi sunar. İlk nesle göre 4 kat daha yüksek çözünürlük sağlar.",
"dall-e-3.description": "Kasım 2023te yayınlanan en yeni DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi sunar. Detaylarda daha güçlüdür.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
"mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
"mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
"jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
"lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
"lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
"minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
"mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
"modelscope.description": "ModelScope, Alibaba Cloudun model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick là một mô hình MoE lớn với kích hoạt chuyên gia hiệu quả, mang lại hiệu suất suy luận mạnh mẽ.",
"MiniMax-M1.description": "Mô hình suy luận nội bộ mới với 80K chuỗi suy nghĩ và đầu vào 1M, đạt hiệu suất tương đương các mô hình hàng đầu toàn cầu.",
"MiniMax-M2-Stable.description": "Được xây dựng cho lập trình hiệu quả và quy trình tác tử, với khả năng đồng thời cao hơn cho mục đích thương mại.",
"MiniMax-M2.description": "Được xây dựng cho lập trình hiệu quả và quy trình tác tử.",
"MiniMax-M2.1-Lightning.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, nâng cấp toàn diện trải nghiệm lập trình. Nhanh hơn, hiệu quả hơn.",
"MiniMax-M2.1.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, nâng cấp toàn diện trải nghiệm lập trình",
"MiniMax-M2.description": "Được thiết kế đặc biệt cho lập trình hiệu quả và quy trình làm việc của Agent",
"MiniMax-Text-01.description": "MiniMax-01 giới thiệu cơ chế chú ý tuyến tính quy mô lớn vượt ra ngoài Transformer cổ điển, với 456B tham số và 45.9B được kích hoạt mỗi lượt. Mô hình đạt hiệu suất hàng đầu và hỗ trợ ngữ cảnh lên đến 4M token (gấp 32 lần GPT-4o, 20 lần Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 là mô hình suy luận quy mô lớn với trọng số mở, sử dụng kiến trúc chú ý lai với tổng 456B tham số và khoảng 45.9B được kích hoạt mỗi token. Mô hình hỗ trợ ngữ cảnh 1M gốc và sử dụng Flash Attention để giảm 75% FLOPs khi tạo 100K token so với DeepSeek R1. Với kiến trúc MoE cùng CISPO và huấn luyện RL chú ý lai, mô hình đạt hiệu suất hàng đầu trong suy luận đầu vào dài và các tác vụ kỹ thuật phần mềm thực tế.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 định nghĩa lại hiệu quả của tác tử. Đây là mô hình MoE nhỏ gọn, nhanh, tiết kiệm chi phí với tổng 230B và 10B tham số hoạt động, được xây dựng cho các tác vụ lập trình và tác tử hàng đầu trong khi vẫn giữ được trí tuệ tổng quát mạnh mẽ. Với chỉ 10B tham số hoạt động, mô hình có thể cạnh tranh với các mô hình lớn hơn nhiều, lý tưởng cho các ứng dụng hiệu suất cao.",
@ -101,6 +103,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 là mô hình MoE với 671B tham số, sử dụng MLA và DeepSeekMoE với cân bằng tải không mất mát để suy luận và huấn luyện hiệu quả. Được huấn luyện sơ bộ trên 14.8T token chất lượng cao và tinh chỉnh thêm bằng SFT và RL, nó vượt trội hơn các mô hình mã nguồn mở khác và tiệm cận các mô hình đóng hàng đầu.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh nhất của Kimi K2. Đây là mô hình MoE hàng đầu với tổng 1T và 32B tham số đang hoạt động. Các tính năng chính bao gồm trí tuệ lập trình đại lý mạnh hơn với cải tiến đáng kể trên các điểm chuẩn và tác vụ đại lý thực tế, cùng với thẩm mỹ và khả năng sử dụng mã giao diện người dùng được cải thiện.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo là biến thể Turbo được tối ưu hóa cho tốc độ suy luận và thông lượng trong khi vẫn giữ khả năng suy luận nhiều bước và sử dụng công cụ của K2 Thinking. Đây là mô hình MoE với khoảng 1T tham số, hỗ trợ ngữ cảnh gốc 256K và gọi công cụ quy mô lớn ổn định cho các tình huống sản xuất có yêu cầu nghiêm ngặt về độ trễ và đồng thời.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 là mô hình hàng đầu thế hệ mới của Zhipu, với tổng số tham số 355 tỷ và 32 tỷ tham số kích hoạt. Mô hình được nâng cấp toàn diện về đối thoại tổng quát, suy luận và năng lực tác tử. GLM-4.7 tăng cường khả năng Tư duy Đan xen (Interleaved Thinking), đồng thời giới thiệu Tư duy Bảo lưu (Preserved Thinking) và Tư duy theo lượt (Turn-level Thinking).",
"QwQ-32B-Preview.description": "Qwen QwQ là một mô hình nghiên cứu thử nghiệm tập trung vào việc cải thiện khả năng suy luận.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview là một mô hình nghiên cứu từ Qwen tập trung vào suy luận thị giác, nổi bật trong việc hiểu các cảnh phức tạp và giải các bài toán thị giác.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ là một mô hình nghiên cứu thử nghiệm tập trung vào việc nâng cao khả năng suy luận của AI.",
@ -247,6 +250,54 @@
"anthropic/claude-opus-4.description": "Opus 4 là mô hình hàng đầu của Anthropic được thiết kế cho các tác vụ phức tạp và ứng dụng doanh nghiệp.",
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 là mô hình suy luận lai mới nhất của Anthropic, được tối ưu hóa cho suy luận phức tạp và mã hóa.",
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 là mô hình suy luận lai của Anthropic với khả năng tư duy và không tư duy kết hợp.",
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B là một mô hình ngôn ngữ lớn dạng thưa với 72 tỷ tham số tổng và 16 tỷ tham số kích hoạt, dựa trên kiến trúc MoE nhóm (MoGE). Nó nhóm các chuyên gia trong quá trình lựa chọn và giới hạn số token để kích hoạt số chuyên gia bằng nhau trong mỗi nhóm, giúp cân bằng tải và nâng cao hiệu quả triển khai trên Ascend.",
"aya.description": "Aya 23 là mô hình đa ngôn ngữ của Cohere, hỗ trợ 23 ngôn ngữ cho nhiều tình huống sử dụng khác nhau.",
"aya:35b.description": "Aya 23 là mô hình đa ngôn ngữ của Cohere, hỗ trợ 23 ngôn ngữ cho nhiều tình huống sử dụng khác nhau.",
"azure-DeepSeek-R1-0528.description": "Triển khai bởi Microsoft; DeepSeek R1 đã được nâng cấp thành DeepSeek-R1-0528. Bản cập nhật tăng cường tính toán và tối ưu hóa thuật toán hậu huấn luyện, cải thiện đáng kể độ sâu suy luận và khả năng suy diễn. Mô hình thể hiện mạnh mẽ trong các bài kiểm tra toán học, lập trình và logic tổng quát, tiệm cận các mô hình hàng đầu như O3 và Gemini 2.5 Pro.",
"baichuan-m2-32b.description": "Baichuan M2 32B là mô hình MoE từ Baichuan Intelligence với khả năng suy luận mạnh mẽ.",
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B là mô hình mã nguồn mở với 13 tỷ tham số, có thể sử dụng thương mại từ Baichuan, đạt kết quả hàng đầu trong phân khúc trên các bài kiểm tra tiếng Trung và tiếng Anh uy tín.",
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B là mô hình MoE của Baidu với 300 tỷ tham số tổng và 47 tỷ tham số kích hoạt mỗi token, cân bằng giữa hiệu suất mạnh mẽ và hiệu quả tính toán. Là mô hình cốt lõi của ERNIE 4.5, nó xuất sắc trong hiểu ngôn ngữ, sinh văn bản, suy luận và lập trình. Mô hình sử dụng phương pháp tiền huấn luyện MoE đa phương thức dị thể với huấn luyện kết hợp văn bản-hình ảnh để tăng cường năng lực tổng thể, đặc biệt là khả năng tuân thủ hướng dẫn và kiến thức thế giới.",
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview là mô hình ERNIE đa phương thức thế hệ mới của Baidu, mạnh mẽ trong hiểu đa phương thức, tuân thủ hướng dẫn, sáng tạo, hỏi đáp thực tế và gọi công cụ.",
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro là phiên bản nâng cấp nhanh hơn của FLUX Pro với chất lượng hình ảnh xuất sắc và khả năng tuân thủ prompt tốt.",
"black-forest-labs/flux-dev.description": "FLUX Dev là phiên bản phát triển của FLUX dành cho mục đích phi thương mại.",
"black-forest-labs/flux-pro.description": "FLUX Pro là mô hình FLUX chuyên nghiệp cho đầu ra hình ảnh chất lượng cao.",
"black-forest-labs/flux-schnell.description": "FLUX Schnell là mô hình tạo ảnh nhanh được tối ưu hóa cho tốc độ.",
"c4ai-aya-expanse-32b.description": "Aya Expanse là mô hình đa ngôn ngữ hiệu suất cao với 32 tỷ tham số, sử dụng tinh chỉnh theo hướng dẫn, phân bổ dữ liệu, huấn luyện theo sở thích và hợp nhất mô hình để cạnh tranh với các mô hình đơn ngữ. Hỗ trợ 23 ngôn ngữ.",
"c4ai-aya-expanse-8b.description": "Aya Expanse là mô hình đa ngôn ngữ hiệu suất cao với 8 tỷ tham số, sử dụng tinh chỉnh theo hướng dẫn, phân bổ dữ liệu, huấn luyện theo sở thích và hợp nhất mô hình để cạnh tranh với các mô hình đơn ngữ. Hỗ trợ 23 ngôn ngữ.",
"c4ai-aya-vision-32b.description": "Aya Vision là mô hình đa phương thức tiên tiến với hiệu suất mạnh mẽ trên các bài kiểm tra ngôn ngữ, văn bản và hình ảnh. Hỗ trợ 23 ngôn ngữ. Phiên bản 32B tập trung vào hiệu suất đa ngôn ngữ hàng đầu.",
"c4ai-aya-vision-8b.description": "Aya Vision là mô hình đa phương thức tiên tiến với hiệu suất mạnh mẽ trên các bài kiểm tra ngôn ngữ, văn bản và hình ảnh. Phiên bản 8B tập trung vào độ trễ thấp và hiệu suất mạnh mẽ.",
"charglm-3.description": "CharGLM-3 được xây dựng cho nhập vai và đồng hành cảm xúc, hỗ trợ bộ nhớ nhiều lượt siêu dài và đối thoại cá nhân hóa.",
"charglm-4.description": "CharGLM-4 được xây dựng cho nhập vai và đồng hành cảm xúc, hỗ trợ bộ nhớ nhiều lượt siêu dài và đối thoại cá nhân hóa.",
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ tiếp theo nhanh nhất của Anthropic. So với Claude 3 Haiku, nó cải thiện toàn diện các kỹ năng và vượt qua mô hình lớn nhất trước đó Claude 3 Opus trên nhiều bài kiểm tra trí tuệ.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình suy luận lai đầu tiên trên thị trường. Nó có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng mà người dùng có thể quan sát.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng suy luận mở rộng.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
"codegemma.description": "CodeGemma là mô hình nhẹ cho các tác vụ lập trình đa dạng, cho phép lặp lại nhanh và tích hợp dễ dàng.",
"codegemma:2b.description": "CodeGemma là mô hình nhẹ cho các tác vụ lập trình đa dạng, cho phép lặp lại nhanh và tích hợp dễ dàng.",
"codellama.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
"codellama:13b.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
"codellama:34b.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
"codellama:70b.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
"codeqwen.description": "CodeQwen1.5 là mô hình ngôn ngữ lớn được huấn luyện trên dữ liệu mã phong phú, được xây dựng cho các tác vụ lập trình phức tạp.",
"codestral-latest.description": "Codestral là mô hình lập trình tiên tiến nhất của chúng tôi; phiên bản v2 (tháng 1 năm 2025) nhắm đến các tác vụ tần suất cao, độ trễ thấp như FIM, sửa mã và sinh bài kiểm tra.",
"codestral.description": "Codestral là mô hình lập trình đầu tiên của Mistral AI, cung cấp hỗ trợ sinh mã mạnh mẽ.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
"lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
"mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
"modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,采用高效专家激活机制,具备强大的推理能力。",
"MiniMax-M1.description": "一款全新自研推理模型,支持 80K 思维链和 100 万输入,性能媲美全球顶尖模型。",
"MiniMax-M2-Stable.description": "专为高效编程与智能体工作流打造,具备更高并发能力,适用于商业场景。",
"MiniMax-M2.description": "专为高效编程与智能体工作流打造。",
"MiniMax-M2.1-Lightning.description": "强大的多语言编程能力,全面升级编程体验。更快、更高效。",
"MiniMax-M2.1.description": "强大的多语言编程能力,全面升级编程体验",
"MiniMax-M2.description": "专为高效编码与智能体工作流打造",
"MiniMax-Text-01.description": "MiniMax-01 引入超越传统 Transformer 的大规模线性注意力机制,拥有 4560 亿参数,每次激活 459 亿,支持最长 400 万上下文(为 GPT-4o 的 32 倍Claude-3.5-Sonnet 的 20 倍),性能顶尖。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 是一款开源权重的大规模混合注意力推理模型,总参数 4560 亿,每个 token 激活约 459 亿。原生支持 100 万上下文,使用 Flash Attention在生成 10 万 token 时比 DeepSeek R1 减少 75% FLOPs。采用 MoE 架构,结合 CISPO 和混合注意力 RL 训练,在长输入推理和真实软件工程任务中表现领先。",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 重新定义了智能体效率。这是一款紧凑、快速、性价比高的 MoE 模型,总参数 2300 亿,激活参数仅 100 亿,专为顶级编程与智能体任务设计,同时保留强大的通用智能。仅用 100 亿激活参数即可媲美更大模型,适用于高效应用场景。",
@ -268,20 +270,15 @@
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现了提升,并在多个基准测试中超越了上一代旗舰 Claude 3 Opus。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致的深度思考,并提供精细化控制。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,具备闪电般的速度与深度思考能力。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,并为 API 用户提供精细化控制。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
@ -373,7 +370,6 @@
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 是微软 AI 推出的语言模型,擅长复杂对话、多语言任务、推理和助手应用。",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B 是微软 AI 最先进的 Wizard 模型,具备极具竞争力的性能。",
"minicpm-v.description": "MiniCPM-V 是 OpenBMB 的下一代多模态模型,具备出色的 OCR 和多模态理解能力,适用于广泛场景。",
"minimax-m2.description": "MiniMax M2 是一款高效的大语言模型,专为编程和智能体工作流设计。",
"minimax/minimax-m2.description": "MiniMax-M2 是一款高性价比模型,擅长编程和智能体任务,适用于多种工程场景。",
"minimaxai/minimax-m2.description": "MiniMax-M2 是一款紧凑、快速、成本效益高的 MoE 模型(总参数 230B激活参数 10B在保持强大通用智能的同时专为顶级编程和智能体性能打造。擅长多文件编辑、代码运行修复循环、测试验证和复杂工具链。",
"ministral-3b-latest.description": "Ministral 3B 是 Mistral 推出的顶级边缘模型。",

View file

@ -29,7 +29,6 @@
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
"lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI拥有多模态基础模型包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",

View file

@ -73,7 +73,9 @@
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,具備高效專家啟用機制,展現強大的推理效能。",
"MiniMax-M1.description": "一款內部開發的推理模型,具備 80K 思路鏈與 100 萬輸入,效能媲美全球頂尖模型。",
"MiniMax-M2-Stable.description": "專為高效編碼與代理流程設計,具備更高併發能力,適用於商業應用。",
"MiniMax-M2.description": "專為高效編碼與代理流程設計。",
"MiniMax-M2.1-Lightning.description": "強大的多語言編程能力,全面升級編程體驗。更快、更高效。",
"MiniMax-M2.1.description": "強大的多語言編程能力,全面升級編程體驗",
"MiniMax-M2.description": "專為高效編碼與智能代理工作流程打造",
"MiniMax-Text-01.description": "MiniMax-01 採用超越傳統 Transformer 的大規模線性注意力機制,擁有 4560 億參數,每次啟用 459 億,支援最多 400 萬字元上下文(為 GPT-4o 的 32 倍Claude-3.5-Sonnet 的 20 倍),效能頂尖。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 是一款開源權重的大型混合注意力推理模型,總參數 4560 億,每個 token 啟用約 459 億。原生支援 100 萬上下文,使用 Flash Attention 技術,在 10 萬 token 生成任務中比 DeepSeek R1 減少 75% FLOPs。採用 MoE 架構、CISPO 與混合注意力強化學習訓練,在長輸入推理與真實軟體工程任務中表現領先。",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 重新定義代理效率。這是一款緊湊、快速、具成本效益的 MoE 模型,總參數 2300 億,啟用參數僅 100 億,專為頂級編碼與代理任務設計,同時保有強大的通用智能。即使僅啟用 100 億參數,其效能仍可媲美更大型模型,適合高效率應用場景。",
@ -268,20 +270,15 @@
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的最快速次世代模型,在多項技能上全面提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首款混合推理模型,支援即時回應或延伸思考,並提供細緻控制。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快速且最智慧的 Haiku 模型,具備閃電般的速度與延伸思考能力。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今最智慧的模型,提供即時回應或延伸的逐步思考,並為 API 使用者提供細緻控制。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",

View file

@ -29,7 +29,6 @@
"internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
"lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型並以與模型代幣相關的點數Credits來計算使用量。",
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI擁有多模態基礎模型包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
"mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
"modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",