feat: add Azure AI as new Provider (#6214)

* add azure ai

* 初步完成 ui 侧集成

* support streaming

* fix lint

* add azure ai implement

* try to fix issue

* improve code

* support deployment name

* improve create provider

* update snapshot
This commit is contained in:
Arvin Xu 2025-02-16 23:08:43 +08:00 committed by GitHub
parent 2dc712a9be
commit 30e010fe14
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
83 changed files with 3966 additions and 1685 deletions

View file

@ -19,6 +19,24 @@
"title": "مفتاح API"
}
},
"azureai": {
"azureApiVersion": {
"desc": "إصدار واجهة برمجة التطبيقات Azure، يتبع تنسيق YYYY-MM-DD، راجع [الإصدار الأحدث](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "الحصول على القائمة",
"title": "إصدار واجهة برمجة التطبيقات Azure"
},
"endpoint": {
"desc": "ابحث عن نقطة نهاية استدلال نموذج Azure AI من نظرة عامة على مشروع Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "نقطة نهاية Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "ابحث عن مفتاح واجهة برمجة التطبيقات من نظرة عامة على مشروع Azure AI",
"placeholder": "مفتاح Azure",
"title": "المفتاح"
}
},
"bedrock": {
"accessKeyId": {
"desc": "أدخل AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "عنوان الوكيل"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "يرجى اختيار نوع SDK",
"title": "تنسيق الطلب"
},
@ -210,6 +229,11 @@
"placeholder": "يرجى إدخال اسم نشر النموذج في Azure",
"title": "اسم نشر النموذج"
},
"deployName": {
"extra": "سيتم استخدام هذا الحقل كمعرف نموذج عند إرسال الطلب",
"placeholder": "يرجى إدخال اسم أو معرف النشر الفعلي للنموذج",
"title": "اسم نشر النموذج"
},
"displayName": {
"placeholder": "يرجى إدخال اسم العرض للنموذج، مثل ChatGPT، GPT-4، إلخ",
"title": "اسم عرض النموذج"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B هو نموذج متقدم تم تدريبه للحوار المعقد."
},
"deepseek-ai/deepseek-r1": {
"description": "نموذج لغوي متقدم وفعال، بارع في الاستدلال، والرياضيات، والبرمجة."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 هو نموذج لغوي بصري مختلط الخبراء (MoE) تم تطويره بناءً على DeepSeekMoE-27B، يستخدم بنية MoE ذات تفعيل نادر، محققًا أداءً ممتازًا مع تفعيل 4.5 مليار معلمة فقط. يقدم هذا النموذج أداءً ممتازًا في مهام مثل الأسئلة البصرية، التعرف الضوئي على الأحرف، فهم الوثائق/الجداول/الرسوم البيانية، وتحديد المواقع البصرية."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بقدرات الحوار العامة لنموذج الدردشة الأصلي وقدرات معالجة الأكواد القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
},
"emohaa": {
"description": "Emohaa هو نموذج نفسي، يتمتع بقدرات استشارية متخصصة، يساعد المستخدمين في فهم القضايا العاطفية."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "يجمع Gemini 1.5 Pro بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط بشكل أكثر كفاءة."
},
"google/gemma-2-27b": {
"description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 تستمر في مفهوم التصميم الخفيف والفعال."
},
"google/gemma-2-2b-it": {
"description": "نموذج تحسين التعليمات الخفيف من Google"
},
"google/gemma-2-9b": {
"description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 هو سلسلة نماذج نصية مفتوحة المصدر خفيفة الوزن من Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تتصدر نماذج المصدر المفتوح من نفس الفئة. تشير بشكل افتراضي إلى أحدث نماذج سلسلة InternLM3 التي تم إصدارها."
},
"jina-deepsearch-v1": {
"description": "البحث العميق يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال، مما يتيح إجراء تحقيق شامل. يمكنك اعتباره وكيلًا يتولى مهام البحث الخاصة بك - حيث يقوم بإجراء بحث واسع النطاق ويخضع لعدة تكرارات قبل تقديم الإجابة. تتضمن هذه العملية بحثًا مستمرًا، واستدلالًا، وحل المشكلات من زوايا متعددة. وهذا يختلف اختلافًا جوهريًا عن النماذج الكبيرة القياسية التي تولد الإجابات مباشرة من البيانات المدربة مسبقًا، وكذلك عن أنظمة RAG التقليدية التي تعتمد على البحث السطحي لمرة واحدة."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM هو نموذج لغوي تجريبي محدد المهام، تم تدريبه ليتماشى مع مبادئ علوم التعلم، يمكنه اتباع التعليمات النظامية في سيناريوهات التعليم والتعلم، ويعمل كمدرب خبير."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "نموذج Llama 3.1 Turbo 405B يوفر دعمًا كبيرًا للسياق لمعالجة البيانات الكبيرة، ويظهر أداءً بارزًا في تطبيقات الذكاء الاصطناعي على نطاق واسع."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 هو نموذج رائد أطلقته Meta، يدعم ما يصل إلى 405B من المعلمات، ويمكن تطبيقه في مجالات المحادثات المعقدة، والترجمة متعددة اللغات، وتحليل البيانات."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B يوفر دعمًا فعالًا للحوار متعدد اللغات."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 هو نموذج لغوي كبير مفتوح (LLM) موجه للمطورين والباحثين والشركات، يهدف إلى مساعدتهم في بناء وتجربة وتوسيع أفكارهم في الذكاء الاصطناعي بشكل مسؤول. كجزء من نظام الابتكار المجتمعي العالمي، فهو مثالي للأجهزة ذات القدرة الحاسوبية والموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع."
},
"meta/llama-3.1-405b-instruct": {
"description": "نموذج لغوي متقدم، يدعم توليد البيانات الاصطناعية، وتقطير المعرفة، والاستدلال، مناسب للدردشة، والبرمجة، والمهام الخاصة."
},
"meta/llama-3.1-70b-instruct": {
"description": "يمكنه تمكين المحادثات المعقدة، ويتميز بفهم سياقي ممتاز، وقدرات استدلال، وقدرة على توليد النصوص."
},
"meta/llama-3.1-8b-instruct": {
"description": "نموذج متقدم من الطراز الأول، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "نموذج متقدم للرؤية واللغة، بارع في إجراء استدلال عالي الجودة من الصور."
},
"meta/llama-3.2-1b-instruct": {
"description": "نموذج لغوي صغير متقدم، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
},
"meta/llama-3.2-3b-instruct": {
"description": "نموذج لغوي صغير متقدم، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "نموذج متقدم للرؤية واللغة، بارع في إجراء استدلال عالي الجودة من الصور."
},
"meta/llama-3.3-70b-instruct": {
"description": "نموذج لغوي متقدم، بارع في الاستدلال، والرياضيات، والمعرفة العامة، واستدعاء الدوال."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في المحادثات المعقدة، واللغات المتعددة، والاستدلال، ومساعدات الذكاء."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B هو نموذج لغوي كبير مخصص من NVIDIA، يهدف إلى تحسين استجابة LLM لمساعدة استفسارات المستخدمين. لقد أظهر النموذج أداءً ممتازًا في اختبارات المعايير مثل Arena Hard وAlpacaEval 2 LC وGPT-4-Turbo MT-Bench، حيث احتل المرتبة الأولى في جميع اختبارات المحاذاة التلقائية الثلاثة حتى 1 أكتوبر 2024. تم تدريب النموذج باستخدام RLHF (خاصة REINFORCE) وLlama-3.1-Nemotron-70B-Reward وHelpSteer2-Preference على أساس نموذج Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "نموذج لغوي فريد، يقدم دقة وأداء لا مثيل لهما."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B هو نموذج لغوي كبير مخصص من NVIDIA، مصمم لتحسين فائدة الاستجابات التي يولدها LLM."
},
"o1": {
"description": "يركز على الاستدلال المتقدم وحل المشكلات المعقدة، بما في ذلك المهام الرياضية والعلمية. مثالي للتطبيقات التي تتطلب فهمًا عميقًا للسياق وإدارة سير العمل."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات فهم وتوليد أقوى."
},
"qwen/qwen2.5-7b-instruct": {
"description": "نموذج لغوي موجه للغة الصينية والإنجليزية، يستهدف مجالات اللغة، والبرمجة، والرياضيات، والاستدلال، وغيرها."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "نموذج لغوي متقدم، يدعم توليد الشيفرة، والاستدلال، والإصلاح، ويغطي لغات البرمجة الرئيسية."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "نموذج قوي للبرمجة متوسطة الحجم، يدعم طول سياق يصل إلى 32K، بارع في البرمجة متعددة اللغات."
},
"qwen2": {
"description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "توفر Azure مجموعة متنوعة من نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك GPT-3.5 وأحدث سلسلة GPT-4، تدعم أنواع بيانات متعددة ومهام معقدة، وتلتزم بحلول ذكاء اصطناعي آمنة وموثوقة ومستدامة."
},
"azureai": {
"description": "توفر Azure مجموعة متنوعة من نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك GPT-3.5 وأحدث سلسلة GPT-4، تدعم أنواع البيانات المتعددة والمهام المعقدة، وتهدف إلى تقديم حلول ذكاء اصطناعي آمنة وموثوقة ومستدامة."
},
"baichuan": {
"description": "Baichuan Intelligence هي شركة تركز على تطوير نماذج الذكاء الاصطناعي الكبيرة، حيث تظهر نماذجها أداءً ممتازًا في المهام الصينية مثل الموسوعات المعرفية ومعالجة النصوص الطويلة والإبداع. تتفوق على النماذج الرئيسية الأجنبية. كما تتمتع Baichuan Intelligence بقدرات متعددة الوسائط رائدة في الصناعة، وقد أظهرت أداءً ممتازًا في العديد من التقييمات الموثوقة. تشمل نماذجها Baichuan 4 وBaichuan 3 Turbo وBaichuan 3 Turbo 128k، وكل منها مُحسّن لمشاهد تطبيق مختلفة، مما يوفر حلولًا فعالة من حيث التكلفة."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "منظمة مفتوحة المصدر مكرسة لأبحاث وتطوير أدوات النماذج الكبيرة. توفر منصة مفتوحة المصدر فعالة وسهلة الاستخدام لجميع مطوري الذكاء الاصطناعي، مما يجعل أحدث تقنيات النماذج الكبيرة والخوارزميات في متناول اليد."
},
"jina": {
"description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال الذكاء الاصطناعي للبحث. تحتوي منصتنا الأساسية للبحث على نماذج متجهة، ومعيدي ترتيب، ونماذج لغوية صغيرة، لمساعدة الشركات في بناء تطبيقات بحث موثوقة وعالية الجودة تعتمد على الذكاء الاصطناعي التوليدي ومتعددة الوسائط."
},
"lmstudio": {
"description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة نماذج اللغة الكبيرة (LLMs) على جهاز الكمبيوتر الخاص بك."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI هي منصة تقدم خدمات API لمجموعة متنوعة من نماذج اللغة الكبيرة وتوليد الصور بالذكاء الاصطناعي، مرنة وموثوقة وفعالة من حيث التكلفة. تدعم أحدث النماذج مفتوحة المصدر مثل Llama3 وMistral، وتوفر حلول API شاملة وسهلة الاستخدام وقابلة للتوسع تلقائيًا لتطوير تطبيقات الذكاء الاصطناعي، مما يجعلها مناسبة لنمو الشركات الناشئة في مجال الذكاء الاصطناعي."
},
"nvidia": {
"description": "تقدم NVIDIA NIM™ حاويات يمكن استخدامها لاستضافة خدمات استدلال معززة بواسطة GPU، تدعم نشر نماذج الذكاء الاصطناعي المدربة مسبقًا والمخصصة على السحابة ومراكز البيانات وأجهزة الكمبيوتر الشخصية RTX™ ومحطات العمل."
},
"ollama": {
"description": "تغطي نماذج Ollama مجموعة واسعة من مجالات توليد الشيفرة، والعمليات الرياضية، ومعالجة اللغات المتعددة، والتفاعل الحواري، وتدعم احتياجات النشر على مستوى المؤسسات والتخصيص المحلي."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "تتخصص Upstage في تطوير نماذج الذكاء الاصطناعي لتلبية احتياجات الأعمال المتنوعة، بما في ذلك Solar LLM وDocument AI، بهدف تحقيق الذكاء الاصطناعي العام (AGI) القائم على العمل. من خلال واجهة Chat API، يمكن إنشاء وكلاء حوار بسيطين، وتدعم استدعاء الوظائف، والترجمة، والتضمين، وتطبيقات المجالات المحددة."
},
"vllm": {
"description": "vLLM هو مكتبة سريعة وسهلة الاستخدام لاستدلال LLM والخدمات."
},
"wenxin": {
"description": "منصة تطوير وخدمات النماذج الكبيرة والتطبيقات الأصلية للذكاء الاصطناعي على مستوى المؤسسات، تقدم مجموعة شاملة وسهلة الاستخدام من أدوات تطوير النماذج الذكية التوليدية وأدوات تطوير التطبيقات على مدار العملية بأكملها."
},

View file

@ -19,6 +19,24 @@
"title": "API ключ"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Версия на API на Azure, следваща формата YYYY-MM-DD, вижте [най-новата версия](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Вземи списък",
"title": "Версия на API на Azure"
},
"endpoint": {
"desc": "Намерете крайна точка за инференция на моделите на Azure AI в прегледа на проекта на Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Крайна точка на Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Намерете API ключа в прегледа на проекта на Azure AI",
"placeholder": "Ключ на Azure",
"title": "Ключ"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Въведете AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "Адрес на прокси"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Моля, изберете тип SDK",
"title": "Формат на запитването"
},
@ -210,6 +229,11 @@
"placeholder": "Моля, въведете името на модела за разполагане в Azure",
"title": "Име на разполагане на модела"
},
"deployName": {
"extra": "Това поле ще бъде използвано като ID на модела при изпращане на заявката",
"placeholder": "Моля, въведете действителното име или ID на разположението на модела",
"title": "Име на разположение на модела"
},
"displayName": {
"placeholder": "Моля, въведете показваното име на модела, например ChatGPT, GPT-4 и др.",
"title": "Показвано име на модела"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B е напреднал модел, обучен за диалози с висока сложност."
},
"deepseek-ai/deepseek-r1": {
"description": "Най-съвременен ефективен LLM, специализиран в разсъждения, математика и програмиране."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 е визуален езиков модел, разработен на базата на DeepSeekMoE-27B, който използва архитектура на смесени експерти (MoE) с рядка активация, постигайки изключителна производителност с активирани само 4.5B параметри. Моделът показва отлични резултати в множество задачи, включително визуални въпроси и отговори, оптично разпознаване на символи, разбиране на документи/таблици/графики и визуална локализация."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съобразява с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в задачи по писане, следване на инструкции и много други."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
},
"emohaa": {
"description": "Emohaa е психологически модел с професионални консултантски способности, помагащ на потребителите да разберат емоционалните проблеми."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro комбинира най-новите оптимизационни технологии, предоставяйки по-ефективна обработка на мултимодални данни."
},
"google/gemma-2-27b": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки приложения до сложна обработка на данни."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 продължава концепцията за лекота и ефективност."
},
"google/gemma-2-2b-it": {
"description": "Лек модел за настройка на инструкции от Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки приложения до сложна обработка на данни."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 е серия от леки отворени текстови модели на Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Нашата най-нова серия модели с изключителна производителност на разсъжденията, водеща в категорията на отворените модели. По подразбиране сочи към най-ново публикуваната серия модели InternLM3."
},
"jina-deepsearch-v1": {
"description": "Дълбокото търсене комбинира интернет търсене, четене и разсъждение, за да извърши обширно разследване. Можете да го разглеждате като агент, който приема вашата изследователска задача - той ще извърши широко търсене и ще премине през множество итерации, преди да предостави отговор. Този процес включва непрекъснато изследване, разсъждение и решаване на проблеми от различни ъгли. Това е коренно различно от стандартните големи модели, които генерират отговори директно от предварително обучени данни, и от традиционните RAG системи, които разчитат на еднократни повърхностни търсения."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM е експериментален езиков модел, специфичен за задачи, обучен да отговаря на принципите на научното обучение, способен да следва системни инструкции в учебни и обучителни сценарии, да действа като експертен ментор и др."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405B Llama 3.1 Turbo моделът предлага огромна контекстова поддръжка за обработка на големи данни, с изключителна производителност в приложения с изкуствен интелект с много голям мащаб."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, подходящ за сложни разговори, многоезичен превод и анализ на данни."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B предлага ефективна поддръжка за многоезични диалози."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за устройства с ограничени изчислителни ресурси и по-бързо време за обучение."
},
"meta/llama-3.1-405b-instruct": {
"description": "Напреднал LLM, поддържащ генериране на синтетични данни, дестилация на знания и разсъждение, подходящ за чатботове, програмиране и специфични задачи."
},
"meta/llama-3.1-70b-instruct": {
"description": "Улеснява сложни разговори, с изключителни способности за разбиране на контекста, разсъждение и генериране на текст."
},
"meta/llama-3.1-8b-instruct": {
"description": "Напреднал, водещ модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
},
"meta/llama-3.2-1b-instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-3b-instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
},
"meta/llama-3.3-70b-instruct": {
"description": "Напреднал LLM, специализиран в разсъждения, математика, общи познания и извикване на функции."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който показва особени способности в сложни разговори, многоезичност, разсъждения и интелигентни асистенти."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B е голям езиков модел, персонализиран от NVIDIA, предназначен да увеличи полезността на отговорите, генерирани от LLM на потребителските запитвания. Моделът показва отлични резултати в бенчмаркове като Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, като заема първо място в трите автоматизирани теста за подравняване към 1 октомври 2024 г. Моделът е обучен с RLHF (по-специално REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference подсказки на базата на Llama-3.1-70B-Instruct модела."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Уникален езиков модел, предлагащ ненадмината точност и ефективност."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct е персонализиран голям езиков модел на NVIDIA, предназначен да подобри полезността на отговорите, генерирани от LLM."
},
"o1": {
"description": "Фокусиран върху напреднали изводи и решаване на сложни проблеми, включително математически и научни задачи. Изключително подходящ за приложения, изискващи дълбочинно разбиране на контекста и управление на работни потоци."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM, насочен към китайски и английски, за области като език, програмиране, математика и разсъждение."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "Напреднал LLM, поддържащ генериране на код, разсъждение и корекции, обхващащ основните програмни езици."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Мощен среден модел за код, поддържащ 32K дължина на контекста, специализиран в многоезично програмиране."
},
"qwen2": {
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure предлага разнообразие от напреднали AI модели, включително GPT-3.5 и най-новата серия GPT-4, поддържащи различни типове данни и сложни задачи, с акцент върху безопасни, надеждни и устойчиви AI решения."
},
"azureai": {
"description": "Azure предлага множество напреднали AI модели, включително GPT-3.5 и най-новата серия GPT-4, които поддържат различни типове данни и сложни задачи, ангажирани с безопасни, надеждни и устойчиви AI решения."
},
"baichuan": {
"description": "Baichuan Intelligence е компания, специализирана в разработката на големи модели за изкуствен интелект, чийто модели показват отлични резултати в китайски задачи, свързани с енциклопедии, обработка на дълги текстове и генериране на съдържание, надминавайки основните чуждестранни модели. Baichuan Intelligence също така притежава индустриално водещи мултимодални способности, показвайки отлични резултати в множество авторитетни оценки. Моделите им включват Baichuan 4, Baichuan 3 Turbo и Baichuan 3 Turbo 128k, оптимизирани за различни приложения, предлагащи решения с висока цена-качество."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Отворена организация, посветена на изследването и разработването на инструменти за големи модели. Предоставя на всички AI разработчици ефективна и лесна за използване отворена платформа, която прави най-съвременните технологии и алгоритми за големи модели достъпни."
},
"jina": {
"description": "Jina AI е основана през 2020 г. и е водеща компания в областта на търсенето с AI. Нашата платформа за търсене включва векторни модели, реорганизатори и малки езикови модели, които помагат на предприятията да изградят надеждни и висококачествени генеративни AI и мултимодални приложения за търсене."
},
"lmstudio": {
"description": "LM Studio е настолно приложение за разработка и експериментиране с LLMs на вашия компютър."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI е платформа, предлагаща API услуги за множество големи езикови модели и генериране на AI изображения, гъвкава, надеждна и икономически ефективна. Поддържа най-новите отворени модели, като Llama3 и Mistral, и предлага цялостни, потребителски приятелски и автоматично разширяеми API решения за разработка на генеративни AI приложения, подходящи за бързото развитие на AI стартъпи."
},
"nvidia": {
"description": "NVIDIA NIM™ предлага контейнери, които могат да се използват за самостоятелно хоствани GPU ускорени инференционни микросервизи, поддържащи разгръщането на предварително обучени и персонализирани AI модели в облака, центрове за данни, RTX™ AI персонални компютри и работни станции."
},
"ollama": {
"description": "Моделите, предоставени от Ollama, обхващат широк спектър от области, включително генериране на код, математически операции, многоезично обработване и диалогова интеракция, отговарящи на разнообразните нужди на предприятията и локализирани внедрявания."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage се фокусира върху разработването на AI модели за различни бизнес нужди, включително Solar LLM и документен AI, с цел постигане на човешки универсален интелект (AGI). Създава прости диалогови агенти чрез Chat API и поддържа извикване на функции, превод, вграждане и специфични приложения."
},
"vllm": {
"description": "vLLM е бърза и лесна за използване библиотека за LLM инференция и услуги."
},
"wenxin": {
"description": "Платформа за разработка и услуги на корпоративно ниво, предлагаща цялостно решение за разработка на генеративни модели на изкуствен интелект и приложения, с най-пълния и лесен за използване инструментариум за целия процес на разработка на модели и приложения."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "API-Version von Azure, im Format YYYY-MM-DD, siehe [aktuelle Version](https://learn.microsoft.com/de-de/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Liste abrufen",
"title": "Azure API-Version"
},
"endpoint": {
"desc": "Finden Sie den Endpunkt für die Modellinferenz von Azure AI im Überblick über das Azure AI-Projekt",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AI-Endpunkt"
},
"title": "Azure OpenAI",
"token": {
"desc": "Finden Sie den API-Schlüssel im Überblick über das Azure AI-Projekt",
"placeholder": "Azure-Schlüssel",
"title": "Schlüssel"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Geben Sie Ihre AWS Access Key Id ein",
@ -97,6 +115,7 @@
"title": "Proxy-Adresse"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Bitte wählen Sie den SDK-Typ aus",
"title": "Anforderungsformat"
},
@ -210,6 +229,11 @@
"placeholder": "Bitte geben Sie den Modellbereitstellungsnamen in Azure ein",
"title": "Modellbereitstellungsname"
},
"deployName": {
"extra": "Dieses Feld wird als Modell-ID gesendet, wenn die Anfrage gesendet wird",
"placeholder": "Bitte geben Sie den tatsächlichen Namen oder die ID des bereitgestellten Modells ein",
"title": "Modellbereitstellungsname"
},
"displayName": {
"placeholder": "Bitte geben Sie den angezeigten Namen des Modells ein, z.B. ChatGPT, GPT-4 usw.",
"title": "Anzeigename des Modells"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B ist ein fortschrittliches Modell, das für komplexe Dialoge trainiert wurde."
},
"deepseek-ai/deepseek-r1": {
"description": "Hochmodernes, effizientes LLM, das auf Schlussfolgern, Mathematik und Programmierung spezialisiert ist."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 ist ein hybrides Expertenmodell (MoE) für visuelle Sprache, das auf DeepSeekMoE-27B basiert und eine spärliche Aktivierung der MoE-Architektur verwendet, um außergewöhnliche Leistungen bei der Aktivierung von nur 4,5 Milliarden Parametern zu erzielen. Dieses Modell zeigt hervorragende Leistungen in mehreren Aufgaben, darunter visuelle Fragenbeantwortung, optische Zeichenerkennung, Dokument-/Tabellen-/Diagrammverständnis und visuelle Lokalisierung."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Ein neues Open-Source-Modell, das allgemeine und Codefähigkeiten vereint. Es behält nicht nur die allgemeinen Dialogfähigkeiten des ursprünglichen Chat-Modells und die leistungsstarken Codeverarbeitungsfähigkeiten des Coder-Modells bei, sondern stimmt auch besser mit menschlichen Vorlieben überein. Darüber hinaus hat DeepSeek-V2.5 in vielen Bereichen wie Schreibaufgaben und Befehlsbefolgung erhebliche Verbesserungen erzielt."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
},
"emohaa": {
"description": "Emohaa ist ein psychologisches Modell mit professionellen Beratungsfähigkeiten, das den Nutzern hilft, emotionale Probleme zu verstehen."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro kombiniert die neuesten Optimierungstechnologien und bietet eine effizientere Verarbeitung multimodaler Daten."
},
"google/gemma-2-27b": {
"description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexer Datenverarbeitung abdeckt."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 setzt das Designkonzept von Leichtbau und Effizienz fort."
},
"google/gemma-2-2b-it": {
"description": "Das leichtgewichtige Anweisungsoptimierungsmodell von Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexer Datenverarbeitung abdeckt."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 ist eine leichtgewichtige Open-Source-Textmodellreihe von Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Unsere neueste Modellreihe bietet herausragende Inferenzleistungen und führt die Open-Source-Modelle in ihrer Gewichtsklasse an. Standardmäßig verweist sie auf unser neuestes veröffentlichtes InternLM3-Modell."
},
"jina-deepsearch-v1": {
"description": "Die Tiefensuche kombiniert Websuche, Lesen und Schlussfolgern und ermöglicht umfassende Untersuchungen. Sie können es als einen Agenten betrachten, der Ihre Forschungsaufgaben übernimmt er führt eine umfassende Suche durch und iteriert mehrfach, bevor er eine Antwort gibt. Dieser Prozess umfasst kontinuierliche Forschung, Schlussfolgerungen und die Lösung von Problemen aus verschiedenen Perspektiven. Dies unterscheidet sich grundlegend von den Standard-Großmodellen, die Antworten direkt aus vortrainierten Daten generieren, sowie von traditionellen RAG-Systemen, die auf einmaligen Oberflächensuchen basieren."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM ist ein experimentelles, aufgabenorientiertes Sprachmodell, das darauf trainiert wurde, den Prinzipien der Lernwissenschaft zu entsprechen und in Lehr- und Lernszenarien systematische Anweisungen zu befolgen, als Expertenmentor zu fungieren usw."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Das 405B Llama 3.1 Turbo-Modell bietet eine enorme Kapazität zur Unterstützung von Kontexten für die Verarbeitung großer Datenmengen und zeigt herausragende Leistungen in groß angelegten KI-Anwendungen."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 ist das führende Modell von Meta, das bis zu 405B Parameter unterstützt und in komplexen Gesprächen, mehrsprachiger Übersetzung und Datenanalyse eingesetzt werden kann."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B bietet effiziente Dialogunterstützung in mehreren Sprachen."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 ist ein offenes großes Sprachmodell (LLM), das sich an Entwickler, Forscher und Unternehmen richtet und ihnen hilft, ihre Ideen für generative KI zu entwickeln, zu experimentieren und verantwortungsbewusst zu skalieren. Als Teil eines globalen Innovationssystems ist es besonders geeignet für Umgebungen mit begrenzter Rechenleistung und Ressourcen, für Edge-Geräte und schnellere Trainingszeiten."
},
"meta/llama-3.1-405b-instruct": {
"description": "Fortgeschrittenes LLM, das die Generierung synthetischer Daten, Wissensverdichtung und Schlussfolgerungen unterstützt, geeignet für Chatbots, Programmierung und spezifische Aufgaben."
},
"meta/llama-3.1-70b-instruct": {
"description": "Ermöglicht komplexe Gespräche mit hervorragendem Kontextverständnis, Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.1-8b-instruct": {
"description": "Fortschrittliches, hochmodernes Modell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
},
"meta/llama-3.2-1b-instruct": {
"description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.2-3b-instruct": {
"description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
},
"meta/llama-3.3-70b-instruct": {
"description": "Fortschrittliches LLM, das auf Schlussfolgern, Mathematik, Allgemeinwissen und Funktionsaufrufen spezialisiert ist."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, Mehrsprachigkeit, Inferenz und intelligenten Assistenten besonders gut abschneidet."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B ist ein von NVIDIA maßgeschneidertes großes Sprachmodell, das darauf abzielt, die Hilfsfähigkeit der von LLM generierten Antworten auf Benutzeranfragen zu verbessern. Dieses Modell hat in Benchmark-Tests wie Arena Hard, AlpacaEval 2 LC und GPT-4-Turbo MT-Bench hervorragende Leistungen gezeigt und belegt bis zum 1. Oktober 2024 den ersten Platz in allen drei automatischen Ausrichtungsbenchmarks. Das Modell wurde mit RLHF (insbesondere REINFORCE), Llama-3.1-Nemotron-70B-Reward und HelpSteer2-Preference-Prompts auf dem Llama-3.1-70B-Instruct-Modell trainiert."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Einzigartiges Sprachmodell, das unvergleichliche Genauigkeit und Effizienz bietet."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct ist ein von NVIDIA maßgeschneidertes großes Sprachmodell, das darauf abzielt, die Hilfsbereitschaft der von LLM generierten Antworten zu verbessern."
},
"o1": {
"description": "Konzentriert sich auf fortgeschrittene Inferenz und die Lösung komplexer Probleme, einschließlich mathematischer und wissenschaftlicher Aufgaben. Besonders geeignet für Anwendungen, die ein tiefes Verständnis des Kontexts und die Abwicklung von Arbeitsabläufen erfordern."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 ist eine neue Serie großer Sprachmodelle mit stärkeren Verständnis- und Generierungsfähigkeiten."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM, das auf Chinesisch und Englisch ausgerichtet ist und sich auf Sprache, Programmierung, Mathematik, Schlussfolgern und andere Bereiche konzentriert."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "Fortgeschrittenes LLM, das die Codegenerierung, Schlussfolgerungen und Korrekturen unterstützt und gängige Programmiersprachen abdeckt."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Leistungsstarkes, mittelgroßes Codierungsmodell, das 32K Kontextlängen unterstützt und in der mehrsprachigen Programmierung versiert ist."
},
"qwen2": {
"description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure bietet eine Vielzahl fortschrittlicher KI-Modelle, darunter GPT-3.5 und die neueste GPT-4-Serie, die verschiedene Datentypen und komplexe Aufgaben unterstützen und sich auf sichere, zuverlässige und nachhaltige KI-Lösungen konzentrieren."
},
"azureai": {
"description": "Azure bietet eine Vielzahl fortschrittlicher KI-Modelle, darunter GPT-3.5 und die neueste GPT-4-Serie, die verschiedene Datentypen und komplexe Aufgaben unterstützen und sich auf sichere, zuverlässige und nachhaltige KI-Lösungen konzentrieren."
},
"baichuan": {
"description": "Baichuan Intelligent ist ein Unternehmen, das sich auf die Forschung und Entwicklung großer KI-Modelle spezialisiert hat. Ihre Modelle zeigen hervorragende Leistungen in chinesischen Aufgaben wie Wissensdatenbanken, Verarbeitung langer Texte und kreative Generierung und übertreffen die gängigen Modelle im Ausland. Baichuan Intelligent verfügt auch über branchenführende multimodale Fähigkeiten und hat in mehreren renommierten Bewertungen hervorragend abgeschnitten. Ihre Modelle umfassen Baichuan 4, Baichuan 3 Turbo und Baichuan 3 Turbo 128k, die jeweils für unterschiedliche Anwendungsszenarien optimiert sind und kosteneffiziente Lösungen bieten."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Eine Open-Source-Organisation, die sich der Forschung und Entwicklung von großen Modellen und Werkzeugketten widmet. Sie bietet allen KI-Entwicklern eine effiziente und benutzerfreundliche Open-Source-Plattform, die den Zugang zu den neuesten Technologien und Algorithmen für große Modelle ermöglicht."
},
"jina": {
"description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Unsere Suchplattform umfasst Vektormodelle, Re-Ranker und kleine Sprachmodelle, die Unternehmen dabei helfen, zuverlässige und qualitativ hochwertige generative KI- und multimodale Suchanwendungen zu entwickeln."
},
"lmstudio": {
"description": "LM Studio ist eine Desktop-Anwendung zum Entwickeln und Experimentieren mit LLMs auf Ihrem Computer."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI ist eine Plattform, die eine Vielzahl von großen Sprachmodellen und API-Diensten für die KI-Bilderzeugung anbietet, die flexibel, zuverlässig und kosteneffektiv ist. Sie unterstützt die neuesten Open-Source-Modelle wie Llama3 und Mistral und bietet umfassende, benutzerfreundliche und automatisch skalierbare API-Lösungen für die Entwicklung generativer KI-Anwendungen, die für das schnelle Wachstum von KI-Startups geeignet sind."
},
"nvidia": {
"description": "NVIDIA NIM™ bietet Container für selbstgehostete, GPU-beschleunigte Inferenz-Mikrodienste, die die Bereitstellung von vortrainierten und benutzerdefinierten KI-Modellen in der Cloud, in Rechenzentren, auf RTX™ AI-PCs und Workstations unterstützen."
},
"ollama": {
"description": "Die von Ollama angebotenen Modelle decken ein breites Spektrum ab, darunter Code-Generierung, mathematische Berechnungen, mehrsprachige Verarbeitung und dialogbasierte Interaktionen, und unterstützen die vielfältigen Anforderungen an unternehmensgerechte und lokal angepasste Bereitstellungen."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage konzentriert sich auf die Entwicklung von KI-Modellen für verschiedene geschäftliche Anforderungen, einschließlich Solar LLM und Dokumenten-KI, mit dem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. Es ermöglicht die Erstellung einfacher Dialogagenten über die Chat-API und unterstützt Funktionsaufrufe, Übersetzungen, Einbettungen und spezifische Anwendungsbereiche."
},
"vllm": {
"description": "vLLM ist eine schnelle und benutzerfreundliche Bibliothek für LLM-Inferenz und -Dienste."
},
"wenxin": {
"description": "Eine unternehmensweite, umfassende Plattform für die Entwicklung und den Service von großen Modellen und KI-nativen Anwendungen, die die vollständigsten und benutzerfreundlichsten Werkzeuge für die Entwicklung generativer KI-Modelle und den gesamten Anwendungsentwicklungsprozess bietet."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "The API version for Azure, following the YYYY-MM-DD format. Refer to the [latest version](https://learn.microsoft.com/en-us/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Fetch List",
"title": "Azure API Version"
},
"endpoint": {
"desc": "Find the Azure AI model inference endpoint from the Azure AI project overview",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AI Endpoint"
},
"title": "Azure OpenAI",
"token": {
"desc": "Find the API key from the Azure AI project overview",
"placeholder": "Azure Key",
"title": "Key"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Enter AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "Proxy URL"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Please select SDK type",
"title": "Request Format"
},
@ -210,6 +229,11 @@
"placeholder": "Please enter the model deployment name in Azure",
"title": "Model Deployment Name"
},
"deployName": {
"extra": "This field will be used as the model ID when sending requests",
"placeholder": "Please enter the actual deployment name or ID of the model",
"title": "Model Deployment Name"
},
"displayName": {
"placeholder": "Please enter the display name of the model, e.g., ChatGPT, GPT-4, etc.",
"title": "Model Display Name"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B is an advanced model trained for highly complex conversations."
},
"deepseek-ai/deepseek-r1": {
"description": "A state-of-the-art efficient LLM skilled in reasoning, mathematics, and programming."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 is a mixture of experts (MoE) visual language model developed based on DeepSeekMoE-27B, employing a sparsely activated MoE architecture that achieves outstanding performance while activating only 4.5 billion parameters. This model excels in various tasks, including visual question answering, optical character recognition, document/table/chart understanding, and visual localization."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
},
"emohaa": {
"description": "Emohaa is a psychological model with professional counseling capabilities, helping users understand emotional issues."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities."
},
"google/gemma-2-27b": {
"description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 continues the design philosophy of being lightweight and efficient."
},
"google/gemma-2-2b-it": {
"description": "Google's lightweight instruction-tuning model."
},
"google/gemma-2-9b": {
"description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 is Google's lightweight open-source text model series."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Our latest model series boasts exceptional inference performance, leading the pack among open-source models of similar scale. It defaults to our most recently released InternLM3 series models."
},
"jina-deepsearch-v1": {
"description": "DeepSearch combines web search, reading, and reasoning for comprehensive investigations. You can think of it as an agent that takes on your research tasks—it conducts extensive searches and iterates multiple times before providing answers. This process involves ongoing research, reasoning, and problem-solving from various angles. This fundamentally differs from standard large models that generate answers directly from pre-trained data and traditional RAG systems that rely on one-time surface searches."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM is an experimental, task-specific language model trained to align with learning science principles, capable of following systematic instructions in teaching and learning scenarios, acting as an expert tutor, among other roles."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "The 405B Llama 3.1 Turbo model provides massive context support for big data processing, excelling in large-scale AI applications."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 is a leading model launched by Meta, supporting up to 405B parameters, applicable in complex conversations, multilingual translation, and data analysis."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B offers efficient conversational support in multiple languages."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 is an open large language model (LLM) aimed at developers, researchers, and enterprises, designed to help them build, experiment, and responsibly scale their generative AI ideas. As part of a foundational system for global community innovation, it is particularly suitable for those with limited computational power and resources, edge devices, and faster training times."
},
"meta/llama-3.1-405b-instruct": {
"description": "An advanced LLM supporting synthetic data generation, knowledge distillation, and reasoning, suitable for chatbots, programming, and domain-specific tasks."
},
"meta/llama-3.1-70b-instruct": {
"description": "Empowering complex conversations with exceptional context understanding, reasoning capabilities, and text generation abilities."
},
"meta/llama-3.1-8b-instruct": {
"description": "An advanced cutting-edge model with language understanding, excellent reasoning capabilities, and text generation abilities."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "A state-of-the-art vision-language model adept at high-quality reasoning from images."
},
"meta/llama-3.2-1b-instruct": {
"description": "A cutting-edge small language model with language understanding, excellent reasoning capabilities, and text generation abilities."
},
"meta/llama-3.2-3b-instruct": {
"description": "A cutting-edge small language model with language understanding, excellent reasoning capabilities, and text generation abilities."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "A state-of-the-art vision-language model adept at high-quality reasoning from images."
},
"meta/llama-3.3-70b-instruct": {
"description": "An advanced LLM skilled in reasoning, mathematics, common sense, and function calling."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant tasks."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B is a large language model customized by NVIDIA, designed to enhance the helpfulness of LLM-generated responses to user queries. The model has excelled in benchmark tests such as Arena Hard, AlpacaEval 2 LC, and GPT-4-Turbo MT-Bench, ranking first in all three automatic alignment benchmarks as of October 1, 2024. The model is trained using RLHF (specifically REINFORCE), Llama-3.1-Nemotron-70B-Reward, and HelpSteer2-Preference prompts based on the Llama-3.1-70B-Instruct model."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "A unique language model offering unparalleled accuracy and efficiency."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct is a custom large language model by NVIDIA designed to enhance the helpfulness of LLM-generated responses."
},
"o1": {
"description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. It is particularly well-suited for applications that require deep contextual understanding and agent workflow."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 is a brand new series of large language models with enhanced understanding and generation capabilities."
},
"qwen/qwen2.5-7b-instruct": {
"description": "An LLM focused on both Chinese and English, targeting language, programming, mathematics, reasoning, and more."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "An advanced LLM supporting code generation, reasoning, and debugging, covering mainstream programming languages."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "A powerful medium-sized code model supporting 32K context length, proficient in multilingual programming."
},
"qwen2": {
"description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure offers a variety of advanced AI models, including GPT-3.5 and the latest GPT-4 series, supporting various data types and complex tasks, dedicated to secure, reliable, and sustainable AI solutions."
},
"azureai": {
"description": "Azure offers a variety of advanced AI models, including GPT-3.5 and the latest GPT-4 series, supporting multiple data types and complex tasks, dedicated to secure, reliable, and sustainable AI solutions."
},
"baichuan": {
"description": "Baichuan Intelligence is a company focused on the research and development of large AI models, with its models excelling in domestic knowledge encyclopedias, long text processing, and generative creation tasks in Chinese, surpassing mainstream foreign models. Baichuan Intelligence also possesses industry-leading multimodal capabilities, performing excellently in multiple authoritative evaluations. Its models include Baichuan 4, Baichuan 3 Turbo, and Baichuan 3 Turbo 128k, each optimized for different application scenarios, providing cost-effective solutions."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "An open-source organization dedicated to the research and development of large model toolchains. It provides an efficient and user-friendly open-source platform for all AI developers, making cutting-edge large models and algorithm technologies easily accessible."
},
"jina": {
"description": "Founded in 2020, Jina AI is a leading search AI company. Our search base platform includes vector models, rerankers, and small language models to help businesses build reliable and high-quality generative AI and multimodal search applications."
},
"lmstudio": {
"description": "LM Studio is a desktop application for developing and experimenting with LLMs on your computer."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI is a platform providing a variety of large language models and AI image generation API services, flexible, reliable, and cost-effective. It supports the latest open-source models like Llama3 and Mistral, offering a comprehensive, user-friendly, and auto-scaling API solution for generative AI application development, suitable for the rapid growth of AI startups."
},
"nvidia": {
"description": "NVIDIA NIM™ provides containers for self-hosted GPU-accelerated inference microservices, supporting the deployment of pre-trained and custom AI models in the cloud, data centers, RTX™ AI personal computers, and workstations."
},
"ollama": {
"description": "Ollama provides models that cover a wide range of fields, including code generation, mathematical operations, multilingual processing, and conversational interaction, catering to diverse enterprise-level and localized deployment needs."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications."
},
"vllm": {
"description": "vLLM is a fast and easy-to-use library for LLM inference and serving."
},
"wenxin": {
"description": "An enterprise-level one-stop platform for large model and AI-native application development and services, providing the most comprehensive and user-friendly toolchain for the entire process of generative artificial intelligence model development and application development."
},

View file

@ -19,6 +19,24 @@
"title": "Clave API"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Versión de la API de Azure, siguiendo el formato AAAA-MM-DD, consulta la [última versión](https://learn.microsoft.com/es-es/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Obtener lista",
"title": "Versión de la API de Azure"
},
"endpoint": {
"desc": "Encuentra el punto final de inferencia del modelo de Azure AI en la descripción general del proyecto de Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Punto final de Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Encuentra la clave API en la descripción general del proyecto de Azure AI",
"placeholder": "Clave de Azure",
"title": "Clave"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Introduce tu AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "Dirección del proxy"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Por favor, selecciona el tipo de SDK",
"title": "Formato de solicitud"
},
@ -210,6 +229,11 @@
"placeholder": "Por favor, introduce el nombre de despliegue del modelo en Azure",
"title": "Nombre de despliegue del modelo"
},
"deployName": {
"extra": "Este campo se enviará como ID del modelo al hacer la solicitud",
"placeholder": "Introduce el nombre o ID real del modelo desplegado",
"title": "Nombre de despliegue del modelo"
},
"displayName": {
"placeholder": "Por favor, introduce el nombre de visualización del modelo, por ejemplo, ChatGPT, GPT-4, etc.",
"title": "Nombre de visualización del modelo"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B es un modelo avanzado entrenado para diálogos de alta complejidad."
},
"deepseek-ai/deepseek-r1": {
"description": "LLM eficiente de última generación, experto en razonamiento, matemáticas y programación."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 es un modelo de lenguaje visual de expertos mixtos (MoE) desarrollado sobre DeepSeekMoE-27B, que utiliza una arquitectura MoE de activación dispersa, logrando un rendimiento excepcional al activar solo 4.5B de parámetros. Este modelo destaca en múltiples tareas como preguntas visuales, reconocimiento óptico de caracteres, comprensión de documentos/tablas/gráficos y localización visual."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
},
"emohaa": {
"description": "Emohaa es un modelo psicológico con capacidades de consulta profesional, ayudando a los usuarios a comprender problemas emocionales."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combina las últimas tecnologías de optimización, proporcionando una capacidad de procesamiento de datos multimodal más eficiente."
},
"google/gemma-2-27b": {
"description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 continúa con el concepto de diseño ligero y eficiente."
},
"google/gemma-2-2b-it": {
"description": "Modelo de ajuste de instrucciones ligero de Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 es una serie de modelos de texto de código abierto y ligeros de Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, lidera el mercado de modelos de código abierto de tamaño similar. Apunta por defecto a nuestra serie de modelos InternLM3 más reciente."
},
"jina-deepsearch-v1": {
"description": "La búsqueda profunda combina la búsqueda en la web, la lectura y el razonamiento para realizar investigaciones exhaustivas. Puedes considerarlo como un agente que acepta tus tareas de investigación: realiza una búsqueda amplia y pasa por múltiples iteraciones antes de proporcionar una respuesta. Este proceso implica una investigación continua, razonamiento y resolución de problemas desde diferentes ángulos. Esto es fundamentalmente diferente de los grandes modelos estándar que generan respuestas directamente a partir de datos preentrenados y de los sistemas RAG tradicionales que dependen de búsquedas superficiales únicas."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "El modelo Llama 3.1 Turbo de 405B proporciona un soporte de contexto de gran capacidad para el procesamiento de grandes datos, destacándose en aplicaciones de inteligencia artificial a gran escala."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 es el modelo líder lanzado por Meta, que soporta hasta 405B de parámetros, aplicable en diálogos complejos, traducción multilingüe y análisis de datos."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B proporciona soporte de conversación eficiente en múltiples idiomas."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para dispositivos de borde con recursos y capacidades computacionales limitadas, así como para tiempos de entrenamiento más rápidos."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avanzado, que soporta generación de datos sintéticos, destilación de conocimiento y razonamiento, adecuado para chatbots, programación y tareas de dominio específico."
},
"meta/llama-3.1-70b-instruct": {
"description": "Potencia diálogos complejos, con excelente comprensión del contexto, capacidad de razonamiento y generación de texto."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modelo de última generación avanzado, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modelo de visión-lenguaje de vanguardia, experto en razonamiento de alta calidad a partir de imágenes."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modelo de lenguaje pequeño de última generación, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modelo de lenguaje pequeño de última generación, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modelo de visión-lenguaje de vanguardia, experto en razonamiento de alta calidad a partir de imágenes."
},
"meta/llama-3.3-70b-instruct": {
"description": "Modelo LLM avanzado, experto en razonamiento, matemáticas, sentido común y llamadas a funciones."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingüismo, razonamiento y asistentes inteligentes."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B es un modelo de lenguaje a gran escala personalizado por NVIDIA, diseñado para mejorar la utilidad de las respuestas generadas por LLM a las consultas de los usuarios. Este modelo ha destacado en pruebas de referencia como Arena Hard, AlpacaEval 2 LC y GPT-4-Turbo MT-Bench, ocupando el primer lugar en los tres benchmarks de alineación automática hasta el 1 de octubre de 2024. El modelo se entrena utilizando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward y HelpSteer2-Preference sobre la base del modelo Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Modelo de lenguaje único, que ofrece una precisión y eficiencia inigualables."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct es un modelo de lenguaje grande personalizado por NVIDIA, diseñado para mejorar la utilidad de las respuestas generadas por LLM."
},
"o1": {
"description": "Se centra en el razonamiento avanzado y la resolución de problemas complejos, incluidas tareas matemáticas y científicas. Es muy adecuado para aplicaciones que requieren una comprensión profunda del contexto y flujos de trabajo de agentes."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 es una nueva serie de modelos de lenguaje de gran tamaño, con una mayor capacidad de comprensión y generación."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM orientado a chino e inglés, enfocado en áreas como lenguaje, programación, matemáticas y razonamiento."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "LLM avanzado, que soporta generación de código, razonamiento y corrección, abarcando lenguajes de programación populares."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Poderoso modelo de código de tamaño mediano, que soporta longitudes de contexto de 32K, experto en programación multilingüe."
},
"qwen2": {
"description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure ofrece una variedad de modelos de IA avanzados, incluidos GPT-3.5 y la última serie GPT-4, que admiten múltiples tipos de datos y tareas complejas, comprometidos con soluciones de IA seguras, confiables y sostenibles."
},
"azureai": {
"description": "Azure ofrece una variedad de modelos de IA avanzados, incluidos GPT-3.5 y la última serie GPT-4, que admiten múltiples tipos de datos y tareas complejas, comprometidos con soluciones de IA seguras, confiables y sostenibles."
},
"baichuan": {
"description": "Baichuan Intelligent es una empresa centrada en el desarrollo de modelos de gran tamaño de inteligencia artificial, cuyos modelos han demostrado un rendimiento excepcional en tareas en chino como enciclopedias de conocimiento, procesamiento de textos largos y creación de contenido, superando a los modelos principales extranjeros. Baichuan Intelligent también posee capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de autoridad. Sus modelos incluyen Baichuan 4, Baichuan 3 Turbo y Baichuan 3 Turbo 128k, optimizados para diferentes escenarios de aplicación, ofreciendo soluciones de alta relación calidad-precio."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Organización de código abierto dedicada a la investigación y desarrollo de herramientas para modelos grandes. Proporciona a todos los desarrolladores de IA una plataforma de código abierto eficiente y fácil de usar, permitiendo el acceso a las tecnologías y algoritmos más avanzados."
},
"jina": {
"description": "Jina AI, fundada en 2020, es una empresa líder en búsqueda de IA. Nuestra plataforma de búsqueda base incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje, que ayudan a las empresas a construir aplicaciones de búsqueda generativa y multimodal confiables y de alta calidad."
},
"lmstudio": {
"description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en su computadora."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI es una plataforma que ofrece servicios API para múltiples modelos de lenguaje de gran tamaño y generación de imágenes de IA, siendo flexible, confiable y rentable. Soporta los últimos modelos de código abierto como Llama3 y Mistral, proporcionando soluciones API completas, amigables para el usuario y autoescalables para el desarrollo de aplicaciones de IA, adecuadas para el rápido crecimiento de startups de IA."
},
"nvidia": {
"description": "NVIDIA NIM™ proporciona contenedores que se pueden utilizar para microservicios de inferencia acelerados por GPU autohospedados, admitiendo el despliegue de modelos de IA preentrenados y personalizados en la nube, centros de datos, PC RTX™ AI y estaciones de trabajo."
},
"ollama": {
"description": "Los modelos ofrecidos por Ollama abarcan ampliamente áreas como la generación de código, cálculos matemáticos, procesamiento multilingüe e interacciones conversacionales, apoyando diversas necesidades de implementación empresarial y local."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage se centra en desarrollar modelos de IA para diversas necesidades comerciales, incluidos Solar LLM y Document AI, con el objetivo de lograr una inteligencia general artificial (AGI) que trabaje para las personas. Crea agentes de diálogo simples a través de la API de Chat y admite llamadas de funciones, traducción, incrustaciones y aplicaciones de dominio específico."
},
"vllm": {
"description": "vLLM es una biblioteca rápida y fácil de usar para la inferencia y el servicio de LLM."
},
"wenxin": {
"description": "Plataforma de desarrollo y servicios de modelos grandes y aplicaciones nativas de IA de nivel empresarial, que ofrece la cadena de herramientas más completa y fácil de usar para el desarrollo de modelos de inteligencia artificial generativa y el desarrollo de aplicaciones en todo el proceso."
},

View file

@ -19,6 +19,24 @@
"title": "کلید API"
}
},
"azureai": {
"azureApiVersion": {
"desc": "نسخه API آژور، با فرمت YYYY-MM-DD، برای مشاهده [آخرین نسخه](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "دریافت لیست",
"title": "نسخه API آژور"
},
"endpoint": {
"desc": "نقطه پایانی استنتاج مدل آژور AI را از نمای کلی پروژه آژور AI پیدا کنید",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "نقطه پایانی آژور AI"
},
"title": "آژور OpenAI",
"token": {
"desc": "کلید API را از نمای کلی پروژه آژور AI پیدا کنید",
"placeholder": "کلید آژور",
"title": "کلید"
}
},
"bedrock": {
"accessKeyId": {
"desc": "AWS Access Key Id را وارد کنید",
@ -92,11 +110,23 @@
"required": "لطفاً نام ارائه‌دهنده را وارد کنید",
"title": "نام ارائه‌دهنده"
},
"providerModels": {
"item": {
"modelConfig": {
"deployName": {
"extra": "این فیلد به عنوان شناسه مدل هنگام ارسال درخواست استفاده می‌شود",
"placeholder": "لطفاً نام یا شناسه واقعی استقرار مدل را وارد کنید",
"title": "نام استقرار مدل"
}
}
}
},
"proxyUrl": {
"required": "لطفاً آدرس پروکسی را وارد کنید",
"title": "آدرس پروکسی"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "لطفاً نوع SDK را انتخاب کنید",
"title": "فرمت درخواست"
},

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه هوش مصنوعی است که توانایی درک عمیق زبان و تعامل را فراهم می‌کند."
},
"deepseek-ai/deepseek-r1": {
"description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامه‌نویسی مهارت دارد."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 یک مدل زبانی بصری مبتنی بر DeepSeekMoE-27B است که از معماری MoE با فعال‌سازی پراکنده استفاده می‌کند و در حالی که تنها 4.5 میلیارد پارامتر فعال است، عملکرد فوق‌العاده‌ای را ارائه می‌دهد. این مدل در چندین وظیفه از جمله پرسش و پاسخ بصری، شناسایی کاراکتر نوری، درک اسناد/جدول‌ها/نمودارها و مکان‌یابی بصری عملکرد عالی دارد."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
},
"emohaa": {
"description": "Emohaa یک مدل روان‌شناختی است که دارای توانایی مشاوره حرفه‌ای بوده و به کاربران در درک مسائل احساسی کمک می‌کند."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro با ترکیب آخرین فناوری‌های بهینه‌سازی، توانایی پردازش داده‌های چندحالته را با کارایی بالاتر ارائه می‌دهد."
},
"google/gemma-2-27b": {
"description": "Gemma 2 مدل کارآمدی است که توسط Google ارائه شده و شامل طیف وسیعی از کاربردها از برنامه‌های کوچک تا پردازش داده‌های پیچیده است."
},
"google/gemma-2-27b-it": {
"description": "جمما ۲ ادامه‌دهنده‌ی ایده طراحی سبک و کارآمد است."
},
"google/gemma-2-2b-it": {
"description": "مدل بهینه‌سازی دستورات سبک گوگل"
},
"google/gemma-2-9b": {
"description": "Gemma 2 مدل کارآمدی است که توسط Google ارائه شده و شامل طیف وسیعی از کاربردها از برنامه‌های کوچک تا پردازش داده‌های پیچیده است."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 یک سری مدل‌های متنی سبک و متن‌باز از Google است."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "سری جدیدترین مدل‌های ما با عملکرد استدلال برجسته، پیشتاز مدل‌های متن‌باز در همان سطح هستند. به طور پیش‌فرض به جدیدترین مدل‌های سری InternLM3 ما اشاره دارد."
},
"jina-deepsearch-v1": {
"description": "جستجوی عمیق ترکیبی از جستجوی اینترنتی، خواندن و استدلال است که می‌تواند تحقیقات جامع را انجام دهد. می‌توانید آن را به عنوان یک نماینده در نظر بگیرید که وظایف تحقیق شما را می‌پذیرد - این نماینده جستجوی گسترده‌ای انجام می‌دهد و پس از چندین بار تکرار، پاسخ را ارائه می‌دهد. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است. این با مدل‌های بزرگ استاندارد که مستقیماً از داده‌های پیش‌آموزش شده پاسخ تولید می‌کنند و سیستم‌های RAG سنتی که به جستجوی سطحی یک‌باره وابسته‌اند، تفاوت اساسی دارد."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و می‌تواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "مدل Llama 3.1 Turbo با ظرفیت 405B، پشتیبانی از زمینه‌های بسیار بزرگ برای پردازش داده‌های عظیم را فراهم می‌کند و در کاربردهای هوش مصنوعی در مقیاس بسیار بزرگ عملکرد برجسته‌ای دارد."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از حداکثر 405B پارامتر پشتیبانی می‌کند و می‌تواند در زمینه‌های گفتگوهای پیچیده، ترجمه چند زبانه و تحلیل داده‌ها استفاده شود."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B پشتیبانی کارآمد از مکالمات چندزبانه را ارائه می‌دهد."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها طراحی شده است تا به آن‌ها در ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاه‌های با توان محاسباتی و منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع‌تر بسیار مناسب است."
},
"meta/llama-3.1-405b-instruct": {
"description": "مدل LLM پیشرفته که از تولید داده‌های ترکیبی، تقطیر دانش و استدلال پشتیبانی می‌کند و برای ربات‌های چت، برنامه‌نویسی و وظایف خاص مناسب است."
},
"meta/llama-3.1-70b-instruct": {
"description": "توانمندسازی گفتگوهای پیچیده با درک زمینه‌ای عالی، توانایی استدلال و قابلیت تولید متن."
},
"meta/llama-3.1-8b-instruct": {
"description": "مدل پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
},
"meta/llama-3.2-1b-instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
},
"meta/llama-3.2-3b-instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
},
"meta/llama-3.3-70b-instruct": {
"description": "مدل LLM پیشرفته که در استدلال، ریاضیات، دانش عمومی و فراخوانی توابع مهارت دارد."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینه‌های گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B یک مدل زبانی بزرگ سفارشی شده توسط NVIDIA است که به منظور افزایش کمک به پاسخ‌های تولید شده توسط LLM برای پرسش‌های کاربران طراحی شده است. این مدل در آزمون‌های معیار مانند Arena Hard، AlpacaEval 2 LC و GPT-4-Turbo MT-Bench عملکرد عالی داشته و تا تاریخ 1 اکتبر 2024 در تمامی سه آزمون خودکار هم‌راستایی در رتبه اول قرار دارد. این مدل با استفاده از RLHF (به ویژه REINFORCE)، Llama-3.1-Nemotron-70B-Reward و HelpSteer2-Preference در مدل Llama-3.1-70B-Instruct آموزش دیده است."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "مدل زبان منحصر به فرد که دقت و کارایی بی‌نظیری را ارائه می‌دهد."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B یک مدل زبان بزرگ سفارشی از NVIDIA است که به منظور افزایش کمک‌پذیری پاسخ‌های تولید شده توسط LLM طراحی شده است."
},
"o1": {
"description": "متمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که به درک عمیق زمینه و مدیریت جریان‌های کاری نیاز دارند."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 یک سری جدید از مدل‌های زبان بزرگ است که دارای توانایی‌های درک و تولید قوی‌تری می‌باشد."
},
"qwen/qwen2.5-7b-instruct": {
"description": "مدل LLM برای زبان‌های چینی و انگلیسی که در زمینه‌های زبان، برنامه‌نویسی، ریاضیات و استدلال تخصص دارد."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "مدل LLM پیشرفته که از تولید کد، استدلال و اصلاح پشتیبانی می‌کند و شامل زبان‌های برنامه‌نویسی اصلی است."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "مدل کد قدرتمند و متوسط که از طول زمینه 32K پشتیبانی می‌کند و در برنامه‌نویسی چند زبانه مهارت دارد."
},
"qwen2": {
"description": "Qwen2 مدل زبان بزرگ نسل جدید علی‌بابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure انواع مدل‌های پیشرفته AI را ارائه می‌دهد، از جمله GPT-3.5 و جدیدترین سری GPT-4، که از انواع داده‌ها و وظایف پیچیده پشتیبانی می‌کند و به ارائه راه‌حل‌های AI ایمن، قابل اعتماد و پایدار متعهد است."
},
"azureai": {
"description": "Azure مجموعه‌ای از مدل‌های پیشرفته AI را ارائه می‌دهد، از جمله GPT-3.5 و جدیدترین سری GPT-4، که از انواع مختلف داده‌ها و وظایف پیچیده پشتیبانی می‌کند و به دنبال راه‌حل‌های AI ایمن، قابل اعتماد و پایدار است."
},
"baichuan": {
"description": "بایچوان هوش مصنوعی یک شرکت متمرکز بر توسعه مدل‌های بزرگ هوش مصنوعی است. مدل‌های این شرکت در وظایف چینی مانند دانشنامه، پردازش متون طولانی و تولید محتوا عملکرد برجسته‌ای دارند و از مدل‌های اصلی خارجی پیشی گرفته‌اند. بایچوان هوش مصنوعی همچنین دارای توانایی‌های چندوجهی پیشرو در صنعت است و در چندین ارزیابی معتبر عملکرد عالی داشته است. مدل‌های آن شامل Baichuan 4، Baichuan 3 Turbo و Baichuan 3 Turbo 128k هستند که برای سناریوهای مختلف بهینه‌سازی شده‌اند و راه‌حل‌های مقرون‌به‌صرفه‌ای ارائه می‌دهند."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "سازمان متن باز متعهد به تحقیق و توسعه ابزارهای مدل‌های بزرگ. ارائه یک پلتفرم متن باز کارآمد و آسان برای تمام توسعه‌دهندگان هوش مصنوعی، تا جدیدترین مدل‌ها و تکنیک‌های الگوریتمی در دسترس باشد."
},
"jina": {
"description": "Jina AI در سال 2020 تأسیس شد و یک شرکت پیشرو در زمینه AI جستجو است. پلتفرم پایه جستجوی ما شامل مدل‌های برداری، بازچینش‌گرها و مدل‌های زبانی کوچک است که به کسب‌وکارها کمک می‌کند تا برنامه‌های جستجوی تولیدی و چندرسانه‌ای قابل اعتماد و با کیفیت بالا بسازند."
},
"lmstudio": {
"description": "LM Studio یک برنامه دسکتاپ برای توسعه و آزمایش LLM ها بر روی رایانه شما است."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI یک پلتفرم ارائه‌دهنده خدمات API برای مدل‌های بزرگ زبانی و تولید تصاویر هوش مصنوعی است که انعطاف‌پذیر، قابل‌اعتماد و مقرون‌به‌صرفه می‌باشد. این پلتفرم از جدیدترین مدل‌های متن‌باز مانند Llama3 و Mistral پشتیبانی می‌کند و راه‌حل‌های API جامع، کاربرپسند و خودکار برای توسعه برنامه‌های هوش مصنوعی مولد ارائه می‌دهد که مناسب رشد سریع استارتاپ‌های هوش مصنوعی است."
},
"nvidia": {
"description": "NVIDIA NIM™ کانتینرهایی را ارائه می‌دهد که می‌توانند برای استنتاج میکروسرویس‌های GPU تسریع شده خود میزبان استفاده شوند و از استقرار مدل‌های AI پیش‌آموزش‌دیده و سفارشی در ابر، مراکز داده، رایانه‌های شخصی RTX™ AI و ایستگاه‌های کاری پشتیبانی می‌کند."
},
"ollama": {
"description": "مدل‌های ارائه‌شده توسط Ollama طیف گسترده‌ای از تولید کد، محاسبات ریاضی، پردازش چندزبانه و تعاملات گفتگویی را پوشش می‌دهند و از نیازهای متنوع استقرار در سطح سازمانی و محلی پشتیبانی می‌کنند."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage بر توسعه مدل‌های هوش مصنوعی برای نیازهای مختلف تجاری تمرکز دارد، از جمله Solar LLM و هوش مصنوعی اسناد، که هدف آن دستیابی به هوش عمومی مصنوعی (AGI) برای کار است. با استفاده از Chat API، می‌توانید نمایندگان مکالمه ساده ایجاد کنید و از قابلیت‌های فراخوانی عملکرد، ترجمه، تعبیه و کاربردهای خاص حوزه پشتیبانی کنید."
},
"vllm": {
"description": "vLLM یک کتابخانه سریع و آسان برای استفاده است که برای استنتاج و خدمات LLM طراحی شده است."
},
"wenxin": {
"description": "پلتفرم جامع توسعه و خدمات مدل‌های بزرگ و برنامه‌های بومی هوش مصنوعی در سطح سازمانی، ارائه‌دهنده کامل‌ترین و کاربرپسندترین زنجیره ابزارهای توسعه مدل‌های هوش مصنوعی مولد و توسعه برنامه‌ها"
},

View file

@ -19,6 +19,24 @@
"title": "Clé API"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Version de l'API Azure, au format YYYY-MM-DD. Consultez la [dernière version](https://learn.microsoft.com/fr-fr/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Obtenir la liste",
"title": "Version de l'API Azure"
},
"endpoint": {
"desc": "Trouvez le point de terminaison d'inférence du modèle Azure AI dans l'aperçu du projet Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Point de terminaison Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Trouvez la clé API dans l'aperçu du projet Azure AI",
"placeholder": "Clé Azure",
"title": "Clé"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Saisissez l'ID de clé d'accès AWS",
@ -97,6 +115,7 @@
"title": "Adresse du proxy"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Veuillez sélectionner le type de SDK",
"title": "Format de requête"
},
@ -210,6 +229,11 @@
"placeholder": "Veuillez entrer le nom de déploiement du modèle dans Azure",
"title": "Nom de déploiement du modèle"
},
"deployName": {
"extra": "Ce champ sera utilisé comme ID de modèle lors de l'envoi de la demande",
"placeholder": "Veuillez entrer le nom ou l'ID de déploiement réel du modèle",
"title": "Nom de déploiement du modèle"
},
"displayName": {
"placeholder": "Veuillez entrer le nom d'affichage du modèle, par exemple ChatGPT, GPT-4, etc.",
"title": "Nom d'affichage du modèle"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité."
},
"deepseek-ai/deepseek-r1": {
"description": "LLM avancé et efficace, spécialisé dans le raisonnement, les mathématiques et la programmation."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 est un modèle de langage visuel à experts mixtes (MoE) développé sur la base de DeepSeekMoE-27B, utilisant une architecture MoE à activation sparse, réalisant des performances exceptionnelles tout en n'activant que 4,5 milliards de paramètres. Ce modèle excelle dans plusieurs tâches telles que la question-réponse visuelle, la reconnaissance optique de caractères, la compréhension de documents/tableaux/graphes et le positionnement visuel."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Un nouveau modèle open source fusionnant des capacités générales et de codage, qui non seulement conserve les capacités de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'aligne également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a également réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi d'instructions."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
},
"emohaa": {
"description": "Emohaa est un modèle psychologique, doté de compétences de conseil professionnel, aidant les utilisateurs à comprendre les problèmes émotionnels."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combine les dernières technologies d'optimisation pour offrir une capacité de traitement de données multimodales plus efficace."
},
"google/gemma-2-27b": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 poursuit le concept de conception légère et efficace."
},
"google/gemma-2-2b-it": {
"description": "Modèle d'optimisation des instructions léger de Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 est une série de modèles de texte open source allégés de Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Notre dernière série de modèles, avec des performances d'inférence exceptionnelles, en tête des modèles open source de même niveau. Par défaut, elle pointe vers notre dernière version du modèle InternLM3."
},
"jina-deepsearch-v1": {
"description": "La recherche approfondie combine la recherche sur le web, la lecture et le raisonnement pour mener des enquêtes complètes. Vous pouvez la considérer comme un agent qui prend en charge vos tâches de recherche - elle effectuera une recherche approfondie et itérative avant de fournir une réponse. Ce processus implique une recherche continue, un raisonnement et une résolution de problèmes sous différents angles. Cela diffère fondamentalement des grands modèles standard qui génèrent des réponses directement à partir de données pré-entraînées et des systèmes RAG traditionnels qui dépendent d'une recherche superficielle unique."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Le modèle Llama 3.1 Turbo 405B offre un support de contexte de très grande capacité pour le traitement de grandes données, se distinguant dans les applications d'intelligence artificielle à très grande échelle."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable aux dialogues complexes, à la traduction multilingue et à l'analyse de données."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B offre un support de dialogue efficace en plusieurs langues."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avancé, prenant en charge la génération de données synthétiques, la distillation de connaissances et le raisonnement, adapté aux chatbots, à la programmation et aux tâches spécifiques."
},
"meta/llama-3.1-70b-instruct": {
"description": "Permet des dialogues complexes, avec une excellente compréhension du contexte, des capacités de raisonnement et de génération de texte."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modèle de pointe avancé, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
},
"meta/llama-3.3-70b-instruct": {
"description": "LLM avancé, spécialisé dans le raisonnement, les mathématiques, le bon sens et les appels de fonction."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, qui excelle dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B est un modèle de langage à grande échelle personnalisé par NVIDIA, conçu pour améliorer l'aide fournie par les réponses générées par LLM aux requêtes des utilisateurs. Ce modèle a excellé dans des tests de référence tels que Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant premier dans les trois tests d'alignement automatique au 1er octobre 2024. Le modèle utilise RLHF (en particulier REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference pour l'entraînement sur la base du modèle Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Modèle de langage unique, offrant une précision et une efficacité inégalées."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct est un modèle de langage de grande taille personnalisé par NVIDIA, conçu pour améliorer l'utilité des réponses générées par LLM."
},
"o1": {
"description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris les tâches mathématiques et scientifiques. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail d'agent."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, offrant des capacités de compréhension et de génération plus puissantes."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM orienté vers le chinois et l'anglais, ciblant des domaines tels que la langue, la programmation, les mathématiques et le raisonnement."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "LLM avancé, prenant en charge la génération de code, le raisonnement et la correction, couvrant les langages de programmation courants."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Modèle de code puissant de taille moyenne, prenant en charge une longueur de contexte de 32K, spécialisé dans la programmation multilingue."
},
"qwen2": {
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure propose une variété de modèles IA avancés, y compris GPT-3.5 et la dernière série GPT-4, prenant en charge divers types de données et tâches complexes, tout en s'engageant à fournir des solutions IA sécurisées, fiables et durables."
},
"azureai": {
"description": "Azure propose une variété de modèles d'IA avancés, y compris GPT-3.5 et la dernière série GPT-4, prenant en charge divers types de données et des tâches complexes, s'engageant à fournir des solutions d'IA sécurisées, fiables et durables."
},
"baichuan": {
"description": "Baichuan Intelligent est une entreprise spécialisée dans le développement de grands modèles d'intelligence artificielle, dont les modèles excellent dans les tâches en chinois telles que l'encyclopédie de connaissances, le traitement de longs textes et la création, surpassant les modèles dominants étrangers. Baichuan Intelligent possède également des capacités multimodales de premier plan, se distinguant dans plusieurs évaluations autorisées. Ses modèles incluent Baichuan 4, Baichuan 3 Turbo et Baichuan 3 Turbo 128k, chacun optimisé pour différents scénarios d'application, offrant des solutions à bon rapport qualité-prix."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Organisation open source dédiée à la recherche et au développement d'outils pour les grands modèles. Fournit à tous les développeurs d'IA une plateforme open source efficace et facile à utiliser, rendant les technologies de pointe en matière de grands modèles et d'algorithmes accessibles."
},
"jina": {
"description": "Jina AI, fondée en 2020, est une entreprise leader dans le domaine de l'IA de recherche. Notre plateforme de recherche de base comprend des modèles vectoriels, des réarrangeurs et de petits modèles de langage, aidant les entreprises à construire des applications de recherche génératives et multimodales fiables et de haute qualité."
},
"lmstudio": {
"description": "LM Studio est une application de bureau pour développer et expérimenter des LLM sur votre ordinateur."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI est une plateforme offrant des services API pour divers grands modèles de langage et la génération d'images IA, flexible, fiable et rentable. Elle prend en charge les derniers modèles open source tels que Llama3, Mistral, et fournit des solutions API complètes, conviviales et évolutives pour le développement d'applications IA, adaptées à la croissance rapide des startups IA."
},
"nvidia": {
"description": "NVIDIA NIM™ fournit des conteneurs pour l'inférence de microservices accélérés par GPU auto-hébergés, prenant en charge le déploiement de modèles d'IA pré-entraînés et personnalisés dans le cloud, les centres de données, les PC personnels RTX™ AI et les stations de travail."
},
"ollama": {
"description": "Les modèles proposés par Ollama couvrent largement des domaines tels que la génération de code, les calculs mathématiques, le traitement multilingue et les interactions conversationnelles, répondant à des besoins diversifiés pour le déploiement en entreprise et la localisation."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage se concentre sur le développement de modèles IA pour divers besoins commerciaux, y compris Solar LLM et Document AI, visant à réaliser une intelligence générale artificielle (AGI) pour le travail. Créez des agents de dialogue simples via l'API Chat, et prenez en charge les appels de fonction, la traduction, l'intégration et les applications spécifiques à un domaine."
},
"vllm": {
"description": "vLLM est une bibliothèque rapide et facile à utiliser pour l'inférence et les services LLM."
},
"wenxin": {
"description": "Plateforme de développement et de services d'applications AI natives et de modèles de grande envergure, tout-en-un pour les entreprises, offrant la chaîne d'outils la plus complète et facile à utiliser pour le développement de modèles d'intelligence artificielle générative et le développement d'applications."
},

View file

@ -19,6 +19,24 @@
"title": "Chiave API"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Versione API di Azure, seguendo il formato YYYY-MM-DD, consulta [l'ultima versione](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Ottieni elenco",
"title": "Versione API di Azure"
},
"endpoint": {
"desc": "Trova l'endpoint di inferenza del modello Azure AI nella panoramica del progetto Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Endpoint di Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Trova la chiave API nella panoramica del progetto Azure AI",
"placeholder": "Chiave Azure",
"title": "Chiave"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Inserisci l'ID chiave di accesso AWS",
@ -97,6 +115,7 @@
"title": "Indirizzo proxy"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Seleziona il tipo di SDK",
"title": "Formato della richiesta"
},
@ -210,6 +229,11 @@
"placeholder": "Inserisci il nome di distribuzione del modello in Azure",
"title": "Nome di distribuzione del modello"
},
"deployName": {
"extra": "Questo campo verrà utilizzato come ID del modello quando si invia la richiesta",
"placeholder": "Inserisci il nome o l'ID effettivo del modello distribuito",
"title": "Nome di distribuzione del modello"
},
"displayName": {
"placeholder": "Inserisci il nome visualizzato del modello, ad esempio ChatGPT, GPT-4, ecc.",
"title": "Nome visualizzato del modello"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B è un modello avanzato addestrato per dialoghi ad alta complessità."
},
"deepseek-ai/deepseek-r1": {
"description": "LLM altamente efficiente, specializzato in ragionamento, matematica e programmazione."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 è un modello linguistico visivo a esperti misti (MoE) sviluppato sulla base di DeepSeekMoE-27B, che utilizza un'architettura MoE con attivazione sparsa, raggiungendo prestazioni eccezionali attivando solo 4,5 miliardi di parametri. Questo modello eccelle in vari compiti, tra cui domande visive, riconoscimento ottico dei caratteri, comprensione di documenti/tabelle/grafici e localizzazione visiva."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Un nuovo modello open source che integra capacità generali e di codice, mantenendo non solo le capacità di dialogo generali del modello Chat originale e la potente capacità di elaborazione del codice del modello Coder, ma allineandosi anche meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come compiti di scrittura e seguire istruzioni."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
},
"emohaa": {
"description": "Emohaa è un modello psicologico, con capacità di consulenza professionale, aiuta gli utenti a comprendere i problemi emotivi."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combina le più recenti tecnologie di ottimizzazione, offrendo una capacità di elaborazione dei dati multimodali più efficiente."
},
"google/gemma-2-27b": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una varietà di scenari applicativi, dalle piccole applicazioni all'elaborazione di dati complessi."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 continua il concetto di design leggero ed efficiente."
},
"google/gemma-2-2b-it": {
"description": "Modello di ottimizzazione delle istruzioni leggero di Google"
},
"google/gemma-2-9b": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una varietà di scenari applicativi, dalle piccole applicazioni all'elaborazione di dati complessi."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 è una serie di modelli di testo open source leggeri di Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "La nostra ultima serie di modelli, con prestazioni di inferenza eccezionali, è leader tra i modelli open source della stessa classe. Punta di default ai modelli della serie InternLM3 appena rilasciati."
},
"jina-deepsearch-v1": {
"description": "La ricerca approfondita combina la ricerca online, la lettura e il ragionamento, consentendo indagini complete. Puoi considerarlo come un agente che accetta il tuo compito di ricerca - eseguirà una ricerca approfondita e iterativa prima di fornire una risposta. Questo processo implica una continua ricerca, ragionamento e risoluzione dei problemi da diverse angolazioni. Questo è fondamentalmente diverso dai modelli di grandi dimensioni standard che generano risposte direttamente dai dati pre-addestrati e dai tradizionali sistemi RAG che si basano su ricerche superficiali una tantum."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Il modello Llama 3.1 Turbo 405B offre un supporto di contesto di capacità estremamente grande per l'elaborazione di big data, eccellendo nelle applicazioni di intelligenza artificiale su larga scala."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a conversazioni complesse, traduzione multilingue e analisi dei dati."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B offre supporto per dialoghi multilingue ad alta efficienza."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per dispositivi a bassa potenza e risorse limitate, oltre a garantire tempi di addestramento più rapidi."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avanzato, supporta la generazione di dati sintetici, la distillazione della conoscenza e il ragionamento, adatto per chatbot, programmazione e compiti specifici."
},
"meta/llama-3.1-70b-instruct": {
"description": "Abilita conversazioni complesse, con eccellenti capacità di comprensione del contesto, ragionamento e generazione di testo."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modello all'avanguardia, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
},
"meta/llama-3.3-70b-instruct": {
"description": "LLM avanzato, specializzato in ragionamento, matematica, conoscenze generali e chiamate di funzione."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 è un modello linguistico fornito da Microsoft AI, particolarmente efficace in conversazioni complesse, multilingue, ragionamento e assistenti intelligenti."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate dai LLM alle domande degli utenti. Questo modello ha ottenuto risultati eccellenti nei benchmark come Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di allineamento automatico fino al 1 ottobre 2024. Il modello è stato addestrato utilizzando RLHF (in particolare REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference come suggerimenti, basandosi sul modello Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Modello linguistico unico, offre prestazioni di accuratezza ed efficienza senza pari."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate da LLM."
},
"o1": {
"description": "Focalizzato su inferenze avanzate e risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro agenti."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 è una nuova serie di modelli di linguaggio di grandi dimensioni, con capacità di comprensione e generazione più forti."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM orientato al cinese e all'inglese, focalizzato su linguaggio, programmazione, matematica, ragionamento e altro."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "LLM avanzato, supporta la generazione di codice, il ragionamento e la correzione, coprendo i linguaggi di programmazione più diffusi."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Potente modello di codice di medie dimensioni, supporta una lunghezza di contesto di 32K, specializzato in programmazione multilingue."
},
"qwen2": {
"description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure offre una varietà di modelli AI avanzati, tra cui GPT-3.5 e l'ultima serie GPT-4, supportando diversi tipi di dati e compiti complessi, con un impegno per soluzioni AI sicure, affidabili e sostenibili."
},
"azureai": {
"description": "Azure offre una varietà di modelli AI avanzati, tra cui GPT-3.5 e l'ultima serie GPT-4, supportando diversi tipi di dati e compiti complessi, impegnandosi per soluzioni AI sicure, affidabili e sostenibili."
},
"baichuan": {
"description": "Baichuan Intelligence è un'azienda focalizzata sulla ricerca e sviluppo di modelli di intelligenza artificiale di grandi dimensioni, i cui modelli eccellono in compiti in cinese come enciclopedie di conoscenza, elaborazione di testi lunghi e creazione di contenuti, superando i modelli mainstream esteri. Baichuan Intelligence ha anche capacità multimodali leader nel settore, mostrando prestazioni eccezionali in diverse valutazioni autorevoli. I suoi modelli includono Baichuan 4, Baichuan 3 Turbo e Baichuan 3 Turbo 128k, ottimizzati per diversi scenari applicativi, offrendo soluzioni ad alto rapporto qualità-prezzo."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Un'organizzazione open source dedicata alla ricerca e allo sviluppo di strumenti per modelli di grandi dimensioni. Fornisce a tutti gli sviluppatori di AI una piattaforma open source efficiente e facile da usare, rendendo le tecnologie e gli algoritmi all'avanguardia accessibili a tutti."
},
"jina": {
"description": "Jina AI, fondata nel 2020, è una delle principali aziende di ricerca AI. La nostra piattaforma di base per la ricerca include modelli vettoriali, riordinatori e piccoli modelli linguistici, per aiutare le aziende a costruire applicazioni di ricerca generativa e multimodale affidabili e di alta qualità."
},
"lmstudio": {
"description": "LM Studio è un'applicazione desktop per sviluppare e sperimentare LLM sul tuo computer."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI è una piattaforma che offre API per vari modelli di linguaggio di grandi dimensioni e generazione di immagini AI, flessibile, affidabile e conveniente. Supporta i più recenti modelli open source come Llama3 e Mistral, fornendo soluzioni API complete, user-friendly e scalabili per lo sviluppo di applicazioni AI, adatte alla rapida crescita delle startup AI."
},
"nvidia": {
"description": "NVIDIA NIM™ fornisce contenitori per l'inferenza di microservizi accelerati da GPU self-hosted, supportando il deployment di modelli AI pre-addestrati e personalizzati su cloud, data center, PC RTX™ AI e workstation."
},
"ollama": {
"description": "I modelli forniti da Ollama coprono ampiamente aree come generazione di codice, operazioni matematiche, elaborazione multilingue e interazioni conversazionali, supportando esigenze diversificate per implementazioni aziendali e localizzate."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage si concentra sullo sviluppo di modelli AI per varie esigenze commerciali, inclusi Solar LLM e document AI, con l'obiettivo di realizzare un'intelligenza artificiale generale artificiale (AGI) per il lavoro. Crea semplici agenti di dialogo tramite Chat API e supporta chiamate funzionali, traduzioni, embedding e applicazioni specifiche del settore."
},
"vllm": {
"description": "vLLM è una libreria veloce e facile da usare per l'inferenza e i servizi LLM."
},
"wenxin": {
"description": "Piattaforma di sviluppo e servizi per modelli di grandi dimensioni e applicazioni AI native, a livello aziendale, che offre la catena di strumenti completa e facile da usare per lo sviluppo di modelli di intelligenza artificiale generativa e per l'intero processo di sviluppo delle applicazioni."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "AzureのAPIバージョン。YYYY-MM-DD形式に従い、[最新バージョン](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)を参照してください。",
"fetch": "リストを取得",
"title": "Azure APIバージョン"
},
"endpoint": {
"desc": "Azure AIプロジェクトの概要からAzure AIモデル推論エンドポイントを見つけます。",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AIエンドポイント"
},
"title": "Azure OpenAI",
"token": {
"desc": "Azure AIプロジェクトの概要からAPIキーを見つけます。",
"placeholder": "Azureキー",
"title": "キー"
}
},
"bedrock": {
"accessKeyId": {
"desc": "AWS Access Key Id を入力してください",
@ -97,6 +115,7 @@
"title": "プロキシアドレス"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "SDK タイプを選択してください",
"title": "リクエスト形式"
},
@ -210,6 +229,11 @@
"placeholder": "Azure でのモデルデプロイ名を入力してください",
"title": "モデルデプロイ名"
},
"deployName": {
"extra": "リクエストを送信する際に、このフィールドがモデルIDとして使用されます。",
"placeholder": "モデルの実際のデプロイ名またはIDを入力してください。",
"title": "モデルデプロイ名"
},
"displayName": {
"placeholder": "モデルの表示名を入力してください(例: ChatGPT、GPT-4 など)",
"title": "モデル表示名"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67Bは、高い複雑性の対話のために訓練された先進的なモデルです。"
},
"deepseek-ai/deepseek-r1": {
"description": "最先端の効率的なLLMで、推論、数学、プログラミングに優れています。"
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2は、DeepSeekMoE-27Bに基づいて開発された混合専門家MoE視覚言語モデルであり、スパースアクティベーションのMoEアーキテクチャを採用し、わずか4.5Bパラメータを活性化することで卓越した性能を実現しています。このモデルは、視覚的質問応答、光学文字認識、文書/表/グラフ理解、視覚的定位などの複数のタスクで優れたパフォーマンスを発揮します。"
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "汎用性とコード能力を融合させた新しいオープンソースモデルで、元のChatモデルの汎用対話能力とCoderモデルの強力なコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は執筆タスク、指示の遵守などの多くの面で大幅な向上を実現しました。"
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1は、わずかなラベル付きデータしかない状況で、モデルの推論能力を大幅に向上させました。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を向上させます。"
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1は、わずかなラベル付きデータしかない状況で、モデルの推論能力を大幅に向上させました。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を向上させます。"
},
"emohaa": {
"description": "Emohaaは心理モデルで、専門的な相談能力を持ち、ユーザーが感情問題を理解するのを助けます。"
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Proは、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を実現します。"
},
"google/gemma-2-27b": {
"description": "Gemma 2はGoogleが提供する効率的なモデルで、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシナリオをカバーしています。"
},
"google/gemma-2-27b-it": {
"description": "Gemma 2は、軽量化と高効率のデザイン理念を継承しています。"
},
"google/gemma-2-2b-it": {
"description": "Googleの軽量指示調整モデル"
},
"google/gemma-2-9b": {
"description": "Gemma 2はGoogleが提供する効率的なモデルで、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシナリオをカバーしています。"
},
"google/gemma-2-9b-it": {
"description": "Gemma 2は、Googleの軽量オープンソーステキストモデルシリーズです。"
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "私たちの最新のモデルシリーズは、卓越した推論性能を持ち、同等のオープンソースモデルの中でリーダーシップを発揮しています。デフォルトで最新のInternLM3シリーズモデルを指します。"
},
"jina-deepsearch-v1": {
"description": "深層検索は、ウェブ検索、読解、推論を組み合わせて、包括的な調査を行います。これは、あなたの研究タスクを受け入れる代理人として考えることができ、広範な検索を行い、何度も反復してから答えを提供します。このプロセスには、継続的な研究、推論、さまざまな視点からの問題解決が含まれます。これは、事前に訓練されたデータから直接答えを生成する標準的な大規模モデルや、一度きりの表面的な検索に依存する従来のRAGシステムとは根本的に異なります。"
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。"
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405BのLlama 3.1 Turboモデルは、大規模データ処理のために超大容量のコンテキストサポートを提供し、超大規模な人工知能アプリケーションで優れたパフォーマンスを発揮します。"
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1はMetaが提供する先進的なモデルで、最大405Bのパラメータをサポートし、複雑な対話、多言語翻訳、データ分析の分野で利用できます。"
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70Bは多言語の高効率な対話サポートを提供します。"
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3は、開発者、研究者、企業向けのオープンな大規模言語モデルLLMであり、生成AIのアイデアを構築、実験、責任を持って拡張するのを支援することを目的としています。世界的なコミュニティの革新の基盤システムの一部として、計算能力とリソースが限られたエッジデバイスや、より迅速なトレーニング時間に非常に適しています。"
},
"meta/llama-3.1-405b-instruct": {
"description": "高度なLLMで、合成データ生成、知識蒸留、推論をサポートし、チャットボット、プログラミング、特定の分野のタスクに適しています。"
},
"meta/llama-3.1-70b-instruct": {
"description": "複雑な対話を可能にし、卓越した文脈理解、推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.1-8b-instruct": {
"description": "高度な最先端モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "最先端の視覚-言語モデルで、画像から高品質な推論を行うのが得意です。"
},
"meta/llama-3.2-1b-instruct": {
"description": "最先端の小型言語モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.2-3b-instruct": {
"description": "最先端の小型言語モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "最先端の視覚-言語モデルで、画像から高品質な推論を行うのが得意です。"
},
"meta/llama-3.3-70b-instruct": {
"description": "高度なLLMで、推論、数学、常識、関数呼び出しに優れています。"
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2はMicrosoft AIが提供する言語モデルで、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70BはNVIDIAによってカスタマイズされた大規模言語モデルで、LLMが生成する応答がユーザーのクエリにどれだけ役立つかを向上させることを目的としています。このモデルはArena Hard、AlpacaEval 2 LC、GPT-4-Turbo MT-Benchなどのベンチマークテストで優れたパフォーマンスを示し、2024年10月1日現在、すべての自動整合ベンチマークテストで1位にランクされています。このモデルはRLHF特にREINFORCE、Llama-3.1-Nemotron-70B-Reward、HelpSteer2-Preferenceプロンプトを使用してLlama-3.1-70B-Instructモデルの基盤の上で訓練されています。"
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "独自の言語モデルで、比類のない精度と効率を提供します。"
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instructは、NVIDIAがカスタマイズした大規模言語モデルで、LLMが生成する応答の有用性を向上させることを目的としています。"
},
"o1": {
"description": "高度な推論と複雑な問題の解決に焦点を当てており、数学や科学のタスクを含みます。深いコンテキスト理解とエージェントワークフローを必要とするアプリケーションに非常に適しています。"
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2は全く新しい大型言語モデルシリーズで、より強力な理解と生成能力を備えています。"
},
"qwen/qwen2.5-7b-instruct": {
"description": "中国語と英語に対応したLLMで、言語、プログラミング、数学、推論などの分野に特化しています。"
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "高度なLLMで、コード生成、推論、修正をサポートし、主流のプログラミング言語をカバーしています。"
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "強力な中型コードモデルで、32Kのコンテキスト長をサポートし、多言語プログラミングに優れています。"
},
"qwen2": {
"description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。"
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azureは、GPT-3.5や最新のGPT-4シリーズを含む多様な先進AIモデルを提供し、さまざまなデータタイプや複雑なタスクをサポートし、安全で信頼性が高く持続可能なAIソリューションに取り組んでいます。"
},
"azureai": {
"description": "Azureは、GPT-3.5や最新のGPT-4シリーズを含む多様な先進的AIモデルを提供し、さまざまなデータタイプや複雑なタスクをサポートし、安全で信頼性が高く持続可能なAIソリューションに取り組んでいます。"
},
"baichuan": {
"description": "百川智能は、人工知能大モデルの研究開発に特化した企業であり、そのモデルは国内の知識百科、長文処理、生成創作などの中国語タスクで卓越したパフォーマンスを示し、海外の主流モデルを超えています。百川智能は、業界をリードする多モーダル能力を持ち、複数の権威ある評価で優れたパフォーマンスを示しています。そのモデルには、Baichuan 4、Baichuan 3 Turbo、Baichuan 3 Turbo 128kなどが含まれ、異なるアプリケーションシーンに最適化され、高コストパフォーマンスのソリューションを提供しています。"
},
@ -53,6 +56,9 @@
"internlm": {
"description": "大規模モデルの研究と開発ツールチェーンに特化したオープンソース組織です。すべてのAI開発者に対して、高効率で使いやすいオープンプラットフォームを提供し、最先端の大規模モデルとアルゴリズム技術を身近に感じられるようにします。"
},
"jina": {
"description": "Jina AIは2020年に設立され、検索AIのリーディングカンパニーです。私たちの検索基盤プラットフォームには、ベクトルモデル、リランキングモデル、小型言語モデルが含まれており、企業が信頼性が高く高品質な生成AIおよびマルチモーダル検索アプリケーションを構築するのを支援します。"
},
"lmstudio": {
"description": "LM Studioは、あなたのコンピュータ上でLLMを開発し、実験するためのデスクトップアプリケーションです。"
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AIは、さまざまな大規模言語モデルとAI画像生成のAPIサービスを提供するプラットフォームであり、柔軟で信頼性が高く、コスト効率に優れています。Llama3、Mistralなどの最新のオープンソースモデルをサポートし、生成的AIアプリケーションの開発に向けた包括的でユーザーフレンドリーかつ自動スケーリングのAPIソリューションを提供し、AIスタートアップの急成長を支援します。"
},
"nvidia": {
"description": "NVIDIA NIM™は、自己ホスティングのGPU加速推論マイクロサービスに使用できるコンテナを提供し、クラウド、データセンター、RTX™ AIパーソナルコンピュータ、ワークステーション上で事前トレーニング済みおよびカスタムAIモデルを展開することをサポートします。"
},
"ollama": {
"description": "Ollamaが提供するモデルは、コード生成、数学演算、多言語処理、対話インタラクションなどの分野を広くカバーし、企業向けおよびローカライズされた展開の多様なニーズに対応しています。"
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能AGIの実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。"
},
"vllm": {
"description": "vLLMは、LLM推論とサービスのための迅速で使いやすいライブラリです。"
},
"wenxin": {
"description": "企業向けのワンストップ大規模モデルとAIネイティブアプリケーションの開発およびサービスプラットフォームで、最も包括的で使いやすい生成的人工知能モデルの開発とアプリケーション開発の全プロセスツールチェーンを提供します。"
},

View file

@ -19,6 +19,24 @@
"title": "API 키"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Azure API 버전, YYYY-MM-DD 형식을 따릅니다. [최신 버전](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)을 참조하세요.",
"fetch": "목록 가져오기",
"title": "Azure API 버전"
},
"endpoint": {
"desc": "Azure AI 프로젝트 개요에서 Azure AI 모델 추론 엔드포인트를 찾습니다.",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AI 엔드포인트"
},
"title": "Azure OpenAI",
"token": {
"desc": "Azure AI 프로젝트 개요에서 API 키를 찾습니다.",
"placeholder": "Azure 키",
"title": "키"
}
},
"bedrock": {
"accessKeyId": {
"desc": "AWS 액세스 키 ID를 입력하세요.",
@ -97,6 +115,7 @@
"title": "프록시 주소"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "SDK 유형을 선택하세요",
"title": "요청 형식"
},
@ -210,6 +229,11 @@
"placeholder": "Azure에서 모델 배포 이름을 입력하세요",
"title": "모델 배포 이름"
},
"deployName": {
"extra": "요청을 보낼 때 이 필드가 모델 ID로 사용됩니다.",
"placeholder": "모델 실제 배포 이름 또는 ID를 입력하세요.",
"title": "모델 배포 이름"
},
"displayName": {
"placeholder": "모델의 표시 이름을 입력하세요, 예: ChatGPT, GPT-4 등",
"title": "모델 표시 이름"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B는 고복잡성 대화를 위해 훈련된 고급 모델입니다."
},
"deepseek-ai/deepseek-r1": {
"description": "추론, 수학 및 프로그래밍에 능숙한 최첨단 효율 LLM입니다."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2는 DeepSeekMoE-27B를 기반으로 개발된 혼합 전문가(MoE) 비주얼 언어 모델로, 희소 활성화 MoE 아키텍처를 사용하여 4.5B 매개변수만 활성화된 상태에서 뛰어난 성능을 발휘합니다. 이 모델은 비주얼 질문 응답, 광학 문자 인식, 문서/표/차트 이해 및 비주얼 위치 지정 등 여러 작업에서 우수한 성과를 보입니다."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "일반 및 코드 능력을 통합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 분야에서 큰 향상을 이루었습니다."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
},
"emohaa": {
"description": "Emohaa는 심리 모델로, 전문 상담 능력을 갖추고 있어 사용자가 감정 문제를 이해하는 데 도움을 줍니다."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro는 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다."
},
"google/gemma-2-27b": {
"description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 애플리케이션부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2는 경량화와 효율적인 설계를 이어갑니다."
},
"google/gemma-2-2b-it": {
"description": "Google의 경량 지시 조정 모델"
},
"google/gemma-2-9b": {
"description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 애플리케이션부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2는 Google의 경량화된 오픈 소스 텍스트 모델 시리즈입니다."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "우리의 최신 모델 시리즈는 뛰어난 추론 성능을 가지고 있으며, 동급 오픈 소스 모델 중에서 선두를 달리고 있습니다. 기본적으로 최신 출시된 InternLM3 시리즈 모델을 가리킵니다."
},
"jina-deepsearch-v1": {
"description": "딥 서치는 웹 검색, 독서 및 추론을 결합하여 포괄적인 조사를 수행합니다. 연구 작업을 수용하는 에이전트로 생각할 수 있으며, 광범위한 검색을 수행하고 여러 번 반복한 후에야 답변을 제공합니다. 이 과정은 지속적인 연구, 추론 및 다양한 각도에서 문제를 해결하는 것을 포함합니다. 이는 사전 훈련된 데이터에서 직접 답변을 생성하는 표준 대형 모델 및 일회성 표면 검색에 의존하는 전통적인 RAG 시스템과 근본적으로 다릅니다."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM은 학습 과학 원칙에 맞춰 훈련된 실험적이고 특정 작업에 특화된 언어 모델로, 교육 및 학습 환경에서 시스템 지침을 따르며 전문가 멘토 역할을 수행합니다."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405B Llama 3.1 Turbo 모델은 대규모 데이터 처리를 위한 초대용량의 컨텍스트 지원을 제공하며, 초대규모 인공지능 애플리케이션에서 뛰어난 성능을 발휘합니다."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1은 Meta에서 출시한 선도적인 모델로, 최대 405B 매개변수를 지원하며 복잡한 대화, 다국어 번역 및 데이터 분석 분야에 적용됩니다."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B는 다국어의 효율적인 대화 지원을 제공합니다."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3은 개발자, 연구자 및 기업을 위한 오픈 대형 언어 모델(LLM)로, 생성 AI 아이디어를 구축하고 실험하며 책임감 있게 확장하는 데 도움을 주기 위해 설계되었습니다. 전 세계 커뮤니티 혁신의 기초 시스템의 일환으로, 계산 능력과 자원이 제한된 환경, 엣지 장치 및 더 빠른 훈련 시간에 매우 적합합니다."
},
"meta/llama-3.1-405b-instruct": {
"description": "합성 데이터 생성, 지식 증류 및 추론을 지원하는 고급 LLM으로, 챗봇, 프로그래밍 및 특정 분야 작업에 적합합니다."
},
"meta/llama-3.1-70b-instruct": {
"description": "복잡한 대화를 가능하게 하며, 뛰어난 맥락 이해, 추론 능력 및 텍스트 생성 능력을 갖추고 있습니다."
},
"meta/llama-3.1-8b-instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 고급 최첨단 모델입니다."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
},
"meta/llama-3.2-1b-instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
},
"meta/llama-3.2-3b-instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
},
"meta/llama-3.3-70b-instruct": {
"description": "추론, 수학, 상식 및 함수 호출에 능숙한 고급 LLM입니다."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2는 Microsoft AI가 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 보입니다."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B는 NVIDIA가 맞춤 제작한 대규모 언어 모델로, LLM이 생성한 응답이 사용자 쿼리에 얼마나 도움이 되는지를 향상시키기 위해 설계되었습니다. 이 모델은 Arena Hard, AlpacaEval 2 LC 및 GPT-4-Turbo MT-Bench와 같은 벤치마크 테스트에서 뛰어난 성능을 보였으며, 2024년 10월 1일 기준으로 모든 자동 정렬 벤치마크 테스트에서 1위를 차지했습니다. 이 모델은 RLHF(특히 REINFORCE), Llama-3.1-Nemotron-70B-Reward 및 HelpSteer2-Preference 프롬프트를 사용하여 Llama-3.1-70B-Instruct 모델을 기반으로 훈련되었습니다."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "비교할 수 없는 정확성과 효율성을 제공하는 독특한 언어 모델입니다."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct는 NVIDIA가 맞춤 제작한 대형 언어 모델로, LLM이 생성한 응답의 유용성을 향상시키기 위해 설계되었습니다."
},
"o1": {
"description": "고급 추론 및 복잡한 문제 해결에 중점을 두며, 수학 및 과학 작업을 포함합니다. 깊이 있는 컨텍스트 이해와 에이전트 작업 흐름이 필요한 애플리케이션에 매우 적합합니다."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2는 더 강력한 이해 및 생성 능력을 갖춘 새로운 대형 언어 모델 시리즈입니다."
},
"qwen/qwen2.5-7b-instruct": {
"description": "중국어와 영어를 위한 LLM으로, 언어, 프로그래밍, 수학, 추론 등 다양한 분야를 다룹니다."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "코드 생성, 추론 및 수정 지원을 위한 고급 LLM으로, 주요 프로그래밍 언어를 포함합니다."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "32K 컨텍스트 길이를 지원하는 강력한 중형 코드 모델로, 다국어 프로그래밍에 능숙합니다."
},
"qwen2": {
"description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure는 GPT-3.5 및 최신 GPT-4 시리즈를 포함한 다양한 고급 AI 모델을 제공하며, 다양한 데이터 유형과 복잡한 작업을 지원하고 안전하고 신뢰할 수 있으며 지속 가능한 AI 솔루션을 목표로 하고 있습니다."
},
"azureai": {
"description": "Azure는 GPT-3.5 및 최신 GPT-4 시리즈를 포함한 다양한 고급 AI 모델을 제공하며, 다양한 데이터 유형과 복잡한 작업을 지원하고 안전하고 신뢰할 수 있으며 지속 가능한 AI 솔루션을 위해 노력합니다."
},
"baichuan": {
"description": "百川智能은 인공지능 대형 모델 연구 개발에 집중하는 회사로, 그 모델은 국내 지식 백과, 긴 텍스트 처리 및 생성 창작 등 중국어 작업에서 뛰어난 성능을 보이며, 해외 주류 모델을 초월합니다. 百川智能은 업계 선도적인 다중 모드 능력을 갖추고 있으며, 여러 권위 있는 평가에서 우수한 성능을 보였습니다. 그 모델에는 Baichuan 4, Baichuan 3 Turbo 및 Baichuan 3 Turbo 128k 등이 포함되어 있으며, 각각 다른 응용 시나리오에 최적화되어 비용 효율적인 솔루션을 제공합니다."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "대규모 모델 연구 및 개발 도구 체인에 전념하는 오픈 소스 조직입니다. 모든 AI 개발자에게 효율적이고 사용하기 쉬운 오픈 소스 플랫폼을 제공하여 최첨단 대규모 모델 및 알고리즘 기술을 손쉽게 이용할 수 있도록 합니다."
},
"jina": {
"description": "Jina AI는 2020년에 설립된 선도적인 검색 AI 회사입니다. 우리의 검색 기반 플랫폼은 기업이 신뢰할 수 있고 고품질의 생성적 AI 및 다중 모드 검색 애플리케이션을 구축할 수 있도록 돕는 벡터 모델, 재배치기 및 소형 언어 모델을 포함하고 있습니다."
},
"lmstudio": {
"description": "LM Studio는 귀하의 컴퓨터에서 LLM을 개발하고 실험하기 위한 데스크탑 애플리케이션입니다."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI는 다양한 대형 언어 모델과 AI 이미지 생성을 제공하는 API 서비스 플랫폼으로, 유연하고 신뢰할 수 있으며 비용 효율적입니다. Llama3, Mistral 등 최신 오픈 소스 모델을 지원하며, 생성적 AI 응용 프로그램 개발을 위한 포괄적이고 사용자 친화적이며 자동 확장 가능한 API 솔루션을 제공하여 AI 스타트업의 빠른 발전에 적합합니다."
},
"nvidia": {
"description": "NVIDIA NIM™은 클라우드, 데이터 센터, RTX™ AI 개인용 컴퓨터 및 워크스테이션에서 사전 훈련된 AI 모델과 사용자 정의 AI 모델을 배포할 수 있도록 지원하는 컨테이너를 제공합니다."
},
"ollama": {
"description": "Ollama가 제공하는 모델은 코드 생성, 수학 연산, 다국어 처리 및 대화 상호작용 등 다양한 분야를 포괄하며, 기업급 및 로컬 배포의 다양한 요구를 지원합니다."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다."
},
"vllm": {
"description": "vLLM은 LLM 추론 및 서비스를 위한 빠르고 사용하기 쉬운 라이브러리입니다."
},
"wenxin": {
"description": "기업용 원스톱 대형 모델 및 AI 네이티브 애플리케이션 개발 및 서비스 플랫폼으로, 가장 포괄적이고 사용하기 쉬운 생성적 인공지능 모델 개발 및 애플리케이션 개발 전체 프로세스 도구 체인을 제공합니다."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "De API-versie van Azure, volgens het formaat YYYY-MM-DD. Raadpleeg de [laatste versie](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Lijst ophalen",
"title": "Azure API-versie"
},
"endpoint": {
"desc": "Vind het Azure AI-model inferentie-eindpunt in het overzicht van het Azure AI-project",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AI-eindpunt"
},
"title": "Azure OpenAI",
"token": {
"desc": "Vind de API-sleutel in het overzicht van het Azure AI-project",
"placeholder": "Azure-sleutel",
"title": "Sleutel"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Voer AWS Access Key Id in",
@ -97,6 +115,7 @@
"title": "Proxy-adres"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Selecteer het SDK-type",
"title": "Aanvraagformaat"
},
@ -210,6 +229,11 @@
"placeholder": "Voer de modelimplementatienaam in Azure in",
"title": "Modelimplementatienaam"
},
"deployName": {
"extra": "Dit veld wordt als model-ID verzonden bij het indienen van een verzoek",
"placeholder": "Voer de naam of ID van het daadwerkelijk gedeployde model in",
"title": "Modeldeploynaam"
},
"displayName": {
"placeholder": "Voer de weergavenaam van het model in, bijvoorbeeld ChatGPT, GPT-4, enz.",
"title": "Weergavenaam van het model"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B is een geavanceerd model dat is getraind voor complexe gesprekken."
},
"deepseek-ai/deepseek-r1": {
"description": "Geavanceerd efficiënt LLM, gespecialiseerd in redeneren, wiskunde en programmeren."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 is een hybride expert (MoE) visueel taalmodel dat is ontwikkeld op basis van DeepSeekMoE-27B, met een MoE-architectuur met spaarzame activatie, die uitstekende prestaties levert met slechts 4,5 miljard geactiveerde parameters. Dit model presteert uitstekend in verschillende taken, waaronder visuele vraag-antwoord, optische tekenherkenning, document/tabel/grafiekbegrip en visuele positionering."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Een nieuw open-source model dat algemene en codeercapaciteiten combineert, niet alleen de algemene gespreksvaardigheden van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model behoudt, maar ook beter is afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en meer."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
},
"emohaa": {
"description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combineert de nieuwste optimalisatietechnologieën en biedt efficiëntere multimodale gegevensverwerkingscapaciteiten."
},
"google/gemma-2-27b": {
"description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingen dekt, van kleine toepassingen tot complexe gegevensverwerking."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie."
},
"google/gemma-2-2b-it": {
"description": "Google's lichtgewicht instructieafstemmingsmodel"
},
"google/gemma-2-9b": {
"description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingen dekt, van kleine toepassingen tot complexe gegevensverwerking."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 is een lichtgewicht open-source tekstmodelserie van Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Onze nieuwste modelreeks heeft uitstekende inferentieprestaties en leidt de open-source modellen in dezelfde klasse. Standaard gericht op ons recentste InternLM3 model."
},
"jina-deepsearch-v1": {
"description": "Diepe zoekopdrachten combineren webzoekopdrachten, lezen en redeneren voor een uitgebreide verkenning. Je kunt het beschouwen als een agent die jouw onderzoeksopdracht aanneemt - het zal een uitgebreide zoektocht uitvoeren en meerdere iteraties doorlopen voordat het een antwoord geeft. Dit proces omvat voortdurende onderzoek, redeneren en het oplossen van problemen vanuit verschillende invalshoeken. Dit is fundamenteel anders dan het rechtstreeks genereren van antwoorden uit voorgetrainde gegevens door standaard grote modellen en het vertrouwen op eenmalige oppervlakkige zoekopdrachten van traditionele RAG-systemen."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405B Llama 3.1 Turbo model biedt enorme contextondersteuning voor big data verwerking en presteert uitstekend in grootschalige AI-toepassingen."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B biedt efficiënte gespreksondersteuning in meerdere talen."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 is een open groot taalmodel (LLM) gericht op ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoordelijk opschalen van hun generatieve AI-ideeën. Als onderdeel van het basis systeem voor wereldwijde gemeenschapsinnovatie is het zeer geschikt voor apparaten met beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden."
},
"meta/llama-3.1-405b-instruct": {
"description": "Geavanceerd LLM, ondersteunt synthetische gegevensgeneratie, kennisdistillatie en redeneren, geschikt voor chatbots, programmeren en specifieke domeintaken."
},
"meta/llama-3.1-70b-instruct": {
"description": "In staat om complexe gesprekken te ondersteunen, met uitstekende contextbegrip, redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.1-8b-instruct": {
"description": "Geavanceerd, state-of-the-art model met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
},
"meta/llama-3.2-1b-instruct": {
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.2-3b-instruct": {
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
},
"meta/llama-3.3-70b-instruct": {
"description": "Geavanceerd LLM, gespecialiseerd in redeneren, wiskunde, algemene kennis en functieaanroepen."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, redenering en intelligente assistenttoepassingen."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de hulp van LLM-gegenereerde reacties op gebruikersvragen te verbeteren. Dit model presteert uitstekend in benchmarktests zoals Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat per 1 oktober 2024 op de eerste plaats in alle drie de automatische afstemmingsbenchmarktests. Het model is getraind met RLHF (met name REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts op basis van het Llama-3.1-70B-Instruct model."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Uniek taalmodel dat ongeëvenaarde nauwkeurigheid en efficiëntie biedt."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de nuttigheid van de door LLM gegenereerde reacties te verbeteren."
},
"o1": {
"description": "Gefocust op geavanceerd redeneren en het oplossen van complexe problemen, inclusief wiskunde en wetenschappelijke taken. Zeer geschikt voor toepassingen die diepgaand begrip van context en agentwerkstromen vereisen."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 is een gloednieuwe serie grote taalmodellen met sterkere begrip- en generatiecapaciteiten."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM gericht op zowel Chinees als Engels, gericht op taal, programmeren, wiskunde, redeneren en meer."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "Geavanceerd LLM, ondersteunt codegeneratie, redeneren en reparatie, dekt gangbare programmeertalen."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Krachtig middelgroot codeermodel, ondersteunt 32K contextlengte, gespecialiseerd in meertalige programmering."
},
"qwen2": {
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure biedt een scala aan geavanceerde AI-modellen, waaronder GPT-3.5 en de nieuwste GPT-4-serie, die verschillende datatypes en complexe taken ondersteunen, met een focus op veilige, betrouwbare en duurzame AI-oplossingen."
},
"azureai": {
"description": "Azure biedt een verscheidenheid aan geavanceerde AI-modellen, waaronder GPT-3.5 en de nieuwste GPT-4-serie, die verschillende datatypes en complexe taken ondersteunt, met een focus op veilige, betrouwbare en duurzame AI-oplossingen."
},
"baichuan": {
"description": "Baichuan Intelligent is een bedrijf dat zich richt op de ontwikkeling van grote modellen voor kunstmatige intelligentie, wiens modellen uitblinken in Chinese taken zoals kennisencyclopedieën, lange tekstverwerking en generatieve creatie, en de mainstream modellen uit het buitenland overtreffen. Baichuan Intelligent heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluaties. Hun modellen omvatten Baichuan 4, Baichuan 3 Turbo en Baichuan 3 Turbo 128k, die zijn geoptimaliseerd voor verschillende toepassingsscenario's en kosteneffectieve oplossingen bieden."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Een open-source organisatie die zich richt op onderzoek en ontwikkeling van tools voor grote modellen. Biedt een efficiënt en gebruiksvriendelijk open-source platform voor alle AI-ontwikkelaars, zodat de meest geavanceerde modellen en algoritmische technologieën binnen handbereik zijn."
},
"jina": {
"description": "Jina AI, opgericht in 2020, is een toonaangevend zoek-AI-bedrijf. Ons zoekplatform bevat vectormodellen, herschikkers en kleine taalmodellen, die bedrijven helpen betrouwbare en hoogwaardige generatieve AI- en multimodale zoektoepassingen te bouwen."
},
"lmstudio": {
"description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM's op uw computer."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI is een platform dat API-diensten biedt voor verschillende grote taalmodellen en AI-beeldgeneratie, flexibel, betrouwbaar en kosteneffectief. Het ondersteunt de nieuwste open-source modellen zoals Llama3 en Mistral, en biedt een uitgebreide, gebruiksvriendelijke en automatisch schaalbare API-oplossing voor de ontwikkeling van generatieve AI-toepassingen, geschikt voor de snelle groei van AI-startups."
},
"nvidia": {
"description": "NVIDIA NIM™ biedt containers voor zelf-gehoste GPU-versnelde inferentie-microservices, die de implementatie van voorgetrainde en aangepaste AI-modellen in de cloud, datacenters, RTX™ AI-pc's en werkstations ondersteunen."
},
"ollama": {
"description": "De modellen van Ollama bestrijken een breed scala aan gebieden, waaronder codegeneratie, wiskundige berekeningen, meertalige verwerking en interactieve dialogen, en voldoen aan de diverse behoeften van bedrijfs- en lokale implementaties."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen."
},
"vllm": {
"description": "vLLM is een snelle en gebruiksvriendelijke bibliotheek voor LLM-inferentie en -diensten."
},
"wenxin": {
"description": "Een enterprise-grade, alles-in-één platform voor de ontwikkeling en service van grote modellen en AI-native applicaties, dat de meest uitgebreide en gebruiksvriendelijke toolchain biedt voor de ontwikkeling van generatieve kunstmatige intelligentiemodellen en applicaties."
},

View file

@ -19,6 +19,24 @@
"title": "Klucz API"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Wersja API Azure, w formacie YYYY-MM-DD, sprawdź [najnowszą wersję](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Pobierz listę",
"title": "Wersja API Azure"
},
"endpoint": {
"desc": "Znajdź punkt końcowy wnioskowania modelu Azure AI w przeglądzie projektu Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Punkt końcowy Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Znajdź klucz API w przeglądzie projektu Azure AI",
"placeholder": "Klucz Azure",
"title": "Klucz"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Wprowadź AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "Adres proxy"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Proszę wybrać typ SDK",
"title": "Format żądania"
},
@ -210,6 +229,11 @@
"placeholder": "Proszę wpisać nazwę wdrożenia modelu w Azure",
"title": "Nazwa wdrożenia modelu"
},
"deployName": {
"extra": "To pole będzie używane jako identyfikator modelu podczas wysyłania żądania",
"placeholder": "Wprowadź rzeczywistą nazwę lub identyfikator wdrożenia modelu",
"title": "Nazwa wdrożenia modelu"
},
"displayName": {
"placeholder": "Proszę wpisać nazwę wyświetlaną modelu, np. ChatGPT, GPT-4 itp.",
"title": "Nazwa wyświetlana modelu"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B to zaawansowany model przeszkolony do złożonych dialogów."
},
"deepseek-ai/deepseek-r1": {
"description": "Najnowocześniejszy, wydajny LLM, specjalizujący się w wnioskowaniu, matematyce i programowaniu."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 to model wizualno-językowy oparty na DeepSeekMoE-27B, wykorzystujący architekturę MoE z rzadką aktywacją, osiągający doskonałe wyniki przy aktywacji jedynie 4,5 miliarda parametrów. Model ten wyróżnia się w wielu zadaniach, takich jak wizualne pytania i odpowiedzi, optyczne rozpoznawanie znaków, zrozumienie dokumentów/tabel/wykresów oraz lokalizacja wizualna."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Nowy, otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu Chat, ale także potężne zdolności przetwarzania kodu modelu Coder, lepiej dostosowując się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i wielu innych obszarach."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
},
"emohaa": {
"description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych."
},
"google/gemma-2-27b": {
"description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne scenariusze zastosowań, od małych aplikacji po złożone przetwarzanie danych."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania."
},
"google/gemma-2-2b-it": {
"description": "Lekki model dostosowywania instrukcji od Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne scenariusze zastosowań, od małych aplikacji po złożone przetwarzanie danych."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 to lekka seria modeli tekstowych open source od Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałą wydajnością wnioskowania, prowadzi wśród modeli open-source o podobnej skali. Domyślnie wskazuje na naszą najnowszą wersję modelu InternLM3."
},
"jina-deepsearch-v1": {
"description": "Głębokie wyszukiwanie łączy wyszukiwanie w sieci, czytanie i wnioskowanie, umożliwiając kompleksowe badania. Możesz to traktować jako agenta, który przyjmuje Twoje zadania badawcze - przeprowadza szerokie poszukiwania i wielokrotne iteracje, zanim poda odpowiedź. Proces ten obejmuje ciągłe badania, wnioskowanie i rozwiązywanie problemów z różnych perspektyw. To zasadniczo różni się od standardowych dużych modeli, które generują odpowiedzi bezpośrednio z wstępnie wytrenowanych danych oraz od tradycyjnych systemów RAG, które polegają na jednorazowym powierzchownym wyszukiwaniu."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Model Llama 3.1 Turbo 405B oferuje ogromną pojemność kontekstową dla przetwarzania dużych danych, wyróżniając się w zastosowaniach sztucznej inteligencji o dużej skali."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 to wiodący model wydany przez Meta, wspierający do 405B parametrów, mogący być stosowany w złożonych rozmowach, tłumaczeniach wielojęzycznych i analizie danych."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B oferuje efektywne wsparcie dialogowe w wielu językach."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 to otwarty duży model językowy (LLM) skierowany do deweloperów, badaczy i przedsiębiorstw, mający na celu pomoc w budowaniu, eksperymentowaniu i odpowiedzialnym rozwijaniu ich pomysłów na generatywną sztuczną inteligencję. Jako część podstawowego systemu innowacji globalnej społeczności, jest idealny dla urządzeń o ograniczonej mocy obliczeniowej i zasobach, a także dla szybszego czasu szkolenia."
},
"meta/llama-3.1-405b-instruct": {
"description": "Zaawansowany LLM, wspierający generowanie danych syntetycznych, destylację wiedzy i wnioskowanie, odpowiedni do chatbotów, programowania i zadań w określonych dziedzinach."
},
"meta/llama-3.1-70b-instruct": {
"description": "Umożliwia złożone rozmowy, posiadając doskonałe zrozumienie kontekstu, zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.1-8b-instruct": {
"description": "Zaawansowany, nowoczesny model, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Nowoczesny model wizualno-językowy, specjalizujący się w wysokiej jakości wnioskowaniu z obrazów."
},
"meta/llama-3.2-1b-instruct": {
"description": "Zaawansowany, nowoczesny mały model językowy, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.2-3b-instruct": {
"description": "Zaawansowany, nowoczesny mały model językowy, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Nowoczesny model wizualno-językowy, specjalizujący się w wysokiej jakości wnioskowaniu z obrazów."
},
"meta/llama-3.3-70b-instruct": {
"description": "Zaawansowany LLM, specjalizujący się w wnioskowaniu, matematyce, zdrowym rozsądku i wywoływaniu funkcji."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 to model językowy oferowany przez Microsoft AI, który wyróżnia się w złożonych rozmowach, wielojęzyczności, wnioskowaniu i jako inteligentny asystent."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B to dostosowany przez NVIDIA duży model językowy, mający na celu zwiększenie użyteczności odpowiedzi generowanych przez LLM w odpowiedzi na zapytania użytkowników. Model ten osiągnął doskonałe wyniki w testach benchmarkowych, takich jak Arena Hard, AlpacaEval 2 LC i GPT-4-Turbo MT-Bench, zajmując pierwsze miejsce we wszystkich trzech automatycznych testach do 1 października 2024 roku. Model został przeszkolony przy użyciu RLHF (szczególnie REINFORCE), Llama-3.1-Nemotron-70B-Reward i HelpSteer2-Preference na bazie modelu Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Unikalny model językowy, oferujący niezrównaną dokładność i wydajność."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct to dostosowany przez NVIDIA duży model językowy, zaprojektowany w celu zwiększenia użyteczności odpowiedzi generowanych przez LLM."
},
"o1": {
"description": "Skupia się na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do aplikacji wymagających głębokiego zrozumienia kontekstu i zarządzania procesami."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 to nowa seria dużych modeli językowych, charakteryzująca się silniejszymi zdolnościami rozumienia i generowania."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM skierowany na język chiński i angielski, skoncentrowany na języku, programowaniu, matematyce, wnioskowaniu i innych dziedzinach."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "Zaawansowany LLM, wspierający generowanie kodu, wnioskowanie i naprawę, obejmujący główne języki programowania."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Potężny średniej wielkości model kodu, wspierający długość kontekstu 32K, specjalizujący się w programowaniu wielojęzycznym."
},
"qwen2": {
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure oferuje różnorodne zaawansowane modele AI, w tym GPT-3.5 i najnowszą serię GPT-4, wspierające różne typy danych i złożone zadania, koncentrując się na bezpiecznych, niezawodnych i zrównoważonych rozwiązaniach AI."
},
"azureai": {
"description": "Azure oferuje wiele zaawansowanych modeli AI, w tym GPT-3.5 i najnowszą serię GPT-4, wspierając różne typy danych i złożone zadania, dążąc do bezpiecznych, niezawodnych i zrównoważonych rozwiązań AI."
},
"baichuan": {
"description": "Baichuan Intelligent to firma skoncentrowana na badaniach nad dużymi modelami sztucznej inteligencji, której modele osiągają doskonałe wyniki w krajowych zadaniach związanych z encyklopedią wiedzy, przetwarzaniem długich tekstów i generowaniem treści w języku chińskim, przewyższając zagraniczne modele mainstreamowe. Baichuan Intelligent dysponuje również wiodącymi w branży zdolnościami multimodalnymi, osiągając doskonałe wyniki w wielu autorytatywnych ocenach. Jej modele obejmują Baichuan 4, Baichuan 3 Turbo i Baichuan 3 Turbo 128k, zoptymalizowane pod kątem różnych scenariuszy zastosowań, oferując opłacalne rozwiązania."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Organizacja open source poświęcona badaniom i rozwojowi narzędzi dla dużych modeli. Oferuje wszystkim deweloperom AI wydajną i łatwą w użyciu platformę open source, umożliwiającą dostęp do najnowocześniejszych technologii modeli i algorytmów."
},
"jina": {
"description": "Jina AI została założona w 2020 roku i jest wiodącą firmą zajmującą się AI w zakresie wyszukiwania. Nasza platforma bazowa do wyszukiwania zawiera modele wektorowe, przetasowujące i małe modele językowe, które pomagają firmom budować niezawodne i wysokiej jakości aplikacje wyszukiwania generatywnego i multimodalnego."
},
"lmstudio": {
"description": "LM Studio to aplikacja desktopowa do rozwijania i eksperymentowania z LLM-ami na Twoim komputerze."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI to platforma oferująca API do różnych dużych modeli językowych i generacji obrazów AI, elastyczna, niezawodna i opłacalna. Wspiera najnowsze modele open-source, takie jak Llama3, Mistral, i oferuje kompleksowe, przyjazne dla użytkownika oraz automatycznie skalowalne rozwiązania API dla rozwoju aplikacji generatywnej AI, odpowiednie dla szybkiego rozwoju startupów AI."
},
"nvidia": {
"description": "NVIDIA NIM™ oferuje kontenery do samodzielnego hostowania przyspieszonych przez GPU mikroserwisów wnioskowania, wspierając wdrażanie w chmurze, centrach danych, komputerach osobistych RTX™ AI i stacjach roboczych wstępnie wytrenowanych i dostosowanych modeli AI."
},
"ollama": {
"description": "Modele oferowane przez Ollama obejmują szeroki zakres zastosowań, w tym generowanie kodu, obliczenia matematyczne, przetwarzanie wielojęzyczne i interakcje konwersacyjne, wspierając różnorodne potrzeby wdrożeń na poziomie przedsiębiorstw i lokalnych."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage koncentruje się na opracowywaniu modeli AI dla różnych potrzeb biznesowych, w tym Solar LLM i dokumentów AI, mając na celu osiągnięcie sztucznej ogólnej inteligencji (AGI). Umożliwia tworzenie prostych agentów konwersacyjnych za pomocą Chat API oraz wspiera wywołania funkcji, tłumaczenia, osadzenia i zastosowania w określonych dziedzinach."
},
"vllm": {
"description": "vLLM to szybka i łatwa w użyciu biblioteka do wnioskowania i usług LLM."
},
"wenxin": {
"description": "Platforma do rozwoju i usług aplikacji AI oraz dużych modeli w skali przedsiębiorstwa, oferująca najbardziej kompleksowy i łatwy w użyciu zestaw narzędzi do rozwoju modeli sztucznej inteligencji generatywnej oraz całego procesu tworzenia aplikacji."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Versão da API do Azure, seguindo o formato AAAA-MM-DD. Consulte a [versão mais recente](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Obter lista",
"title": "Versão da API do Azure"
},
"endpoint": {
"desc": "Encontre o ponto de extremidade de inferência do modelo do Azure AI na visão geral do projeto Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Ponto de extremidade do Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Encontre a chave da API na visão geral do projeto Azure AI",
"placeholder": "Chave do Azure",
"title": "Chave"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Insira o AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "Endereço do Proxy"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Por favor, selecione o tipo de SDK",
"title": "Formato da Requisição"
},
@ -210,6 +229,11 @@
"placeholder": "Por favor, insira o nome de implantação do modelo na Azure",
"title": "Nome de Implantação do Modelo"
},
"deployName": {
"extra": "Este campo será usado como ID do modelo ao enviar a solicitação",
"placeholder": "Insira o nome ou ID real do modelo implantado",
"title": "Nome da implantação do modelo"
},
"displayName": {
"placeholder": "Por favor, insira o nome de exibição do modelo, por exemplo, ChatGPT, GPT-4, etc.",
"title": "Nome de Exibição do Modelo"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B é um modelo avançado treinado para diálogos de alta complexidade."
},
"deepseek-ai/deepseek-r1": {
"description": "LLM avançado e eficiente, especializado em raciocínio, matemática e programação."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 é um modelo de linguagem visual baseado no DeepSeekMoE-27B, desenvolvido como um especialista misto (MoE), utilizando uma arquitetura de MoE com ativação esparsa, alcançando desempenho excepcional com apenas 4,5 bilhões de parâmetros ativados. Este modelo se destaca em várias tarefas, incluindo perguntas visuais, reconhecimento óptico de caracteres, compreensão de documentos/tabelas/gráficos e localização visual."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Um novo modelo de código aberto que integra capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
},
"emohaa": {
"description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodais mais eficiente."
},
"google/gemma-2-27b": {
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde pequenos aplicativos até processamento de dados complexos."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 continua a filosofia de design leve e eficiente."
},
"google/gemma-2-2b-it": {
"description": "Modelo leve de ajuste de instruções do Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde pequenos aplicativos até processamento de dados complexos."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Nossa mais recente série de modelos, com desempenho de inferência excepcional, liderando entre modelos de código aberto de mesma escala. Aponta por padrão para nossa mais recente série de modelos InternLM3."
},
"jina-deepsearch-v1": {
"description": "A busca profunda combina pesquisa na web, leitura e raciocínio para realizar investigações abrangentes. Você pode vê-la como um agente que aceita suas tarefas de pesquisa - ela realizará uma busca extensa e passará por várias iterações antes de fornecer uma resposta. Esse processo envolve pesquisa contínua, raciocínio e resolução de problemas sob diferentes ângulos. Isso é fundamentalmente diferente de gerar respostas diretamente a partir de dados pré-treinados de grandes modelos padrão e de sistemas RAG tradicionais que dependem de buscas superficiais únicas."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "O modelo Llama 3.1 Turbo 405B oferece suporte a um contexto de capacidade extremamente grande para processamento de grandes volumes de dados, destacando-se em aplicações de inteligência artificial em larga escala."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 é o modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B oferece suporte a diálogos multilíngues de forma eficiente."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avançado, suporta geração de dados sintéticos, destilação de conhecimento e raciocínio, adequado para chatbots, programação e tarefas de domínio específico."
},
"meta/llama-3.1-70b-instruct": {
"description": "Capacita diálogos complexos, com excelente compreensão de contexto, capacidade de raciocínio e geração de texto."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modelo de ponta avançado, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
},
"meta/llama-3.3-70b-instruct": {
"description": "Modelo LLM avançado, especializado em raciocínio, matemática, conhecimento geral e chamadas de função."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B é um modelo de linguagem em larga escala personalizado pela NVIDIA, projetado para aumentar a utilidade das respostas geradas pelo LLM em relação às consultas dos usuários. Este modelo se destacou em benchmarks como Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, ocupando o primeiro lugar em todos os três benchmarks de alinhamento automático até 1º de outubro de 2024. O modelo foi treinado usando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference prompts, com base no modelo Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Modelo de linguagem único, oferecendo precisão e eficiência incomparáveis."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct é um modelo de linguagem de grande porte personalizado pela NVIDIA, projetado para melhorar a utilidade das respostas geradas pelo LLM."
},
"o1": {
"description": "Focado em raciocínio avançado e resolução de problemas complexos, incluindo tarefas matemáticas e científicas. Muito adequado para aplicativos que exigem compreensão profunda do contexto e gerenciamento de fluxos de trabalho."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 é uma nova série de grandes modelos de linguagem, com capacidades de compreensão e geração mais robustas."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM voltado para chinês e inglês, focado em linguagem, programação, matemática, raciocínio e outras áreas."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "LLM avançado, suporta geração de código, raciocínio e correção, abrangendo linguagens de programação populares."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Modelo de código de médio porte poderoso, suporta comprimento de contexto de 32K, especializado em programação multilíngue."
},
"qwen2": {
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure oferece uma variedade de modelos avançados de IA, incluindo GPT-3.5 e a mais recente série GPT-4, suportando diversos tipos de dados e tarefas complexas, com foco em soluções de IA seguras, confiáveis e sustentáveis."
},
"azureai": {
"description": "A Azure oferece uma variedade de modelos de IA avançados, incluindo o GPT-3.5 e a mais recente série GPT-4, suportando diversos tipos de dados e tarefas complexas, comprometendo-se com soluções de IA seguras, confiáveis e sustentáveis."
},
"baichuan": {
"description": "Baichuan Intelligent é uma empresa focada no desenvolvimento de grandes modelos de inteligência artificial, cujos modelos se destacam em tarefas em chinês, como enciclopédias de conhecimento, processamento de textos longos e criação de conteúdo, superando modelos mainstream estrangeiros. A Baichuan Intelligent também possui capacidades multimodais líderes do setor, destacando-se em várias avaliações de autoridade. Seus modelos incluem Baichuan 4, Baichuan 3 Turbo e Baichuan 3 Turbo 128k, otimizados para diferentes cenários de aplicação, oferecendo soluções com alta relação custo-benefício."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Uma organização de código aberto dedicada à pesquisa e desenvolvimento de ferramentas para grandes modelos. Oferece uma plataforma de código aberto eficiente e fácil de usar para todos os desenvolvedores de IA, tornando as tecnologias e algoritmos de ponta acessíveis."
},
"jina": {
"description": "A Jina AI foi fundada em 2020 e é uma empresa líder em IA de busca. Nossa plataforma de busca base contém modelos vetoriais, reordenadores e pequenos modelos de linguagem, ajudando empresas a construir aplicações de busca generativa e multimodal confiáveis e de alta qualidade."
},
"lmstudio": {
"description": "LM Studio é um aplicativo de desktop para desenvolver e experimentar LLMs em seu computador."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI é uma plataforma que oferece uma variedade de modelos de linguagem de grande escala e serviços de geração de imagens de IA, sendo flexível, confiável e econômica. Suporta os mais recentes modelos de código aberto, como Llama3 e Mistral, e fornece soluções de API abrangentes, amigáveis ao usuário e escaláveis para o desenvolvimento de aplicações de IA, adequadas para o rápido crescimento de startups de IA."
},
"nvidia": {
"description": "O NVIDIA NIM™ fornece contêineres para inferência de microserviços acelerados por GPU autogerenciados, suportando a implantação de modelos de IA pré-treinados e personalizados na nuvem, em data centers, em PCs RTX™ AI e estações de trabalho."
},
"ollama": {
"description": "Os modelos oferecidos pela Ollama abrangem amplamente áreas como geração de código, operações matemáticas, processamento multilíngue e interações de diálogo, atendendo a diversas necessidades de implantação em nível empresarial e local."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage se concentra no desenvolvimento de modelos de IA para diversas necessidades comerciais, incluindo Solar LLM e Document AI, visando alcançar uma inteligência geral artificial (AGI) que funcione. Crie agentes de diálogo simples por meio da API de Chat e suporte chamadas de função, tradução, incorporação e aplicações em domínios específicos."
},
"vllm": {
"description": "vLLM é uma biblioteca rápida e fácil de usar para inferência e serviços de LLM."
},
"wenxin": {
"description": "Plataforma de desenvolvimento e serviços de aplicativos nativos de IA e modelos de grande escala, voltada para empresas, que oferece a mais completa e fácil ferramenta de cadeia de ferramentas para o desenvolvimento de modelos de inteligência artificial generativa e aplicativos."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Версия API Azure, формат YYYY-MM-DD, смотрите [последнюю версию](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Получить список",
"title": "Версия API Azure"
},
"endpoint": {
"desc": "Найдите конечную точку вывода модели Azure AI в обзоре проекта Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Конечная точка Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Найдите API-ключ в обзоре проекта Azure AI",
"placeholder": "Ключ Azure",
"title": "Ключ"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Введите ваш AWS Access Key ID",
@ -97,6 +115,7 @@
"title": "Адрес прокси"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Пожалуйста, выберите тип SDK",
"title": "Формат запроса"
},
@ -210,6 +229,11 @@
"placeholder": "Пожалуйста, введите имя развертывания модели в Azure",
"title": "Имя развертывания модели"
},
"deployName": {
"extra": "Это поле будет использоваться как идентификатор модели при отправке запроса",
"placeholder": "Введите фактическое имя или id развертывания модели",
"title": "Имя развертывания модели"
},
"displayName": {
"placeholder": "Пожалуйста, введите отображаемое имя модели, например, ChatGPT, GPT-4 и т.д.",
"title": "Отображаемое имя модели"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B — это передовая модель, обученная для высококомплексных диалогов."
},
"deepseek-ai/deepseek-r1": {
"description": "Современная эффективная LLM, специализирующаяся на рассуждениях, математике и программировании."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 — это модель визуального языка, разработанная на основе DeepSeekMoE-27B, использующая архитектуру MoE с разреженной активацией, которая демонстрирует выдающуюся производительность при активации всего 4,5 миллиарда параметров. Эта модель показывает отличные результаты в таких задачах, как визуальные вопросы и ответы, оптическое распознавание символов, понимание документов/таблиц/графиков и визуальная локализация."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
},
"emohaa": {
"description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro сочетает в себе новейшие технологии оптимизации, обеспечивая более эффективную обработку многомодальных данных."
},
"google/gemma-2-27b": {
"description": "Gemma 2 — это эффективная модель, представленная Google, охватывающая широкий спектр приложений от небольших до сложных задач обработки данных."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна."
},
"google/gemma-2-2b-it": {
"description": "Легковесная модель настройки инструкций от Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 — это эффективная модель, представленная Google, охватывающая широкий спектр приложений от небольших до сложных задач обработки данных."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 — это легковесная серия текстовых моделей с открытым исходным кодом от Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Наша последняя серия моделей с выдающейся производительностью вывода, лидирующая среди моделей открытого кода того же уровня. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternLM3."
},
"jina-deepsearch-v1": {
"description": "Глубокий поиск сочетает в себе сетевой поиск, чтение и рассуждение, позволяя проводить всесторонние исследования. Вы можете рассматривать его как агента, который принимает ваши исследовательские задачи — он проводит обширный поиск и проходит через множество итераций, прежде чем предоставить ответ. Этот процесс включает в себя постоянные исследования, рассуждения и решение проблем с разных точек зрения. Это принципиально отличается от стандартных больших моделей, которые генерируют ответы непосредственно из предобученных данных, и от традиционных систем RAG, полагающихся на одноразовый поверхностный поиск."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Модель Llama 3.1 Turbo 405B предлагает огромную поддержку контекста для обработки больших данных и демонстрирует выдающиеся результаты в масштабных приложениях искусственного интеллекта."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 — это передовая модель, представленная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B предлагает эффективную поддержку диалогов на нескольких языках."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения."
},
"meta/llama-3.1-405b-instruct": {
"description": "Современная LLM, поддерживающая генерацию синтетических данных, дистилляцию знаний и рассуждения, подходит для чат-ботов, программирования и специализированных задач."
},
"meta/llama-3.1-70b-instruct": {
"description": "Обеспечивает сложные диалоги, обладая выдающимся пониманием контекста, способностями к рассуждению и генерации текста."
},
"meta/llama-3.1-8b-instruct": {
"description": "Современная передовая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
},
"meta/llama-3.2-1b-instruct": {
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
},
"meta/llama-3.2-3b-instruct": {
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
},
"meta/llama-3.3-70b-instruct": {
"description": "Современная LLM, специализирующаяся на рассуждениях, математике, здравом смысле и вызовах функций."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 — это языковая модель от Microsoft AI, которая особенно хорошо справляется с сложными диалогами, многоязычностью, выводами и интеллектуальными помощниками."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B — это крупная языковая модель, созданная NVIDIA, предназначенная для повышения полезности ответов, генерируемых LLM, на запросы пользователей. Эта модель показала отличные результаты в таких бенчмарках, как Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, и на 1 октября 2024 года занимает первое место во всех трех автоматических тестах на согласование. Модель обучалась с использованием RLHF (в частности, REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference на основе модели Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Уникальная языковая модель, обеспечивающая непревзойденную точность и эффективность."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B — это крупная языковая модель, разработанная NVIDIA, предназначенная для повышения полезности ответов, генерируемых LLM."
},
"o1": {
"description": "Сосредоточена на высокоуровневом выводе и решении сложных задач, включая математические и научные задачи. Идеально подходит для приложений, требующих глубокого понимания контекста и управления рабочими процессами."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 — это новая серия крупных языковых моделей с более сильными возможностями понимания и генерации."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM, ориентированная на китайский и английский языки, охватывающая области языка, программирования, математики, рассуждений и др."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "Современная LLM, поддерживающая генерацию кода, рассуждения и исправления, охватывающая основные языки программирования."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Мощная средняя модель кода, поддерживающая контекст длиной 32K, специализирующаяся на многоязычном программировании."
},
"qwen2": {
"description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure предлагает множество передовых AI-моделей, включая GPT-3.5 и новейшую серию GPT-4, поддерживающих различные типы данных и сложные задачи, с акцентом на безопасность, надежность и устойчивые AI-решения."
},
"azureai": {
"description": "Azure предлагает множество современных AI моделей, включая GPT-3.5 и последнюю серию GPT-4, поддерживающих различные типы данных и сложные задачи, нацеленных на безопасные, надежные и устойчивые AI решения."
},
"baichuan": {
"description": "Baichuan Intelligent — это компания, сосредоточенная на разработке больших моделей искусственного интеллекта, чьи модели показывают выдающиеся результаты в области китайских задач, таких как знаниевые энциклопедии, обработка длинных текстов и генерация контента, превосходя зарубежные модели. Baichuan Intelligent также обладает передовыми мультимодальными возможностями и показала отличные результаты в нескольких авторитетных оценках. Их модели включают Baichuan 4, Baichuan 3 Turbo и Baichuan 3 Turbo 128k, оптимизированные для различных сценариев применения, предлагая высокоэффективные решения."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Открытая организация, занимающаяся исследованием и разработкой инструментов для больших моделей. Предоставляет всем разработчикам ИИ эффективную и удобную открытую платформу, позволяя получить доступ к самым современным технологиям больших моделей и алгоритмов."
},
"jina": {
"description": "Jina AI была основана в 2020 году и является ведущей компанией в области поискового AI. Наша платформа поискового базиса включает векторные модели, реорганизаторы и небольшие языковые модели, которые помогают предприятиям создавать надежные и высококачественные генеративные AI и мультимодальные поисковые приложения."
},
"lmstudio": {
"description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI — это платформа, предлагающая API-сервисы для различных больших языковых моделей и генерации изображений AI, гибкая, надежная и экономически эффективная. Она поддерживает новейшие открытые модели, такие как Llama3, Mistral и предоставляет комплексные, удобные для пользователя и автоматически масштабируемые API-решения для разработки генеративных AI-приложений, подходящие для быстрого роста AI-стартапов."
},
"nvidia": {
"description": "NVIDIA NIM™ предоставляет контейнеры для самообслуживания GPU-ускоренного вывода микросервисов, поддерживающих развертывание предобученных и пользовательских AI моделей в облаке, центрах обработки данных, на персональных компьютерах RTX™ AI и рабочих станциях."
},
"ollama": {
"description": "Модели, предлагаемые Ollama, охватывают широкий спектр областей, включая генерацию кода, математические вычисления, многоязыковую обработку и диалоговое взаимодействие, поддерживая разнообразные потребности в развертывании на уровне предприятий и локализации."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage сосредоточен на разработке AI-моделей для различных бизнес-потребностей, включая Solar LLM и документальный AI, с целью достижения искусственного общего интеллекта (AGI). Создавайте простые диалоговые агенты через Chat API и поддерживайте вызовы функций, переводы, встраивания и приложения в конкретных областях."
},
"vllm": {
"description": "vLLM — это быстрая и простая в использовании библиотека для вывода и обслуживания LLM."
},
"wenxin": {
"description": "Корпоративная платформа для разработки и обслуживания крупных моделей и нативных приложений ИИ, предлагающая самый полный и удобный инструментарий для разработки генеративных моделей искусственного интеллекта и полного процесса разработки приложений."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Azure API sürümü, YYYY-AA-GG formatına uymaktadır, [en son sürümü](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions) kontrol edin",
"fetch": "Listeyi al",
"title": "Azure API Sürümü"
},
"endpoint": {
"desc": "Azure AI proje özetinden Azure AI model çıkarım uç noktasını bulun",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AI Uç Noktası"
},
"title": "Azure OpenAI",
"token": {
"desc": "Azure AI proje özetinden API anahtarını bulun",
"placeholder": "Azure Anahtarı",
"title": "Anahtar"
}
},
"bedrock": {
"accessKeyId": {
"desc": "AWS Access Key Id girin",
@ -92,11 +110,23 @@
"required": "Lütfen hizmet sağlayıcı adını girin",
"title": "Hizmet Sağlayıcı Adı"
},
"providerModels": {
"item": {
"modelConfig": {
"deployName": {
"extra": "İstek gönderildiğinde bu alan model ID'si olarak kullanılacaktır",
"placeholder": "Lütfen modelin gerçek dağıtım adını veya kimliğini girin",
"title": "Model Dağıtım Adı"
}
}
}
},
"proxyUrl": {
"required": "Lütfen proxy adresini girin",
"title": "Proxy Adresi"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Lütfen SDK türünü seçin",
"title": "İstek Formatı"
},

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B, yüksek karmaşıklıkta diyaloglar için eğitilmiş gelişmiş bir modeldir."
},
"deepseek-ai/deepseek-r1": {
"description": "En son teknolojiye sahip verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı bir karma uzman (MoE) görsel dil modelidir. Seyrek etkinleştirilen MoE mimarisini kullanarak yalnızca 4.5B parametreyi etkinleştirerek olağanüstü performans sergilemektedir. Bu model, görsel soru yanıtlama, optik karakter tanıma, belge/tablolar/grafikler anlama ve görsel konumlandırma gibi birçok görevde mükemmel sonuçlar elde etmektedir."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
},
"emohaa": {
"description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro, en son optimize edilmiş teknolojileri birleştirerek daha verimli çok modlu veri işleme yetenekleri sunar."
},
"google/gemma-2-27b": {
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir."
},
"google/gemma-2-2b-it": {
"description": "Google'ın hafif talimat ayarlama modeli"
},
"google/gemma-2-9b": {
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
},
"jina-deepsearch-v1": {
"description": "Derin arama, web araması, okuma ve akıl yürütmeyi birleştirerek kapsamlı bir araştırma yapar. Bunu, araştırma görevlerinizi kabul eden bir ajan olarak düşünebilirsiniz - geniş bir arama yapar ve birden fazla yineleme ile cevap verir. Bu süreç, sürekli araştırma, akıl yürütme ve sorunları çeşitli açılardan çözmeyi içerir. Bu, doğrudan önceden eğitilmiş verilerden cevaplar üreten standart büyük modellerle ve tek seferlik yüzey aramasına dayanan geleneksel RAG sistemleriyle temelde farklıdır."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405B Llama 3.1 Turbo modeli, büyük veri işleme için devasa bağlam desteği sunar ve büyük ölçekli AI uygulamalarında öne çıkar."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında uygulanabilir."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B, çok dilli yüksek verimli diyalog desteği sunmaktadır."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur."
},
"meta/llama-3.1-405b-instruct": {
"description": "Gelişmiş LLM, sentetik veri üretimi, bilgi damıtma ve akıl yürütmeyi destekler, sohbet botları, programlama ve belirli alan görevleri için uygundur."
},
"meta/llama-3.1-70b-instruct": {
"description": "Karmaşık diyalogları güçlendiren, mükemmel bağlam anlama, akıl yürütme yeteneği ve metin üretimi yeteneğine sahip."
},
"meta/llama-3.1-8b-instruct": {
"description": "En son teknolojiye sahip model, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
},
"meta/llama-3.2-1b-instruct": {
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
},
"meta/llama-3.2-3b-instruct": {
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
},
"meta/llama-3.3-70b-instruct": {
"description": "Akıllı LLM, akıl yürütme, matematik, genel bilgi ve fonksiyon çağrılarında uzmandır."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş büyük bir dil modelidir ve LLM tarafından üretilen yanıtların kullanıcı sorgularına yardımcı olma düzeyini artırmayı amaçlamaktadır. Bu model, Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench gibi standart testlerde mükemmel performans sergilemiştir ve 1 Ekim 2024 itibarıyla tüm üç otomatik hizalama testinde birinci sıradadır. Model, Llama-3.1-70B-Instruct modelinin temelinde RLHF (özellikle REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference ipuçları kullanılarak eğitilmiştir."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Eşsiz bir dil modeli, benzersiz doğruluk ve verimlilik sunar."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct, NVIDIA'nın özel olarak geliştirdiği büyük dil modelidir ve LLM tarafından üretilen yanıtların yardımcı olmasını artırmayı amaçlar."
},
"o1": {
"description": "Gelişmiş çıkarım ve karmaşık sorunları çözmeye odaklanır, matematik ve bilim görevlerini içerir. Derin bağlam anlayışı ve aracılık iş akışları gerektiren uygulamalar için son derece uygundur."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2, daha güçlü anlama ve üretme yeteneklerine sahip yeni bir büyük dil modeli serisidir."
},
"qwen/qwen2.5-7b-instruct": {
"description": "Çince ve İngilizce'ye yönelik LLM, dil, programlama, matematik, akıl yürütme gibi alanlara odaklanır."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "Gelişmiş LLM, kod üretimi, akıl yürütme ve düzeltme desteği sunar, ana akım programlama dillerini kapsar."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Güçlü orta ölçekli kod modeli, 32K bağlam uzunluğunu destekler, çok dilli programlama konusunda uzmandır."
},
"qwen2": {
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure, GPT-3.5 ve en son GPT-4 serisi gibi çeşitli gelişmiş yapay zeka modelleri sunar. Farklı veri türlerini ve karmaşık görevleri destekleyerek güvenli, güvenilir ve sürdürülebilir yapay zeka çözümleri sağlamaya odaklanmaktadır."
},
"azureai": {
"description": "Azure, GPT-3.5 ve en son GPT-4 serisi dahil olmak üzere çeşitli gelişmiş AI modelleri sunar, çeşitli veri türlerini ve karmaşık görevleri destekler, güvenli, güvenilir ve sürdürülebilir AI çözümlerine odaklanır."
},
"baichuan": {
"description": "Baichuan Intelligent, yapay zeka büyük modellerinin geliştirilmesine odaklanan bir şirkettir. Modelleri, yerel bilgi ansiklopedisi, uzun metin işleme ve üretim gibi Çince görevlerde mükemmel performans sergilemekte ve uluslararası ana akım modelleri aşmaktadır. Baichuan Intelligent ayrıca sektördeki lider çok modlu yeteneklere sahiptir ve birçok otoriter değerlendirmede mükemmel sonuçlar elde etmiştir. Modelleri, Baichuan 4, Baichuan 3 Turbo ve Baichuan 3 Turbo 128k gibi farklı uygulama senaryolarına yönelik optimize edilmiş yüksek maliyet etkinliği çözümleri sunmaktadır."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Büyük model araştırma ve geliştirme araç zincirine adanmış bir açık kaynak organizasyonu. Tüm AI geliştiricilerine verimli ve kullanımı kolay bir açık kaynak platformu sunarak en son büyük model ve algoritma teknolojilerine erişimi kolaylaştırır."
},
"jina": {
"description": "Jina AI, 2020 yılında kurulmuş, önde gelen bir arama AI şirketidir. Arama tabanlı platformumuz, işletmelerin güvenilir ve yüksek kaliteli üretken AI ve çok modlu arama uygulamaları geliştirmelerine yardımcı olan vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içerir."
},
"lmstudio": {
"description": "LM Studio, bilgisayarınızda LLM'ler geliştirmek ve denemeler yapmak için bir masaüstü uygulamasıdır."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI, çeşitli büyük dil modelleri ve yapay zeka görüntü üretimi API hizmetleri sunan bir platformdur. Esnek, güvenilir ve maliyet etkin bir yapıya sahiptir. Llama3, Mistral gibi en son açık kaynak modelleri desteklemekte ve üretken yapay zeka uygulama geliştirme için kapsamlı, kullanıcı dostu ve otomatik ölçeklenebilir API çözümleri sunmaktadır. Bu, yapay zeka girişimlerinin hızlı gelişimi için uygundur."
},
"nvidia": {
"description": "NVIDIA NIM™, bulut, veri merkezi, RTX™ AI kişisel bilgisayarlar ve iş istasyonlarında önceden eğitilmiş ve özelleştirilmiş AI modellerinin dağıtımını destekleyen, kendi kendine barındırılan GPU hızlandırmalı çıkarım mikro hizmetleri için konteynerler sunar."
},
"ollama": {
"description": "Ollama'nın sunduğu modeller, kod üretimi, matematiksel işlemler, çok dilli işleme ve diyalog etkileşimi gibi alanları kapsamaktadır. Kurumsal düzeyde ve yerelleştirilmiş dağıtım için çeşitli ihtiyaçları desteklemektedir."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage, çeşitli ticari ihtiyaçlar için yapay zeka modelleri geliştirmeye odaklanmaktadır. Solar LLM ve belge AI gibi modeller, insan yapımı genel zeka (AGI) hedeflemektedir. Chat API aracılığıyla basit diyalog ajanları oluşturmakta ve işlev çağrısı, çeviri, gömme ve belirli alan uygulamalarını desteklemektedir."
},
"vllm": {
"description": "vLLM, LLM çıkarımı ve hizmetleri için hızlı ve kullanımı kolay bir kütüphanedir."
},
"wenxin": {
"description": "Kurumsal düzeyde tek duraklı büyük model ve AI yerel uygulama geliştirme ve hizmet platformu, en kapsamlı ve kullanımı kolay üretken yapay zeka modeli geliştirme, uygulama geliştirme için tam süreç araç zinciri sunar."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Phiên bản API của Azure, theo định dạng YYYY-MM-DD, tham khảo [phiên bản mới nhất](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "Lấy danh sách",
"title": "Phiên bản API Azure"
},
"endpoint": {
"desc": "Tìm điểm kết thúc suy diễn mô hình Azure AI từ tổng quan dự án Azure AI",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Điểm kết thúc Azure AI"
},
"title": "Azure OpenAI",
"token": {
"desc": "Tìm khóa API từ tổng quan dự án Azure AI",
"placeholder": "Khóa Azure",
"title": "Khóa"
}
},
"bedrock": {
"accessKeyId": {
"desc": "Nhập AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "Địa chỉ proxy"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "Vui lòng chọn loại SDK",
"title": "Định dạng yêu cầu"
},
@ -210,6 +229,11 @@
"placeholder": "Vui lòng nhập tên triển khai mô hình trong Azure",
"title": "Tên triển khai mô hình"
},
"deployName": {
"extra": "Trường này sẽ được sử dụng làm ID mô hình khi gửi yêu cầu",
"placeholder": "Vui lòng nhập tên hoặc ID thực tế của mô hình đã triển khai",
"title": "Tên triển khai mô hình"
},
"displayName": {
"placeholder": "Vui lòng nhập tên hiển thị của mô hình, ví dụ ChatGPT, GPT-4, v.v.",
"title": "Tên hiển thị mô hình"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B là mô hình tiên tiến được huấn luyện cho các cuộc đối thoại phức tạp."
},
"deepseek-ai/deepseek-r1": {
"description": "LLM hiệu quả tiên tiến, xuất sắc trong suy luận, toán học và lập trình."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 là một mô hình ngôn ngữ hình ảnh hỗn hợp chuyên gia (MoE) được phát triển dựa trên DeepSeekMoE-27B, sử dụng kiến trúc MoE với kích hoạt thưa, đạt được hiệu suất xuất sắc chỉ với 4.5B tham số được kích hoạt. Mô hình này thể hiện xuất sắc trong nhiều nhiệm vụ như hỏi đáp hình ảnh, nhận diện ký tự quang học, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh."
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
},
"emohaa": {
"description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc."
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro kết hợp công nghệ tối ưu hóa mới nhất, mang lại khả năng xử lý dữ liệu đa phương thức hiệu quả hơn."
},
"google/gemma-2-27b": {
"description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 tiếp tục triết lý thiết kế nhẹ và hiệu quả."
},
"google/gemma-2-2b-it": {
"description": "Mô hình tinh chỉnh hướng dẫn nhẹ của Google"
},
"google/gemma-2-9b": {
"description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 là một loạt mô hình văn bản mã nguồn mở nhẹ của Google."
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, dẫn đầu trong số các mô hình mã nguồn mở cùng cấp. Mặc định chỉ đến mô hình InternLM3 mới nhất mà chúng tôi đã phát hành."
},
"jina-deepsearch-v1": {
"description": "Tìm kiếm sâu kết hợp tìm kiếm trên mạng, đọc và suy luận, có thể thực hiện điều tra toàn diện. Bạn có thể coi nó như một đại lý, nhận nhiệm vụ nghiên cứu của bạn - nó sẽ thực hiện tìm kiếm rộng rãi và qua nhiều lần lặp lại trước khi đưa ra câu trả lời. Quá trình này liên quan đến nghiên cứu liên tục, suy luận và giải quyết vấn đề từ nhiều góc độ. Điều này khác biệt hoàn toàn với việc tạo ra câu trả lời trực tiếp từ dữ liệu đã được huấn luyện trước của các mô hình lớn tiêu chuẩn và các hệ thống RAG truyền thống dựa vào tìm kiếm bề mặt một lần."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Mô hình Llama 3.1 Turbo 405B cung cấp hỗ trợ ngữ cảnh dung lượng lớn cho xử lý dữ liệu lớn, thể hiện xuất sắc trong các ứng dụng trí tuệ nhân tạo quy mô lớn."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 là mô hình hàng đầu do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B cung cấp hỗ trợ đối thoại hiệu quả đa ngôn ngữ."
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho các thiết bị biên và thời gian huấn luyện nhanh hơn với khả năng tính toán và tài nguyên hạn chế."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM cao cấp, hỗ trợ tạo dữ liệu tổng hợp, chưng cất kiến thức và suy luận, phù hợp cho chatbot, lập trình và các nhiệm vụ chuyên biệt."
},
"meta/llama-3.1-70b-instruct": {
"description": "Tăng cường cuộc đối thoại phức tạp, có khả năng hiểu ngữ cảnh xuất sắc, suy luận và sinh văn bản."
},
"meta/llama-3.1-8b-instruct": {
"description": "Mô hình tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
},
"meta/llama-3.2-1b-instruct": {
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
},
"meta/llama-3.2-3b-instruct": {
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
},
"meta/llama-3.3-70b-instruct": {
"description": "Mô hình LLM tiên tiến, xuất sắc trong suy luận, toán học, kiến thức chung và gọi hàm."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 là mô hình ngôn ngữ do AI của Microsoft cung cấp, thể hiện xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B là một mô hình ngôn ngữ quy mô lớn tùy chỉnh bởi NVIDIA, nhằm nâng cao mức độ hỗ trợ của phản hồi do LLM tạo ra đối với các truy vấn của người dùng. Mô hình này đã thể hiện xuất sắc trong các bài kiểm tra chuẩn như Arena Hard, AlpacaEval 2 LC và GPT-4-Turbo MT-Bench, đứng đầu trong cả ba bài kiểm tra tự động cho đến ngày 1 tháng 10 năm 2024. Mô hình sử dụng RLHF (đặc biệt là REINFORCE), Llama-3.1-Nemotron-70B-Reward và HelpSteer2-Preference để đào tạo trên cơ sở mô hình Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Mô hình ngôn ngữ độc đáo, cung cấp độ chính xác và hiệu suất không thể sánh kịp."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B là mô hình ngôn ngữ lớn tùy chỉnh của NVIDIA, nhằm nâng cao tính hữu ích của các phản hồi do LLM tạo ra."
},
"o1": {
"description": "Tập trung vào suy diễn nâng cao và giải quyết các vấn đề phức tạp, bao gồm các nhiệm vụ toán học và khoa học. Rất phù hợp cho các ứng dụng cần hiểu biết sâu sắc về ngữ cảnh và quy trình làm việc đại diện."
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và sinh mạnh mẽ hơn."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM hướng đến tiếng Trung và tiếng Anh, tập trung vào ngôn ngữ, lập trình, toán học, suy luận và các lĩnh vực khác."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "LLM cao cấp, hỗ trợ tạo mã, suy luận và sửa chữa, bao gồm các ngôn ngữ lập trình phổ biến."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Mô hình mã mạnh mẽ cỡ trung, hỗ trợ độ dài ngữ cảnh 32K, xuất sắc trong lập trình đa ngôn ngữ."
},
"qwen2": {
"description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure cung cấp nhiều mô hình AI tiên tiến, bao gồm GPT-3.5 và dòng GPT-4 mới nhất, hỗ trợ nhiều loại dữ liệu và nhiệm vụ phức tạp, cam kết cung cấp các giải pháp AI an toàn, đáng tin cậy và bền vững."
},
"azureai": {
"description": "Azure cung cấp nhiều mô hình AI tiên tiến, bao gồm GPT-3.5 và dòng GPT-4 mới nhất, hỗ trợ nhiều loại dữ liệu và nhiệm vụ phức tạp, cam kết cung cấp các giải pháp AI an toàn, đáng tin cậy và bền vững."
},
"baichuan": {
"description": "Baichuan Intelligent là công ty tập trung vào nghiên cứu phát triển mô hình ngôn ngữ lớn AI, mô hình của họ thể hiện xuất sắc trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, xử lý văn bản dài và sáng tác, vượt trội hơn so với các mô hình chính thống quốc tế. Baichuan Intelligent còn có khả năng đa phương thức hàng đầu trong ngành, thể hiện xuất sắc trong nhiều bài kiểm tra uy tín. Các mô hình của họ bao gồm Baichuan 4, Baichuan 3 Turbo và Baichuan 3 Turbo 128k, được tối ưu hóa cho các tình huống ứng dụng khác nhau, cung cấp giải pháp hiệu quả về chi phí."
},
@ -53,6 +56,9 @@
"internlm": {
"description": "Tổ chức mã nguồn mở chuyên nghiên cứu và phát triển công cụ cho mô hình lớn. Cung cấp nền tảng mã nguồn mở hiệu quả, dễ sử dụng cho tất cả các nhà phát triển AI, giúp tiếp cận công nghệ mô hình lớn và thuật toán tiên tiến nhất."
},
"jina": {
"description": "Jina AI được thành lập vào năm 2020, là một công ty hàng đầu trong lĩnh vực AI tìm kiếm. Nền tảng tìm kiếm của chúng tôi bao gồm các mô hình vector, bộ tái sắp xếp và các mô hình ngôn ngữ nhỏ, giúp các doanh nghiệp xây dựng các ứng dụng tìm kiếm sinh tạo và đa phương tiện đáng tin cậy và chất lượng cao."
},
"lmstudio": {
"description": "LM Studio là một ứng dụng máy tính để phát triển và thử nghiệm các LLM trên máy tính của bạn."
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI là một nền tảng cung cấp dịch vụ API cho nhiều mô hình ngôn ngữ lớn và tạo hình ảnh AI, linh hoạt, đáng tin cậy và hiệu quả về chi phí. Nó hỗ trợ các mô hình mã nguồn mở mới nhất như Llama3, Mistral, và cung cấp giải pháp API toàn diện, thân thiện với người dùng và tự động mở rộng cho phát triển ứng dụng AI, phù hợp cho sự phát triển nhanh chóng của các công ty khởi nghiệp AI."
},
"nvidia": {
"description": "NVIDIA NIM™ cung cấp các container có thể được sử dụng để tự lưu trữ các dịch vụ vi mô suy diễn GPU tăng tốc, hỗ trợ triển khai các mô hình AI đã được huấn luyện trước và tùy chỉnh trên đám mây, trung tâm dữ liệu, máy tính cá nhân RTX™ AI và trạm làm việc."
},
"ollama": {
"description": "Mô hình do Ollama cung cấp bao quát rộng rãi các lĩnh vực như tạo mã, tính toán toán học, xử lý đa ngôn ngữ và tương tác đối thoại, hỗ trợ nhu cầu đa dạng cho triển khai doanh nghiệp và địa phương."
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage tập trung vào việc phát triển các mô hình AI cho nhiều nhu cầu thương mại khác nhau, bao gồm Solar LLM và AI tài liệu, nhằm đạt được trí thông minh nhân tạo tổng quát (AGI) cho công việc. Tạo ra các đại lý đối thoại đơn giản thông qua Chat API, và hỗ trợ gọi chức năng, dịch thuật, nhúng và ứng dụng trong các lĩnh vực cụ thể."
},
"vllm": {
"description": "vLLM là một thư viện nhanh chóng và dễ sử dụng cho suy diễn và dịch vụ LLM."
},
"wenxin": {
"description": "Nền tảng phát triển và dịch vụ ứng dụng AI gốc với mô hình lớn một cửa dành cho doanh nghiệp, cung cấp chuỗi công cụ toàn diện và dễ sử dụng cho phát triển mô hình trí tuệ nhân tạo sinh sinh và phát triển ứng dụng."
},

View file

@ -19,6 +19,24 @@
"title": "API Key"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Azure 的 API 版本,遵循 YYYY-MM-DD 格式,查阅[最新版本](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
"fetch": "获取列表",
"title": "Azure API Version"
},
"endpoint": {
"desc": "从 Azure AI 项目概述找到 Azure AI 模型推理终结点",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AI 终结点"
},
"title": "Azure OpenAI",
"token": {
"desc": "从 Azure AI 项目概述找到 API 密钥",
"placeholder": "Azure 密钥",
"title": "密钥"
}
},
"bedrock": {
"accessKeyId": {
"desc": "填入 AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "代理地址"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "请选择 SDK 类型",
"title": "请求格式"
},
@ -210,6 +229,11 @@
"placeholder": "请输入 Azure 中的模型部署名称",
"title": "模型部署名称"
},
"deployName": {
"extra": "发送请求时会将该字段作为模型 ID",
"placeholder": "请输入模型实际部署的名称或 id",
"title": "模型部署名称"
},
"displayName": {
"placeholder": "请输入模型的展示名称,例如 ChatGPT、GPT-4 等",
"title": "模型展示名称"

File diff suppressed because it is too large Load diff

View file

@ -1,122 +1,134 @@
{
"openai": {
"description": "OpenAI 是全球领先的人工智能研究机构其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性广泛用于研究、商业和创新应用。"
},
"azure": {
"description": "Azure 提供多种先进的AI模型包括GPT-3.5和最新的GPT-4系列支持多种数据类型和复杂任务致力于安全、可靠和可持续的AI解决方案。"
},
"ollama": {
"description": "Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域,支持企业级和本地化部署的多样化需求。"
},
"anthropic": {
"description": "Anthropic 是一家专注于人工智能研究和开发的公司,提供了一系列先进的语言模型,如 Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。这些模型在智能、速度和成本之间取得了理想的平衡适用于从企业级工作负载到快速响应的各种应用场景。Claude 3.5 Sonnet 作为其最新模型,在多项评估中表现优异,同时保持了较高的性价比。"
},
"bedrock": {
"description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。"
},
"google": {
"description": "Google 的 Gemini 系列是其最先进、通用的 AI模型由 Google DeepMind 打造专为多模态设计支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境极大提升了AI模型的效率与应用广泛性。"
},
"deepseek": {
"description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V3 多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能对齐领军闭源模型 GPT-4o 与 Claude-3.5-Sonnet。"
},
"huggingface": {
"description": "HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。"
},
"openrouter": {
"description": "OpenRouter 是一个提供多种前沿大模型接口的服务平台,支持 OpenAI、Anthropic、LLaMA 及更多适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格助力AI体验的提升。"
},
"cloudflare": {
"description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。"
},
"github": {
"description": "通过GitHub模型开发人员可以成为AI工程师并使用行业领先的AI模型进行构建。"
},
"novita": {
"description": "Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台,灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型,并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案,适合 AI 初创公司的快速发展。"
},
"togetherai": {
"description": "Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。"
},
"fireworksai": {
"description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。"
},
"groq": {
"description": "Groq 的 LPU 推理引擎在最新的独立大语言模型LLM基准测试中表现卓越以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。"
},
"perplexity": {
"description": "Perplexity 是一家领先的对话生成模型提供商提供多种先进的Llama 3.1模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。"
},
"mistral": {
"description": "Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。"
},
"ai21": {
"description": "AI21 Labs 为企业构建基础模型和人工智能系统,加速生成性人工智能在生产中的应用。"
},
"upstage": {
"description": "Upstage 专注于为各种商业需求开发AI模型包括 Solar LLM 和文档 AI旨在实现工作的人造通用智能AGI。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。"
},
"xai": {
"description": "xAI 是一家致力于构建人工智能以加速人类科学发现的公司。我们的使命是推动我们对宇宙的共同理解。"
},
"qwen": {
"description": "通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。"
},
"wenxin": {
"description": "企业级一站式大模型与AI原生应用开发及服务平台提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链"
},
"tencentcloud": {
"description": "知识引擎原子能力LLM Knowledge Engine Atomic Power基于知识引擎研发的知识问答全链路能力面向企业及开发者提供灵活组建及开发模型应用的能力。您可通过多款原子能力组建您专属的模型服务调用文档解析、拆分、embedding、多轮改写等服务进行组装定制企业专属 AI 业务。"
},
"hunyuan": {
"description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力"
},
"zhipu": {
"description": "智谱 AI 提供多模态与语言模型的开放平台支持广泛的AI应用场景包括文本处理、图像理解与编程辅助等。"
},
"siliconcloud": {
"description": "SiliconCloud基于优秀开源基础模型的高性价比 GenAI 云服务"
},
"zeroone": {
"description": "零一万物致力于推动以人为本的AI 2.0技术革命旨在通过大语言模型创造巨大的经济和社会价值并开创新的AI生态与商业模式。"
},
"spark": {
"description": "科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。"
},
"sensenova": {
"description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。"
},
"stepfun": {
"description": "阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。"
},
"moonshot": {
"description": "Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。"
},
"baichuan": {
"description": "百川智能是一家专注于人工智能大模型研发的公司,其模型在国内知识百科、长文本处理和生成创作等中文任务上表现卓越,超越了国外主流模型。百川智能还具备行业领先的多模态能力,在多项权威评测中表现优异。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分别针对不同应用场景进行优化,提供高性价比的解决方案。"
},
"minimax": {
"description": "MiniMax 是 2021 年成立的通用人工智能科技公司致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。"
},
"lmstudio": {
"description": "LM Studio 是一个用于在您的计算机上开发和实验 LLMs 的桌面应用程序。"
},
"internlm": {
"description": "致力于大模型研究与开发工具链的开源组织。为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及"
},
"higress": {
"description": "Higress 是一款云原生 API 网关,在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。"
},
"giteeai": {
"description": "Gitee AI 的 Serverless API 为 AI 开发者提供开箱即用的大模型推理 API 服务。"
},
"taichu": {
"description": "中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务拥有更强的认知、理解、创作能力带来全新互动体验。"
},
"ai360": {
"description": "360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。"
},
"anthropic": {
"description": "Anthropic 是一家专注于人工智能研究和开发的公司,提供了一系列先进的语言模型,如 Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。这些模型在智能、速度和成本之间取得了理想的平衡适用于从企业级工作负载到快速响应的各种应用场景。Claude 3.5 Sonnet 作为其最新模型,在多项评估中表现优异,同时保持了较高的性价比。"
},
"azure": {
"description": "Azure 提供多种先进的AI模型包括GPT-3.5和最新的GPT-4系列支持多种数据类型和复杂任务致力于安全、可靠和可持续的AI解决方案。"
},
"azureai": {
"description": "Azure 提供多种先进的AI模型包括GPT-3.5和最新的GPT-4系列支持多种数据类型和复杂任务致力于安全、可靠和可持续的AI解决方案。"
},
"baichuan": {
"description": "百川智能是一家专注于人工智能大模型研发的公司,其模型在国内知识百科、长文本处理和生成创作等中文任务上表现卓越,超越了国外主流模型。百川智能还具备行业领先的多模态能力,在多项权威评测中表现优异。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分别针对不同应用场景进行优化,提供高性价比的解决方案。"
},
"bedrock": {
"description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。"
},
"cloudflare": {
"description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。"
},
"deepseek": {
"description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V3 多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能对齐领军闭源模型 GPT-4o 与 Claude-3.5-Sonnet。"
},
"doubao": {
"description": "字节跳动推出的自研大模型。通过字节跳动内部50+业务场景实践验证每日万亿级tokens大使用量持续打磨提供多种模态能力以优质模型效果为企业打造丰富的业务体验。"
},
"fireworksai": {
"description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。"
},
"giteeai": {
"description": "Gitee AI 的 Serverless API 为 AI 开发者提供开箱即用的大模型推理 API 服务。"
},
"github": {
"description": "通过GitHub模型开发人员可以成为AI工程师并使用行业领先的AI模型进行构建。"
},
"google": {
"description": "Google 的 Gemini 系列是其最先进、通用的 AI模型由 Google DeepMind 打造专为多模态设计支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境极大提升了AI模型的效率与应用广泛性。"
},
"groq": {
"description": "Groq 的 LPU 推理引擎在最新的独立大语言模型LLM基准测试中表现卓越以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。"
},
"higress": {
"description": "Higress 是一款云原生 API 网关,在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。"
},
"huggingface": {
"description": "HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。"
},
"hunyuan": {
"description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力"
},
"internlm": {
"description": "致力于大模型研究与开发工具链的开源组织。为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及"
},
"jina": {
"description": "Jina AI 成立于 2020 年,是一家领先的搜索 AI 公司。我们的搜索底座平台包含了向量模型、重排器和小语言模型可帮助企业构建可靠且高质量的生成式AI和多模态的搜索应用。"
},
"lmstudio": {
"description": "LM Studio 是一个用于在您的计算机上开发和实验 LLMs 的桌面应用程序。"
},
"minimax": {
"description": "MiniMax 是 2021 年成立的通用人工智能科技公司致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。"
},
"mistral": {
"description": "Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。"
},
"moonshot": {
"description": "Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。"
},
"novita": {
"description": "Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台,灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型,并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案,适合 AI 初创公司的快速发展。"
},
"nvidia": {
"description": "NVIDIA NIM™ 提供容器,可用于自托管 GPU 加速推理微服务支持在云端、数据中心、RTX™ AI 个人电脑和工作站上部署预训练和自定义 AI 模型。"
},
"ollama": {
"description": "Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域,支持企业级和本地化部署的多样化需求。"
},
"openai": {
"description": "OpenAI 是全球领先的人工智能研究机构其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性广泛用于研究、商业和创新应用。"
},
"openrouter": {
"description": "OpenRouter 是一个提供多种前沿大模型接口的服务平台,支持 OpenAI、Anthropic、LLaMA 及更多适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格助力AI体验的提升。"
},
"perplexity": {
"description": "Perplexity 是一家领先的对话生成模型提供商提供多种先进的Llama 3.1模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。"
},
"qwen": {
"description": "通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。"
},
"sensenova": {
"description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。"
},
"siliconcloud": {
"description": "SiliconCloud基于优秀开源基础模型的高性价比 GenAI 云服务"
},
"spark": {
"description": "科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。"
},
"stepfun": {
"description": "阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。"
},
"taichu": {
"description": "中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务拥有更强的认知、理解、创作能力带来全新互动体验。"
},
"tencentcloud": {
"description": "知识引擎原子能力LLM Knowledge Engine Atomic Power基于知识引擎研发的知识问答全链路能力面向企业及开发者提供灵活组建及开发模型应用的能力。您可通过多款原子能力组建您专属的模型服务调用文档解析、拆分、embedding、多轮改写等服务进行组装定制企业专属 AI 业务。"
},
"togetherai": {
"description": "Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。"
},
"upstage": {
"description": "Upstage 专注于为各种商业需求开发AI模型包括 Solar LLM 和文档 AI旨在实现工作的人造通用智能AGI。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。"
},
"vllm": {
"description": "vLLM 是一个快速且易于使用的库,用于 LLM 推理和服务。"
},
"wenxin": {
"description": "企业级一站式大模型与AI原生应用开发及服务平台提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链"
},
"xai": {
"description": "xAI 是一家致力于构建人工智能以加速人类科学发现的公司。我们的使命是推动我们对宇宙的共同理解。"
},
"zeroone": {
"description": "零一万物致力于推动以人为本的AI 2.0技术革命旨在通过大语言模型创造巨大的经济和社会价值并开创新的AI生态与商业模式。"
},
"zhipu": {
"description": "智谱 AI 提供多模态与语言模型的开放平台支持广泛的AI应用场景包括文本处理、图像理解与编程辅助等。"
}
}
}

View file

@ -19,6 +19,24 @@
"title": "API 金鑰"
}
},
"azureai": {
"azureApiVersion": {
"desc": "Azure 的 API 版本,遵循 YYYY-MM-DD 格式,查閱[最新版本](https://learn.microsoft.com/zh-tw/azure/ai-services/openai/reference#chat-completions)",
"fetch": "獲取列表",
"title": "Azure API 版本"
},
"endpoint": {
"desc": "從 Azure AI 專案概述找到 Azure AI 模型推理終結點",
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
"title": "Azure AI 終結點"
},
"title": "Azure OpenAI",
"token": {
"desc": "從 Azure AI 專案概述找到 API 密鑰",
"placeholder": "Azure 密鑰",
"title": "密鑰"
}
},
"bedrock": {
"accessKeyId": {
"desc": "填入AWS Access Key Id",
@ -97,6 +115,7 @@
"title": "代理地址"
},
"sdkType": {
"placeholder": "openai/anthropic/azureai/ollama/...",
"required": "請選擇 SDK 類型",
"title": "請求格式"
},
@ -210,6 +229,11 @@
"placeholder": "請輸入 Azure 中的模型部署名稱",
"title": "模型部署名稱"
},
"deployName": {
"extra": "發送請求時會將該字段作為模型 ID",
"placeholder": "請輸入模型實際部署的名稱或 id",
"title": "模型部署名稱"
},
"displayName": {
"placeholder": "請輸入模型的展示名稱,例如 ChatGPT、GPT-4 等",
"title": "模型展示名稱"

View file

@ -578,6 +578,9 @@
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B 是為高複雜性對話訓練的先進模型。"
},
"deepseek-ai/deepseek-r1": {
"description": "最先進的高效 LLM擅長推理、數學和編程。"
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 是一個基於 DeepSeekMoE-27B 開發的混合專家MoE視覺語言模型採用稀疏激活的 MoE 架構,在僅激活 4.5B 參數的情況下實現了卓越性能。該模型在視覺問答、光學字符識別、文檔/表格/圖表理解和視覺定位等多個任務中表現優異。"
},
@ -629,6 +632,12 @@
"deepseek/deepseek-chat": {
"description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力還更好地對齊了人類偏好。此外DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"emohaa": {
"description": "Emohaa是一個心理模型具備專業諮詢能力幫助用戶理解情感問題。"
},
@ -821,12 +830,18 @@
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro 結合最新的優化技術,帶來更高效的多模態數據處理能力。"
},
"google/gemma-2-27b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 延續了輕量化與高效的設計理念。"
},
"google/gemma-2-2b-it": {
"description": "Google的輕量級指令調優模型"
},
"google/gemma-2-9b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 是 Google 輕量化的開源文本模型系列。"
},
@ -998,6 +1013,9 @@
"internlm3-latest": {
"description": "我們最新的模型系列,有著卓越的推理性能,領跑同量級開源模型。默認指向我們最新發布的 InternLM3 系列模型"
},
"jina-deepsearch-v1": {
"description": "深度搜索結合了網路搜索、閱讀和推理,可進行全面調查。您可以將其視為一個代理,接受您的研究任務 - 它會進行廣泛搜索並經過多次迭代,然後才能給出答案。這個過程涉及持續的研究、推理和從各個角度解決問題。這與直接從預訓練數據生成答案的標準大模型以及依賴一次性表面搜索的傳統 RAG 系統有著根本的不同。"
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM 是一個實驗性的、特定於任務的語言模型,經過訓練以符合學習科學原則,可在教學和學習場景中遵循系統指令,充當專家導師等。"
},
@ -1139,6 +1157,9 @@
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405B 的 Llama 3.1 Turbo 模型,為大數據處理提供超大容量的上下文支持,在超大規模的人工智慧應用中表現突出。"
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。"
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B 提供多語言的高效對話支持。"
},
@ -1196,6 +1217,30 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合計算能力和資源有限、邊緣設備和更快的訓練時間。"
},
"meta/llama-3.1-405b-instruct": {
"description": "高級 LLM支持合成數據生成、知識蒸餾和推理適用於聊天機器人、編程和特定領域任務。"
},
"meta/llama-3.1-70b-instruct": {
"description": "賦能複雜對話,具備卓越的上下文理解、推理能力和文本生成能力。"
},
"meta/llama-3.1-8b-instruct": {
"description": "先進的最尖端模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
},
"meta/llama-3.2-1b-instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-3b-instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
},
"meta/llama-3.3-70b-instruct": {
"description": "先進的 LLM擅長推理、數學、常識和函數調用。"
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 是微軟AI提供的語言模型在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
},
@ -1292,6 +1337,12 @@
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型語言模型,旨在提高 LLM 生成的回應對用戶查詢的幫助程度。該模型在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 等基準測試中表現出色,截至 2024 年 10 月 1 日,在所有三個自動對齊基準測試中排名第一。該模型使用 RLHF特別是 REINFORCE、Llama-3.1-Nemotron-70B-Reward 和 HelpSteer2-Preference 提示在 Llama-3.1-70B-Instruct 模型基礎上進行訓練"
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "獨特的語言模型,提供無與倫比的準確性和效率表現。"
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct 是 NVIDIA 定制的大型語言模型,旨在提高 LLM 生成的響應的幫助性。"
},
"o1": {
"description": "專注於高級推理和解決複雜問題,包括數學和科學任務。非常適合需要深入上下文理解和代理工作流程的應用程序。"
},
@ -1406,6 +1457,15 @@
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 是全新的大型語言模型系列,具有更強的理解和生成能力。"
},
"qwen/qwen2.5-7b-instruct": {
"description": "面向中文和英文的 LLM針對語言、編程、數學、推理等領域。"
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "高級 LLM支持代碼生成、推理和修復涵蓋主流編程語言。"
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "強大的中型代碼模型,支持 32K 上下文長度,擅長多語言編程。"
},
"qwen2": {
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},

View file

@ -11,6 +11,9 @@
"azure": {
"description": "Azure 提供多種先進的 AI 模型,包括 GPT-3.5 和最新的 GPT-4 系列,支持多種數據類型和複雜任務,致力於安全、可靠和可持續的 AI 解決方案。"
},
"azureai": {
"description": "Azure 提供多種先進的 AI 模型,包括 GPT-3.5 和最新的 GPT-4 系列,支持多種數據類型和複雜任務,致力於安全、可靠和可持續的 AI 解決方案。"
},
"baichuan": {
"description": "百川智能是一家專注於人工智慧大模型研發的公司,其模型在國內知識百科、長文本處理和生成創作等中文任務上表現卓越,超越了國外主流模型。百川智能還具備行業領先的多模態能力,在多項權威評測中表現優異。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分別針對不同應用場景進行優化,提供高性價比的解決方案。"
},
@ -53,6 +56,9 @@
"internlm": {
"description": "致力於大模型研究與開發工具鏈的開源組織。為所有 AI 開發者提供高效、易用的開源平台,讓最前沿的大模型與算法技術觸手可及"
},
"jina": {
"description": "Jina AI 成立於 2020 年,是一家領先的搜索 AI 公司。我們的搜索底座平台包含了向量模型、重排器和小語言模型,可幫助企業構建可靠且高品質的生成式 AI 和多模態的搜索應用。"
},
"lmstudio": {
"description": "LM Studio 是一個用於在您的電腦上開發和實驗 LLMs 的桌面應用程式。"
},
@ -68,6 +74,9 @@
"novita": {
"description": "Novita AI 是一個提供多種大語言模型與 AI 圖像生成的 API 服務的平台,靈活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的開源模型,並為生成式 AI 應用開發提供了全面、用戶友好且自動擴展的 API 解決方案,適合 AI 初創公司的快速發展。"
},
"nvidia": {
"description": "NVIDIA NIM™ 提供容器,可用於自托管 GPU 加速推理微服務支持在雲端、數據中心、RTX™ AI 個人電腦和工作站上部署預訓練和自定義 AI 模型。"
},
"ollama": {
"description": "Ollama 提供的模型廣泛涵蓋代碼生成、數學運算、多語種處理和對話互動等領域,支持企業級和本地化部署的多樣化需求。"
},
@ -107,6 +116,9 @@
"upstage": {
"description": "Upstage 專注於為各種商業需求開發 AI 模型,包括 Solar LLM 和文檔 AI旨在實現工作的人工通用智能AGI。通過 Chat API 創建簡單的對話代理,並支持功能調用、翻譯、嵌入以及特定領域應用。"
},
"vllm": {
"description": "vLLM 是一個快速且易於使用的庫,用於 LLM 推理和服務。"
},
"wenxin": {
"description": "企業級一站式大模型與AI原生應用開發及服務平台提供最全面易用的生成式人工智慧模型開發、應用開發全流程工具鏈"
},

View file

@ -109,6 +109,8 @@
"@aws-sdk/client-bedrock-runtime": "^3.723.0",
"@aws-sdk/client-s3": "^3.723.0",
"@aws-sdk/s3-request-presigner": "^3.723.0",
"@azure-rest/ai-inference": "1.0.0-beta.5",
"@azure/core-auth": "^1.9.0",
"@cfworker/json-schema": "^4.1.0",
"@clerk/localizations": "^3.9.6",
"@clerk/nextjs": "^6.10.6",
@ -124,7 +126,7 @@
"@lobehub/charts": "^1.12.0",
"@lobehub/chat-plugin-sdk": "^1.32.4",
"@lobehub/chat-plugins-gateway": "^1.9.0",
"@lobehub/icons": "^1.69.0",
"@lobehub/icons": "^1.73.1",
"@lobehub/tts": "^1.28.0",
"@lobehub/ui": "^1.164.15",
"@neondatabase/serverless": "^0.10.4",

View file

@ -0,0 +1,58 @@
'use client';
import { useTranslation } from 'react-i18next';
import { FormInput, FormPassword } from '@/components/FormInput';
import { AzureAIProviderCard } from '@/config/modelProviders';
import { ModelProvider } from '@/libs/agent-runtime';
import { aiProviderSelectors, useAiInfraStore } from '@/store/aiInfra';
import { KeyVaultsConfigKey, LLMProviderApiTokenKey, LLMProviderBaseUrlKey } from '../../const';
import { SkeletonInput } from '../../features/ProviderConfig';
import { ProviderItem } from '../../type';
import ProviderDetail from '../[id]';
const providerKey = ModelProvider.AzureAI;
const useProviderCard = (): ProviderItem => {
const { t } = useTranslation('modelProvider');
const isLoading = useAiInfraStore(aiProviderSelectors.isAiProviderConfigLoading(providerKey));
return {
...AzureAIProviderCard,
apiKeyItems: [
{
children: isLoading ? (
<SkeletonInput />
) : (
<FormPassword
autoComplete={'new-password'}
placeholder={t('azureai.token.placeholder')}
/>
),
desc: t('azureai.token.desc'),
label: t('azureai.token.title'),
name: [KeyVaultsConfigKey, LLMProviderApiTokenKey],
},
{
children: isLoading ? (
<SkeletonInput />
) : (
<FormInput allowClear placeholder={t('azureai.endpoint.placeholder')} />
),
desc: t('azureai.endpoint.desc'),
label: t('azureai.endpoint.title'),
name: [KeyVaultsConfigKey, LLMProviderBaseUrlKey],
},
],
};
};
const Page = () => {
const card = useProviderCard();
return <ProviderDetail {...card} />;
};
export default Page;

View file

@ -1,6 +1,7 @@
import { ProviderIcon } from '@lobehub/icons';
import { FormModal, Icon } from '@lobehub/ui';
import type { FormItemProps } from '@lobehub/ui/es/Form/components/FormItem';
import { App, Input, Radio } from 'antd';
import { App, Input, Select } from 'antd';
import { BrainIcon } from 'lucide-react';
import { useRouter } from 'next/navigation';
import { memo, useState } from 'react';
@ -87,15 +88,25 @@ const CreateNewProvider = memo<CreateNewProviderProps>(({ onClose, open }) => {
const configItems: FormItemProps[] = [
{
children: (
<Radio.Group
<Select
optionRender={({ label, value }) => (
<Flexbox align={'center'} gap={8} horizontal>
<ProviderIcon provider={value as string} size={18} />
{label}
</Flexbox>
)}
options={[
{ label: 'OpenAI', value: 'openai' },
{ label: 'Anthropic', value: 'anthropic' },
{ label: 'Ollama', value: 'ollama' },
// { label: 'Azure AI', value: 'azureai' },
]}
placeholder={t('createNewAiProvider.sdkType.placeholder')}
variant={'filled'}
/>
),
label: t('createNewAiProvider.sdkType.title'),
minWidth: 400,
name: 'sdkType',
rules: [{ message: t('createNewAiProvider.sdkType.required'), required: true }],
},

View file

@ -11,12 +11,12 @@ interface ModelConfigFormProps {
idEditable?: boolean;
initialValues?: ChatModelCard;
onFormInstanceReady: (instance: FormInstance) => void;
showAzureDeployName?: boolean;
showDeployName?: boolean;
type?: AiModelType;
}
const ModelConfigForm = memo<ModelConfigFormProps>(
({ showAzureDeployName, idEditable = true, onFormInstanceReady, initialValues }) => {
({ showDeployName, idEditable = true, onFormInstanceReady, initialValues }) => {
const { t } = useTranslation('modelProvider');
const [formInstance] = Form.useForm();
@ -55,15 +55,13 @@ const ModelConfigForm = memo<ModelConfigFormProps>(
placeholder={t('providerModels.item.modelConfig.id.placeholder')}
/>
</Form.Item>
{showAzureDeployName && (
{showDeployName && (
<Form.Item
extra={t('providerModels.item.modelConfig.azureDeployName.extra')}
label={t('providerModels.item.modelConfig.azureDeployName.title')}
extra={t('providerModels.item.modelConfig.deployName.extra')}
label={t('providerModels.item.modelConfig.deployName.title')}
name={['config', 'deploymentName']}
>
<Input
placeholder={t('providerModels.item.modelConfig.azureDeployName.placeholder')}
/>
<Input placeholder={t('providerModels.item.modelConfig.deployName.placeholder')} />
</Form.Item>
)}
<Form.Item

View file

@ -1,11 +1,11 @@
import { Modal } from '@lobehub/ui';
import { Button, FormInstance } from 'antd';
import { memo, useState } from 'react';
import { memo, use, useState } from 'react';
import { useTranslation } from 'react-i18next';
import { ModelProvider } from '@/libs/agent-runtime';
import { useAiInfraStore } from '@/store/aiInfra';
import { ProviderSettingsContext } from '../ProviderSettingsContext';
import ModelConfigForm from './Form';
interface ModelConfigModalProps {
@ -26,6 +26,8 @@ const ModelConfigModal = memo<ModelConfigModalProps>(({ open, setOpen }) => {
setOpen(false);
};
const { showDeployName } = use(ProviderSettingsContext);
return (
<Modal
destroyOnClose
@ -65,10 +67,7 @@ const ModelConfigModal = memo<ModelConfigModalProps>(({ open, setOpen }) => {
title={t('providerModels.createNew.title')}
zIndex={1251} // Select is 1150
>
<ModelConfigForm
onFormInstanceReady={setFormInstance}
showAzureDeployName={editingProvider === ModelProvider.Azure}
/>
<ModelConfigForm onFormInstanceReady={setFormInstance} showDeployName={showDeployName} />
</Modal>
);
});

View file

@ -1,13 +1,13 @@
import { Modal } from '@lobehub/ui';
import { Button, FormInstance } from 'antd';
import isEqual from 'fast-deep-equal';
import { memo, useState } from 'react';
import { memo, use, useState } from 'react';
import { useTranslation } from 'react-i18next';
import { ModelProvider } from '@/libs/agent-runtime';
import { aiModelSelectors, useAiInfraStore } from '@/store/aiInfra';
import ModelConfigForm from '../CreateNewModelModal/Form';
import { ProviderSettingsContext } from '../ProviderSettingsContext';
interface ModelConfigModalProps {
id: string;
@ -28,6 +28,7 @@ const ModelConfigModal = memo<ModelConfigModalProps>(({ id, open, setOpen }) =>
const closeModal = () => {
setOpen(false);
};
const { showDeployName } = use(ProviderSettingsContext);
return (
<Modal
@ -66,7 +67,7 @@ const ModelConfigModal = memo<ModelConfigModalProps>(({ id, open, setOpen }) =>
idEditable={false}
initialValues={model}
onFormInstanceReady={setFormInstance}
showAzureDeployName={editingProvider === ModelProvider.Azure || editingProvider === ModelProvider.Doubao}
showDeployName={showDeployName}
type={model?.type}
/>
</Modal>

View file

@ -2,7 +2,9 @@ import { createContext } from 'react';
export interface ProviderSettingsContextValue {
modelEditable?: boolean;
sdkType?: string;
showAddNewModel?: boolean;
showDeployName?: boolean;
showModelFetcher?: boolean;
}

View file

@ -3,7 +3,6 @@
import { Suspense, memo } from 'react';
import { Flexbox } from 'react-layout-kit';
import { ProviderSettingsContext } from '@/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext';
import { useIsMobile } from '@/hooks/useIsMobile';
import { aiModelSelectors, useAiInfraStore } from '@/store/aiInfra';
@ -11,6 +10,7 @@ import DisabledModels from './DisabledModels';
import EmptyModels from './EmptyModels';
import EnabledModelList from './EnabledModelList';
import ModelTitle from './ModelTitle';
import { ProviderSettingsContext, ProviderSettingsContextValue } from './ProviderSettingsContext';
import SearchResult from './SearchResult';
import SkeletonList from './SkeletonList';
@ -41,19 +41,18 @@ const Content = memo<ContentProps>(({ id }) => {
);
});
interface ModelListProps {
interface ModelListProps extends ProviderSettingsContextValue {
id: string;
modelEditable?: boolean;
showAddNewModel?: boolean;
showModelFetcher?: boolean;
}
const ModelList = memo<ModelListProps>(
({ id, showModelFetcher, showAddNewModel, modelEditable = true }) => {
({ id, showModelFetcher, sdkType, showAddNewModel, showDeployName, modelEditable = true }) => {
const mobile = useIsMobile();
return (
<ProviderSettingsContext value={{ modelEditable, showAddNewModel, showModelFetcher }}>
<ProviderSettingsContext
value={{ modelEditable, sdkType, showAddNewModel, showDeployName, showModelFetcher }}
>
<Flexbox gap={16} paddingInline={mobile ? 12 : 0}>
<ModelTitle
provider={id}

View file

@ -127,7 +127,7 @@ const ProviderConfig = memo<ProviderConfigProps>(
defaultShowBrowserRequest,
disableBrowserRequest,
showChecker = true,
} = settings;
} = settings || {};
const { t } = useTranslation('modelProvider');
const [form] = Form.useForm();
const { cx, styles, theme } = useStyles();

View file

@ -0,0 +1,18 @@
import { AIChatModelCard } from '@/types/aiModel';
const azureChatModels: AIChatModelCard[] = [
{
abilities: {
reasoning: true,
},
contextWindowTokens: 128_000,
displayName: 'DeepSeek R1',
id: 'DeepSeek-R1',
maxOutput: 4096,
type: 'chat',
},
];
export const allModels = [...azureChatModels];
export default allModels;

View file

@ -4,6 +4,7 @@ import { default as ai21 } from './ai21';
import { default as ai360 } from './ai360';
import { default as anthropic } from './anthropic';
import { default as azure } from './azure';
import { default as azureai } from './azureai';
import { default as baichuan } from './baichuan';
import { default as bedrock } from './bedrock';
import { default as cloudflare } from './cloudflare';
@ -68,6 +69,7 @@ export const LOBE_DEFAULT_MODEL_LIST = buildDefaultModelList({
ai360,
anthropic,
azure,
azureai,
baichuan,
bedrock,
cloudflare,
@ -113,6 +115,7 @@ export { default as ai21 } from './ai21';
export { default as ai360 } from './ai360';
export { default as anthropic } from './anthropic';
export { default as azure } from './azure';
export { default as azureai } from './azureai';
export { default as baichuan } from './baichuan';
export { default as bedrock } from './bedrock';
export { default as cloudflare } from './cloudflare';

View file

@ -58,10 +58,11 @@ const Azure: ModelProviderCard = {
'Azure 提供多种先进的AI模型包括GPT-3.5和最新的GPT-4系列支持多种数据类型和复杂任务致力于安全、可靠和可持续的AI解决方案。',
id: 'azure',
modelsUrl: 'https://learn.microsoft.com/azure/ai-services/openai/concepts/models',
name: 'Azure',
name: 'Azure OpenAI',
settings: {
defaultShowBrowserRequest: true,
sdkType: 'azure',
showDeployName: true,
},
url: 'https://azure.microsoft.com',
};

View file

@ -0,0 +1,19 @@
import { ModelProviderCard } from '@/types/llm';
// ref: https://learn.microsoft.com/azure/ai-services/openai/concepts/models
const Azure: ModelProviderCard = {
chatModels: [],
description:
'Azure 提供多种先进的AI模型包括GPT-3.5和最新的GPT-4系列支持多种数据类型和复杂任务致力于安全、可靠和可持续的AI解决方案。',
id: 'azureai',
modelsUrl: 'https://ai.azure.com/explore/models',
name: 'Azure AI',
settings: {
defaultShowBrowserRequest: true,
sdkType: 'azureai',
showDeployName: true,
},
url: 'https://ai.azure.com',
};
export default Azure;

View file

@ -4,6 +4,7 @@ import Ai21Provider from './ai21';
import Ai360Provider from './ai360';
import AnthropicProvider from './anthropic';
import AzureProvider from './azure';
import AzureAIProvider from './azureai';
import BaichuanProvider from './baichuan';
import BedrockProvider from './bedrock';
import CloudflareProvider from './cloudflare';
@ -92,6 +93,7 @@ export const LOBE_DEFAULT_MODEL_LIST: ChatModelCard[] = [
export const DEFAULT_MODEL_PROVIDER_LIST = [
OpenAIProvider,
{ ...AzureProvider, chatModels: [] },
AzureAIProvider,
OllamaProvider,
VLLMProvider,
AnthropicProvider,
@ -148,6 +150,7 @@ export { default as Ai21ProviderCard } from './ai21';
export { default as Ai360ProviderCard } from './ai360';
export { default as AnthropicProviderCard } from './anthropic';
export { default as AzureProviderCard } from './azure';
export { default as AzureAIProviderCard } from './azureai';
export { default as BaichuanProviderCard } from './baichuan';
export { default as BedrockProviderCard } from './bedrock';
export { default as CloudflareProviderCard } from './cloudflare';

View file

@ -1,4 +1,5 @@
import { and, asc, desc, eq } from 'drizzle-orm/expressions';
import { isEmpty } from 'lodash-es';
import { LobeChatDatabase } from '@/database/type';
import { ModelProvider } from '@/libs/agent-runtime';
@ -207,6 +208,7 @@ export class AiProviderModel {
...result,
fetchOnClient: typeof result.fetchOnClient === 'boolean' ? result.fetchOnClient : undefined,
keyVaults,
settings: isEmpty(result.settings) ? undefined : result.settings,
} as AiProviderDetailItem;
};

View file

@ -7,6 +7,7 @@ import { LobeAi21AI } from './ai21';
import { LobeAi360AI } from './ai360';
import { LobeAnthropicAI } from './anthropic';
import { LobeAzureOpenAI } from './azureOpenai';
import { LobeAzureAI } from './azureai';
import { LobeBaichuanAI } from './baichuan';
import { LobeBedrockAI, LobeBedrockAIParams } from './bedrock';
import { LobeCloudflareAI, LobeCloudflareParams } from './cloudflare';
@ -141,6 +142,7 @@ class AgentRuntime {
ai360: Partial<ClientOptions>;
anthropic: Partial<ClientOptions>;
azure: { apiKey?: string; apiVersion?: string; baseURL?: string };
azureai: { apiKey?: string; apiVersion?: string; baseURL?: string };
baichuan: Partial<ClientOptions>;
bedrock: Partial<LobeBedrockAIParams>;
cloudflare: Partial<LobeCloudflareParams>;
@ -201,6 +203,11 @@ class AgentRuntime {
break;
}
case ModelProvider.AzureAI: {
runtimeModel = new LobeAzureAI(params.azureai);
break;
}
case ModelProvider.ZhiPu: {
runtimeModel = new LobeZhipuAI(params.zhipu);
break;
@ -307,7 +314,7 @@ class AgentRuntime {
}
case ModelProvider.Novita: {
runtimeModel = new LobeNovitaAI(params.novita ?? {});
runtimeModel = new LobeNovitaAI(params.novita);
break;
}
@ -317,7 +324,7 @@ class AgentRuntime {
}
case ModelProvider.Baichuan: {
runtimeModel = new LobeBaichuanAI(params.baichuan ?? {});
runtimeModel = new LobeBaichuanAI(params.baichuan);
break;
}
@ -327,12 +334,12 @@ class AgentRuntime {
}
case ModelProvider.Ai360: {
runtimeModel = new LobeAi360AI(params.ai360 ?? {});
runtimeModel = new LobeAi360AI(params.ai360);
break;
}
case ModelProvider.SiliconCloud: {
runtimeModel = new LobeSiliconCloudAI(params.siliconcloud ?? {});
runtimeModel = new LobeSiliconCloudAI(params.siliconcloud);
break;
}
@ -372,12 +379,12 @@ class AgentRuntime {
}
case ModelProvider.Jina: {
runtimeModel = new LobeJinaAI(params.jina ?? {});
runtimeModel = new LobeJinaAI(params.jina);
break;
}
case ModelProvider.Cloudflare: {
runtimeModel = new LobeCloudflareAI(params.cloudflare ?? {});
runtimeModel = new LobeCloudflareAI(params.cloudflare);
break;
}

View file

@ -0,0 +1,109 @@
import createClient, { ModelClient } from '@azure-rest/ai-inference';
import { AzureKeyCredential } from '@azure/core-auth';
import OpenAI from 'openai';
import { LobeRuntimeAI } from '../BaseAI';
import { AgentRuntimeErrorType } from '../error';
import { ChatCompetitionOptions, ChatStreamPayload, ModelProvider } from '../types';
import { AgentRuntimeError } from '../utils/createError';
import { debugStream } from '../utils/debugStream';
import { transformResponseToStream } from '../utils/openaiCompatibleFactory';
import { StreamingResponse } from '../utils/response';
import { OpenAIStream, createSSEDataExtractor } from '../utils/streams';
export class LobeAzureAI implements LobeRuntimeAI {
client: ModelClient;
constructor(params?: { apiKey?: string; apiVersion?: string; baseURL?: string }) {
if (!params?.apiKey || !params?.baseURL)
throw AgentRuntimeError.createError(AgentRuntimeErrorType.InvalidProviderAPIKey);
this.client = createClient(params?.baseURL, new AzureKeyCredential(params?.apiKey));
this.baseURL = params?.baseURL;
}
baseURL: string;
async chat(payload: ChatStreamPayload, options?: ChatCompetitionOptions) {
const { messages, model, ...params } = payload;
// o1 series models on Azure OpenAI does not support streaming currently
const enableStreaming = model.includes('o1') ? false : (params.stream ?? true);
try {
const response = this.client.path('/chat/completions').post({
body: {
messages: messages as OpenAI.ChatCompletionMessageParam[],
model,
...params,
stream: enableStreaming,
tool_choice: params.tools ? 'auto' : undefined,
},
});
if (enableStreaming) {
const stream = await response.asBrowserStream();
const [prod, debug] = stream.body!.tee();
if (process.env.DEBUG_AZURE_AI_CHAT_COMPLETION === '1') {
debugStream(debug).catch(console.error);
}
return StreamingResponse(
OpenAIStream(prod.pipeThrough(createSSEDataExtractor()), {
callbacks: options?.callback,
}),
{
headers: options?.headers,
},
);
} else {
const res = await response;
// the azure AI inference response is openai compatible
const stream = transformResponseToStream(res.body as OpenAI.ChatCompletion);
return StreamingResponse(OpenAIStream(stream, { callbacks: options?.callback }), {
headers: options?.headers,
});
}
} catch (e) {
let error = e as { [key: string]: any; code: string; message: string };
if (error.code) {
switch (error.code) {
case 'DeploymentNotFound': {
error = { ...error, deployId: model };
}
}
} else {
error = {
cause: error.cause,
message: error.message,
name: error.name,
} as any;
}
const errorType = error.code
? AgentRuntimeErrorType.ProviderBizError
: AgentRuntimeErrorType.AgentRuntimeError;
throw AgentRuntimeError.chat({
endpoint: this.maskSensitiveUrl(this.baseURL),
error,
errorType,
provider: ModelProvider.Azure,
});
}
}
private maskSensitiveUrl = (url: string) => {
// 使用正则表达式匹配 'https://' 后面和 '.azure.com/' 前面的内容
const regex = /^(https:\/\/)([^.]+)(\.azure\.com\/.*)$/;
// 使用替换函数
return url.replace(regex, (match, protocol, subdomain, rest) => {
// 将子域名替换为 '***'
return `${protocol}***${rest}`;
});
};
}

View file

@ -1,255 +1,13 @@
// @vitest-environment node
import OpenAI from 'openai';
import { Mock, afterEach, beforeEach, describe, expect, it, vi } from 'vitest';
import { ModelProvider } from '@/libs/agent-runtime';
import {
ChatStreamCallbacks,
LobeOpenAICompatibleRuntime,
ModelProvider,
} from '@/libs/agent-runtime';
import * as debugStreamModule from '../utils/debugStream';
import { testProvider } from '../providerTestUtils';
import { LobeBaichuanAI } from './index';
const provider = ModelProvider.Baichuan;
const defaultBaseURL = 'https://api.baichuan-ai.com/v1';
const bizErrorType = 'ProviderBizError';
const invalidErrorType = 'InvalidProviderAPIKey';
// Mock the console.error to avoid polluting test output
vi.spyOn(console, 'error').mockImplementation(() => {});
let instance: LobeOpenAICompatibleRuntime;
beforeEach(() => {
instance = new LobeBaichuanAI({ apiKey: 'test' });
// 使用 vi.spyOn 来模拟 chat.completions.create 方法
vi.spyOn(instance['client'].chat.completions, 'create').mockResolvedValue(
new ReadableStream() as any,
);
});
afterEach(() => {
vi.clearAllMocks();
});
describe('LobeBaichuanAI', () => {
describe('init', () => {
it('should correctly initialize with an API key', async () => {
const instance = new LobeBaichuanAI({ apiKey: 'test_api_key' });
expect(instance).toBeInstanceOf(LobeBaichuanAI);
expect(instance.baseURL).toEqual(defaultBaseURL);
});
});
describe('chat', () => {
describe('Error', () => {
it('should return OpenAIBizError with an openai error response when OpenAI.APIError is thrown', async () => {
// Arrange
const apiError = new OpenAI.APIError(
400,
{
status: 400,
error: {
message: 'Bad Request',
},
},
'Error message',
{},
);
vi.spyOn(instance['client'].chat.completions, 'create').mockRejectedValue(apiError);
// Act
try {
await instance.chat({
messages: [{ content: 'Hello', role: 'user' }],
model: 'Baichuan4',
temperature: 0,
});
} catch (e) {
expect(e).toEqual({
endpoint: defaultBaseURL,
error: {
error: { message: 'Bad Request' },
status: 400,
},
errorType: bizErrorType,
provider,
});
}
});
it('should throw AgentRuntimeError with NoOpenAIAPIKey if no apiKey is provided', async () => {
try {
new LobeBaichuanAI({});
} catch (e) {
expect(e).toEqual({ errorType: invalidErrorType });
}
});
it('should return OpenAIBizError with the cause when OpenAI.APIError is thrown with cause', async () => {
// Arrange
const errorInfo = {
stack: 'abc',
cause: {
message: 'api is undefined',
},
};
const apiError = new OpenAI.APIError(400, errorInfo, 'module error', {});
vi.spyOn(instance['client'].chat.completions, 'create').mockRejectedValue(apiError);
// Act
try {
await instance.chat({
messages: [{ content: 'Hello', role: 'user' }],
model: 'Baichuan4',
temperature: 0,
});
} catch (e) {
expect(e).toEqual({
endpoint: defaultBaseURL,
error: {
cause: { message: 'api is undefined' },
stack: 'abc',
},
errorType: bizErrorType,
provider,
});
}
});
it('should return OpenAIBizError with an cause response with desensitize Url', async () => {
// Arrange
const errorInfo = {
stack: 'abc',
cause: { message: 'api is undefined' },
};
const apiError = new OpenAI.APIError(400, errorInfo, 'module error', {});
instance = new LobeBaichuanAI({
apiKey: 'test',
baseURL: 'https://api.abc.com/v1',
});
vi.spyOn(instance['client'].chat.completions, 'create').mockRejectedValue(apiError);
// Act
try {
await instance.chat({
messages: [{ content: 'Hello', role: 'user' }],
model: 'Baichuan4',
temperature: 0,
});
} catch (e) {
expect(e).toEqual({
endpoint: 'https://api.***.com/v1',
error: {
cause: { message: 'api is undefined' },
stack: 'abc',
},
errorType: bizErrorType,
provider,
});
}
});
it('should throw an InvalidBaichuanAPIKey error type on 401 status code', async () => {
// Mock the API call to simulate a 401 error
const error = new Error('Unauthorized') as any;
error.status = 401;
vi.mocked(instance['client'].chat.completions.create).mockRejectedValue(error);
try {
await instance.chat({
messages: [{ content: 'Hello', role: 'user' }],
model: 'Baichuan4',
temperature: 0,
});
} catch (e) {
// Expect the chat method to throw an error with InvalidBaichuanAPIKey
expect(e).toEqual({
endpoint: defaultBaseURL,
error: new Error('Unauthorized'),
errorType: invalidErrorType,
provider,
});
}
});
it('should return AgentRuntimeError for non-OpenAI errors', async () => {
// Arrange
const genericError = new Error('Generic Error');
vi.spyOn(instance['client'].chat.completions, 'create').mockRejectedValue(genericError);
// Act
try {
await instance.chat({
messages: [{ content: 'Hello', role: 'user' }],
model: 'Baichuan4',
temperature: 0,
});
} catch (e) {
expect(e).toEqual({
endpoint: defaultBaseURL,
errorType: 'AgentRuntimeError',
provider,
error: {
name: genericError.name,
cause: genericError.cause,
message: genericError.message,
stack: genericError.stack,
},
});
}
});
});
describe('DEBUG', () => {
it('should call debugStream and return StreamingTextResponse when DEBUG_BAICHUAN_CHAT_COMPLETION is 1', async () => {
// Arrange
const mockProdStream = new ReadableStream() as any; // 模拟的 prod 流
const mockDebugStream = new ReadableStream({
start(controller) {
controller.enqueue('Debug stream content');
controller.close();
},
}) as any;
mockDebugStream.toReadableStream = () => mockDebugStream; // 添加 toReadableStream 方法
// 模拟 chat.completions.create 返回值,包括模拟的 tee 方法
(instance['client'].chat.completions.create as Mock).mockResolvedValue({
tee: () => [mockProdStream, { toReadableStream: () => mockDebugStream }],
});
// 保存原始环境变量值
const originalDebugValue = process.env.DEBUG_BAICHUAN_CHAT_COMPLETION;
// 模拟环境变量
process.env.DEBUG_BAICHUAN_CHAT_COMPLETION = '1';
vi.spyOn(debugStreamModule, 'debugStream').mockImplementation(() => Promise.resolve());
// 执行测试
// 运行你的测试函数,确保它会在条件满足时调用 debugStream
// 假设的测试函数调用,你可能需要根据实际情况调整
await instance.chat({
messages: [{ content: 'Hello', role: 'user' }],
model: 'Baichuan4',
stream: true,
temperature: 0,
});
// 验证 debugStream 被调用
expect(debugStreamModule.debugStream).toHaveBeenCalled();
// 恢复原始环境变量值
process.env.DEBUG_BAICHUAN_CHAT_COMPLETION = originalDebugValue;
});
});
});
testProvider({
Runtime: LobeBaichuanAI,
provider: ModelProvider.Baichuan,
defaultBaseURL: 'https://api.baichuan-ai.com/v1',
chatDebugEnv: 'DEBUG_BAICHUAN_CHAT_COMPLETION',
chatModel: 'hunyuan-lite',
});

View file

@ -1,3 +1,5 @@
import { ChatModelCard } from '@/types/llm';
import { LobeRuntimeAI } from '../BaseAI';
import { AgentRuntimeErrorType } from '../error';
import { ChatCompetitionOptions, ChatStreamPayload, ModelProvider } from '../types';
@ -12,8 +14,6 @@ import { debugStream } from '../utils/debugStream';
import { StreamingResponse } from '../utils/response';
import { createCallbacksTransformer } from '../utils/streams';
import { ChatModelCard } from '@/types/llm';
export interface CloudflareModelCard {
description: string;
name: string;
@ -34,7 +34,7 @@ export class LobeCloudflareAI implements LobeRuntimeAI {
accountID: string;
apiKey?: string;
constructor({ apiKey, baseURLOrAccountID }: LobeCloudflareParams) {
constructor({ apiKey, baseURLOrAccountID }: LobeCloudflareParams = {}) {
if (!baseURLOrAccountID) {
throw AgentRuntimeError.createError(AgentRuntimeErrorType.InvalidProviderAPIKey);
}
@ -128,30 +128,34 @@ export class LobeCloudflareAI implements LobeRuntimeAI {
return modelList
.map((model) => {
const knownModel = LOBE_DEFAULT_MODEL_LIST.find((m) => model.name.toLowerCase() === m.id.toLowerCase());
const knownModel = LOBE_DEFAULT_MODEL_LIST.find(
(m) => model.name.toLowerCase() === m.id.toLowerCase(),
);
return {
contextWindowTokens: model.properties?.max_total_tokens
? Number(model.properties.max_total_tokens)
: knownModel?.contextWindowTokens ?? undefined,
displayName: knownModel?.displayName ?? (model.properties?.["beta"] === "true" ? `${model.name} (Beta)` : undefined),
: (knownModel?.contextWindowTokens ?? undefined),
displayName:
knownModel?.displayName ??
(model.properties?.['beta'] === 'true' ? `${model.name} (Beta)` : undefined),
enabled: knownModel?.enabled || false,
functionCall:
model.description.toLowerCase().includes('function call')
|| model.properties?.["function_calling"] === "true"
|| knownModel?.abilities?.functionCall
|| false,
model.description.toLowerCase().includes('function call') ||
model.properties?.['function_calling'] === 'true' ||
knownModel?.abilities?.functionCall ||
false,
id: model.name,
reasoning:
model.name.toLowerCase().includes('deepseek-r1')
|| knownModel?.abilities?.reasoning
|| false,
model.name.toLowerCase().includes('deepseek-r1') ||
knownModel?.abilities?.reasoning ||
false,
vision:
model.name.toLowerCase().includes('vision')
|| model.task?.name.toLowerCase().includes('image-to-text')
|| model.description.toLowerCase().includes('vision')
|| knownModel?.abilities?.vision
|| false,
model.name.toLowerCase().includes('vision') ||
model.task?.name.toLowerCase().includes('image-to-text') ||
model.description.toLowerCase().includes('vision') ||
knownModel?.abilities?.vision ||
false,
};
})
.filter(Boolean) as ChatModelCard[];

View file

@ -1,5 +1,6 @@
export { default as AgentRuntime } from './AgentRuntime';
export { LobeAnthropicAI } from './anthropic';
export { LobeAzureAI } from './azureai';
export { LobeAzureOpenAI } from './azureOpenai';
export * from './BaseAI';
export { LobeBedrockAI } from './bedrock';

View file

@ -26,6 +26,7 @@ export enum ModelProvider {
Ai360 = 'ai360',
Anthropic = 'anthropic',
Azure = 'azure',
AzureAI = 'azureai',
Baichuan = 'baichuan',
Bedrock = 'bedrock',
Cloudflare = 'cloudflare',

View file

@ -0,0 +1,331 @@
// Vitest Snapshot v1, https://vitest.dev/guide/snapshot.html
exports[`createSSEDataExtractor > real world data > should convert azure ai data 1`] = `
[
{
"choices": [
{
"delta": {
"content": "",
"reasoning_content": null,
"role": "assistant",
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714651,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": "<think>",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714651,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": "</think>",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714651,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": "Hello",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714651,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": "!",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": " How",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": " can",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": " I",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": " assist",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": " you",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": " today",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": "?",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": " ",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": "😊",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": null,
"index": 0,
"logprobs": null,
"matched_stop": null,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [
{
"delta": {
"content": "",
"reasoning_content": null,
"role": null,
"tool_calls": null,
},
"finish_reason": "stop",
"index": 0,
"logprobs": null,
"matched_stop": 1,
},
],
"created": 1739714652,
"id": "1392a93d52c3483ea872d0ab2aaff7d7",
"model": "DeepSeek-R1",
"object": "chat.completion.chunk",
"usage": null,
},
{
"choices": [],
"id": "79fca0de792a4ffb8ec836442a2a42c0",
"model": "DeepSeek-R1",
"usage": {
"completion_tokens": 16,
"prompt_tokens": 4,
"total_tokens": 20,
},
},
]
`;

View file

@ -0,0 +1,137 @@
import { describe, expect, it } from 'vitest';
import { createSSEDataExtractor } from './protocol';
describe('createSSEDataExtractor', () => {
// Helper function to convert string to Uint8Array
const stringToUint8Array = (str: string): Uint8Array => {
return new TextEncoder().encode(str);
};
// Helper function to process chunks through transformer
const processChunk = async (transformer: TransformStream, chunk: Uint8Array) => {
const results: any[] = [];
const readable = new ReadableStream({
start(controller) {
controller.enqueue(chunk);
controller.close();
},
});
const writable = new WritableStream({
write(chunk) {
results.push(chunk);
},
});
await readable.pipeThrough(transformer).pipeTo(writable);
return results;
};
it('should correctly transform single SSE data line', async () => {
const transformer = createSSEDataExtractor();
const input = 'data: {"message": "hello"}\n';
const chunk = stringToUint8Array(input);
const results = await processChunk(transformer, chunk);
expect(results).toEqual([{ message: 'hello' }]);
});
it('should handle multiple SSE data lines', async () => {
const transformer = createSSEDataExtractor();
const input = `data: {"message": "hello"}\ndata: {"message": "world"}\n`;
const chunk = stringToUint8Array(input);
const results = await processChunk(transformer, chunk);
expect(results).toEqual([{ message: 'hello' }, { message: 'world' }]);
});
it('should ignore non-data lines', async () => {
const transformer = createSSEDataExtractor();
const input = `id: 1\ndata: {"message": "hello"}\nevent: message\n`;
const chunk = stringToUint8Array(input);
const results = await processChunk(transformer, chunk);
expect(results).toEqual([{ message: 'hello' }]);
});
it('should skip [DONE] heartbeat messages', async () => {
const transformer = createSSEDataExtractor();
const input = `data: {"message": "hello"}\ndata: [DONE]\ndata: {"message": "world"}\n`;
const chunk = stringToUint8Array(input);
const results = await processChunk(transformer, chunk);
expect(results).toEqual([{ message: 'hello' }, { message: 'world' }]);
});
it('should handle invalid JSON gracefully', async () => {
const transformer = createSSEDataExtractor();
const input = `data: {"message": "hello"}\ndata: invalid-json\ndata: {"message": "world"}\n`;
const chunk = stringToUint8Array(input);
const results = await processChunk(transformer, chunk);
expect(results).toEqual([{ message: 'hello' }, { message: 'world' }]);
});
it('should handle empty data lines', async () => {
const transformer = createSSEDataExtractor();
const input = `data: \ndata: {"message": "hello"}\ndata: \n`;
const chunk = stringToUint8Array(input);
const results = await processChunk(transformer, chunk);
expect(results).toEqual([{ message: 'hello' }]);
});
it('should process large chunks of data correctly', async () => {
const transformer = createSSEDataExtractor();
const messages = Array(100)
.fill(null)
.map((_, i) => `data: {"message": "message${i}"}\n`)
.join('');
const chunk = stringToUint8Array(messages);
const results = await processChunk(transformer, chunk);
expect(results).toHaveLength(100);
expect(results[0]).toEqual({ message: 'message0' });
expect(results[99]).toEqual({ message: 'message99' });
});
describe('real world data', () => {
it('should convert azure ai data', async () => {
const chunks = [
`data: {"choices":[{"delta":{"content":"","reasoning_content":null,"role":"assistant","tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714651,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"\u003cthink\u003e","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714651,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"\n\n","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714651,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"\u003c/think\u003e","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714651,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"\n\n","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714651,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"Hello","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714651,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"!","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":" How","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":" can","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":" I","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":" assist","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":" you","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":" today","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"?","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":" ","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"😊","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null,"matched_stop":null}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[{"delta":{"content":"","reasoning_content":null,"role":null,"tool_calls":null},"finish_reason":"stop","index":0,"logprobs":null,"matched_stop":1}],"created":1739714652,"id":"1392a93d52c3483ea872d0ab2aaff7d7","model":"DeepSeek-R1","object":"chat.completion.chunk","usage":null}\n`,
`data: {"choices":[],"id":"79fca0de792a4ffb8ec836442a2a42c0","model":"DeepSeek-R1","usage":{"completion_tokens":16,"prompt_tokens":4,"total_tokens":20}}\n`,
`data: [DONE]`,
];
const transformer = createSSEDataExtractor();
const results = await processChunk(transformer, stringToUint8Array(chunks.join('')));
expect(results).matchSnapshot();
});
});
});

View file

@ -170,3 +170,37 @@ export const createFirstErrorHandleTransformer = (
},
});
};
/**
* create a transformer to remove SSE format data
*/
export const createSSEDataExtractor = () =>
new TransformStream({
transform(chunk: Uint8Array, controller) {
// 将 Uint8Array 转换为字符串
const text = new TextDecoder().decode(chunk, { stream: true });
// 处理多行数据的情况
const lines = text.split('\n');
for (const line of lines) {
// 只处理以 "data: " 开头的行
if (line.startsWith('data: ')) {
// 提取 "data: " 后面的实际数据
const jsonText = line.slice(6);
// 跳过心跳消息
if (jsonText === '[DONE]') continue;
try {
// 解析 JSON 数据
const data = JSON.parse(jsonText);
// 将解析后的数据传递给下一个处理器
controller.enqueue(data);
} catch {
console.warn('Failed to parse SSE data:', jsonText);
}
}
}
},
});

View file

@ -19,6 +19,25 @@ export default {
title: 'API Key',
},
},
azureai: {
azureApiVersion: {
desc: 'Azure 的 API 版本,遵循 YYYY-MM-DD 格式,查阅[最新版本](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)',
fetch: '获取列表',
title: 'Azure API Version',
},
endpoint: {
desc: '从 Azure AI 项目概述找到 Azure AI 模型推理终结点',
placeholder: 'https://ai-userxxxxxxxxxx.services.ai.azure.com/models',
title: 'Azure AI 终结点',
},
title: 'Azure OpenAI',
token: {
desc: '从 Azure AI 项目概述找到 API 密钥',
placeholder: 'Azure 密钥',
title: '密钥',
},
},
bedrock: {
accessKeyId: {
desc: '填入 AWS Access Key Id',
@ -98,6 +117,7 @@ export default {
title: '代理地址',
},
sdkType: {
placeholder: 'openai/anthropic/azureai/ollama/...',
required: '请选择 SDK 类型',
title: '请求格式',
},
@ -211,6 +231,11 @@ export default {
placeholder: '请输入 Azure 中的模型部署名称',
title: '模型部署名称',
},
deployName: {
extra: '发送请求时会将该字段作为模型 ID',
placeholder: '请输入模型实际部署的名称或 id',
title: '模型部署名称',
},
displayName: {
placeholder: '请输入模型的展示名称,例如 ChatGPT、GPT-4 等',
title: '模型展示名称',

View file

@ -57,6 +57,13 @@ const getLlmOptionsFromPayload = (provider: string, payload: JWTPayload) => {
return { apiKey, apiVersion, baseURL };
}
case ModelProvider.AzureAI: {
const { AZUREAI_ENDPOINT, AZUREAI_ENDPOINT_KEY } = llmConfig;
const apiKey = payload?.apiKey || AZUREAI_ENDPOINT_KEY;
const baseURL = payload?.baseURL || AZUREAI_ENDPOINT;
return { apiKey, baseURL };
}
case ModelProvider.Bedrock: {
const { AWS_SECRET_ACCESS_KEY, AWS_ACCESS_KEY_ID, AWS_REGION, AWS_SESSION_TOKEN } = llmConfig;
let accessKeyId: string | undefined = AWS_ACCESS_KEY_ID;
@ -100,7 +107,7 @@ const getLlmOptionsFromPayload = (provider: string, payload: JWTPayload) => {
return { apiKey };
}
case ModelProvider.TencentCloud: {
const { TENCENT_CLOUD_API_KEY } = llmConfig;

View file

@ -50,7 +50,10 @@ const isCanUseFC = (model: string, provider: string) => {
return aiModelSelectors.isModelSupportToolUse(model, provider)(useAiInfraStore.getState());
};
const findAzureDeploymentName = (model: string) => {
/**
* TODO: we need to update this function to auto find deploymentName
*/
const findDeploymentName = (model: string) => {
let deploymentId = model;
// TODO: remove isDeprecatedEdition condition in V2.0
@ -222,8 +225,14 @@ class ChatService {
let model = res.model || DEFAULT_AGENT_CONFIG.model;
// if the provider is Azure, get the deployment name as the request model
if (provider === ModelProvider.Azure || provider === ModelProvider.Doubao) {
model = findAzureDeploymentName(model);
const providersWithDeploymentName = [
ModelProvider.Azure,
ModelProvider.Doubao,
ModelProvider.AzureAI,
] as string[];
if (providersWithDeploymentName.includes(provider)) {
model = findDeploymentName(model);
}
const payload = merge(

View file

@ -16,6 +16,7 @@ export type AiProviderSourceType = (typeof AiProviderSourceEnum)[keyof typeof Ai
export const AiProviderSDKEnum = {
Anthropic: 'anthropic',
Azure: 'azure',
AzureAI: 'azureai',
Bedrock: 'bedrock',
Cloudflare: 'cloudflare',
Doubao: 'doubao',

View file

@ -30,6 +30,7 @@ export interface UserKeyVaults {
ai360?: OpenAICompatibleKeyVault;
anthropic?: OpenAICompatibleKeyVault;
azure?: AzureOpenAIKeyVault;
azureai?: AzureOpenAIKeyVault;
baichuan?: OpenAICompatibleKeyVault;
bedrock?: AWSBedrockKeyVault;
cloudflare?: CloudflareKeyVault;