feat: support ZEN mode (#4496)

*  feat: add zen mode

* 💄 style: improve style

* 💄 style: 新增 Zen Mode

* 💄 style: 新增 Zen Mode

* update locale

* add tests

* 💄 style: fix text
This commit is contained in:
Arvin Xu 2024-10-26 18:48:05 +08:00 committed by GitHub
parent f97b6ca393
commit 1a5c7ae84e
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
49 changed files with 574 additions and 197 deletions

1
.gitignore vendored
View file

@ -67,3 +67,4 @@ public/swe-worker*
*.patch
*.pdf
vertex-ai-key.json

View file

@ -184,5 +184,6 @@
"processing": "يتم معالجة الملف..."
}
}
}
},
"zenMode": "وضع التركيز"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) هو نموذج مبتكر، مناسب لتطبيقات متعددة المجالات والمهام المعقدة."
},
"Max-32k": {
"description": "Spark Max 32K مزود بقدرة معالجة سياقية كبيرة، وفهم أقوى للسياق وقدرة على الاستدلال المنطقي، يدعم إدخال نصوص تصل إلى 32K توكن، مناسب لقراءة الوثائق الطويلة، وأسئلة وأجوبة المعرفة الخاصة، وغيرها من السيناريوهات."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "النسخة المحدثة من نموذج Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K مزود بقدرة معالجة سياق ضخمة، يمكنه التعامل مع معلومات سياق تصل إلى 128K، مما يجعله مثاليًا للمحتوى الطويل الذي يتطلب تحليلًا شاملًا ومعالجة علاقات منطقية طويلة الأمد، ويمكنه تقديم منطق سلس ودقيق ودعم متنوع للاقتباسات في التواصل النصي المعقد."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "أظهر InternVL2 أداءً رائعًا في مجموعة متنوعة من مهام اللغة البصرية، بما في ذلك فهم الوثائق والرسوم البيانية، وفهم النصوص في المشاهد، وOCR، وحل المشكلات العلمية والرياضية."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "لقد رفع كلود 3.5 سونيت معايير الصناعة، حيث تفوق أداؤه على نماذج المنافسين ونموذج كلود 3 أوبس، وأظهر أداءً ممتازًا في تقييمات واسعة، مع الحفاظ على سرعة وتكلفة نماذجنا المتوسطة."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، يوفر سرعة استجابة شبه فورية. يمكنه بسرعة الإجابة على الاستفسارات والطلبات البسيطة. سيتمكن العملاء من بناء تجربة ذكاء اصطناعي سلسة تحاكي التفاعل البشري. يمكن لـ Claude 3 Haiku معالجة الصور وإرجاع إخراج نصي، مع نافذة سياقية تبلغ 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة."
},
"general": {
"description": "Spark Lite هو نموذج لغوي كبير خفيف الوزن، يتمتع بتأخير منخفض للغاية وقدرة معالجة فعالة، ومفتوح بالكامل، ويدعم وظيفة البحث عبر الإنترنت في الوقت الحقيقي. تجعل خاصية الاستجابة السريعة منه مثاليًا لتطبيقات الاستدلال على الأجهزة ذات القدرة الحاسوبية المنخفضة وتعديل النماذج، مما يوفر للمستخدمين قيمة ممتازة وتجربة ذكية، خاصة في مجالات الإجابة على الأسئلة، وتوليد المحتوى، وسيناريوهات البحث."
},
"generalv3": {
"description": "Spark Pro هو نموذج لغوي كبير عالي الأداء تم تحسينه للحقول المهنية، يركز على الرياضيات، والبرمجة، والطب، والتعليم، ويدعم البحث عبر الإنترنت بالإضافة إلى المكونات الإضافية المدمجة مثل الطقس والتاريخ. يظهر النموذج المحسن أداءً ممتازًا وكفاءة في الإجابة على الأسئلة المعقدة، وفهم اللغة، وإنشاء نصوص عالية المستوى، مما يجعله الخيار المثالي لتطبيقات الاستخدام المهني."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "سبارك لايت هو نموذج لغوي كبير خفيف الوزن، يتميز بتأخير منخفض للغاية وكفاءة عالية في المعالجة، وهو مجاني تمامًا ومفتوح، ويدعم وظيفة البحث عبر الإنترنت في الوقت الحقيقي. تجعل خصائص استجابته السريعة منه مثاليًا لتطبيقات الاستدلال على الأجهزة ذات القدرة الحاسوبية المنخفضة وضبط النماذج، مما يوفر للمستخدمين قيمة ممتازة من حيث التكلفة وتجربة ذكية، خاصة في مجالات الأسئلة والأجوبة المعرفية، وتوليد المحتوى، وسيناريوهات البحث."
},
"llama-3.1-70b-instruct": {
"description": "نموذج Llama 3.1 70B للتعليمات، يتمتع بـ 70B من المعلمات، قادر على تقديم أداء ممتاز في مهام توليد النصوص الكبيرة والتعليمات."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، يوفر قدرة حسابية فعالة وتفسير النتائج."
},
"max-32k": {
"description": "سبارك ماكس 32K مزود بقدرة معالجة سياق كبيرة، مع فهم أقوى للسياق وقدرة على الاستدلال المنطقي، يدعم إدخال نصوص تصل إلى 32K توكن، مما يجعله مناسبًا لقراءة الوثائق الطويلة، والأسئلة والأجوبة المعرفية الخاصة، وغيرها من السيناريوهات."
},
"meta-llama-3-70b-instruct": {
"description": "نموذج قوي بحجم 70 مليار معلمة يتفوق في التفكير، والترميز، وتطبيقات اللغة الواسعة."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "نموذج Pixtral يظهر قدرات قوية في فهم الرسوم البيانية والصور، والإجابة على الأسئلة المتعلقة بالمستندات، والاستدلال متعدد الوسائط، واتباع التعليمات، مع القدرة على إدخال الصور بدقة طبيعية ونسبة عرض إلى ارتفاع، بالإضافة إلى معالجة عدد غير محدود من الصور في نافذة سياق طويلة تصل إلى 128K توكن."
},
"pro-128k": {
"description": "سبارك برو 128K مزود بقدرة معالجة سياق كبيرة جدًا، قادر على معالجة ما يصل إلى 128K من معلومات السياق، مما يجعله مناسبًا بشكل خاص للتحليل الشامل ومعالجة الروابط المنطقية طويلة الأمد في المحتوى الطويل، ويمكنه تقديم منطق سلس ومتسق ودعم متنوع للاقتباسات في الاتصالات النصية المعقدة."
},
"qwen-coder-turbo-latest": {
"description": "نموذج Qwen للبرمجة."
},

View file

@ -184,5 +184,6 @@
"processing": "Обработка на файла..."
}
}
}
},
"zenMode": "Режим на фокус"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) е иновативен модел, подходящ за приложения в множество области и сложни задачи."
},
"Max-32k": {
"description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, по-силно разбиране на контекста и логическо разсъждение, поддържа текстов вход от 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Актуализирана версия на модела Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надминаваща конкурентните модели и Claude 3 Opus, показвайки отлични резултати в широки оценки, като същевременно предлага скорост и разходи, характерни за нашите модели от среден клас."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, предлагащ почти мигновена скорост на отговор. Той може бързо да отговаря на прости запитвания и заявки. Клиентите ще могат да изградят безпроблемно AI изживяване, имитиращо човешко взаимодействие. Claude 3 Haiku може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни."
},
"general": {
"description": "Spark Lite е лек голям езиков модел с изключително ниска латентност и висока ефективност, напълно безплатен и отворен, поддържащ функция за търсене в реално време. Неговата бърза реакция го прави отличен за приложения с ниска изчислителна мощ и фино настройване на модела, предоставяйки на потребителите отлична цена-качество и интелигентно изживяване, особено в области като отговори на знания, генериране на съдържание и търсене."
},
"generalv3": {
"description": "Spark Pro е високопроизводителен голям езиков модел, оптимизиран за професионални области, фокусирайки се върху математика, програмиране, медицина, образование и др., и поддържа свързано търсене и вградени плъгини за времето, датата и др. Оптимизираният модел показва отлични резултати и висока производителност в сложни отговори на знания, разбиране на езика и високо ниво на текстово генериране, което го прави идеален избор за професионални приложения."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite е лек модел на голям език, с изключително ниска латентност и ефективна обработка, напълно безплатен и отворен, поддържащ функции за онлайн търсене в реално време. Неговите бързи отговори го правят отличен за приложения на нискомощни устройства и фина настройка на модели, предоставяйки на потребителите отлична рентабилност и интелигентно изживяване, особено в контекста на въпроси и отговори, генериране на съдържание и търсене."
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати."
},
"max-32k": {
"description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, с по-силно разбиране на контекста и логическо разсъждение, поддържащ текстови входове до 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии."
},
"meta-llama-3-70b-instruct": {
"description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена."
},
"pro-128k": {
"description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
},
"qwen-coder-turbo-latest": {
"description": "Моделът на кода Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "Datei wird verarbeitet..."
}
}
}
},
"zenMode": "Fokusmodus"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) ist ein innovatives Modell, das sich für Anwendungen in mehreren Bereichen und komplexe Aufgaben eignet."
},
"Max-32k": {
"description": "Spark Max 32K ist mit einer hohen Kontextverarbeitungsfähigkeit ausgestattet, die ein besseres Verständnis des Kontexts und eine stärkere logische Schlussfolgerung ermöglicht. Es unterstützt Texteingaben von bis zu 32K Tokens und eignet sich für Szenarien wie das Lesen langer Dokumente und private Wissensabfragen."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO ist eine hochflexible Multi-Modell-Kombination, die darauf abzielt, außergewöhnliche kreative Erlebnisse zu bieten."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Aktualisierte Version des Phi-3-vision-Modells."
},
"Pro-128k": {
"description": "Spark Pro-128K ist mit einer extrem großen Kontextverarbeitungsfähigkeit ausgestattet, die bis zu 128K Kontextinformationen verarbeiten kann, besonders geeignet für lange Texte, die eine umfassende Analyse und langfristige logische Verknüpfung erfordern, und bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Zitationsunterstützung."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 zeigt herausragende Leistungen in verschiedenen visuellen Sprachaufgaben, einschließlich Dokumenten- und Diagrammverständnis, Szenentexterkennung, OCR, wissenschaftlicher und mathematischer Problemlösung."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet setzt neue Maßstäbe in der Branche, übertrifft die Modelle der Konkurrenz und Claude 3 Opus, und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittelgroßen Modelle beibehält."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic und bietet nahezu sofortige Reaktionsgeschwindigkeiten. Es kann schnell einfache Anfragen und Anforderungen beantworten. Kunden werden in der Lage sein, nahtlose AI-Erlebnisse zu schaffen, die menschliche Interaktionen nachahmen. Claude 3 Haiku kann Bilder verarbeiten und Textausgaben zurückgeben, mit einem Kontextfenster von 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexen Datenverarbeitungen abdeckt."
},
"general": {
"description": "Spark Lite ist ein leichtgewichtiges großes Sprachmodell mit extrem niedriger Latenz und hoher Verarbeitungsfähigkeit, das vollständig kostenlos und offen ist und eine Echtzeitsuchfunktion unterstützt. Seine schnelle Reaktionsfähigkeit macht es in der Inferenzanwendung und Modellanpassung auf Geräten mit geringer Rechenleistung besonders effektiv und bietet den Nutzern ein hervorragendes Kosten-Nutzen-Verhältnis und intelligente Erfahrungen, insbesondere in den Bereichen Wissensabfrage, Inhaltserstellung und Suchszenarien."
},
"generalv3": {
"description": "Spark Pro ist ein hochleistungsfähiges großes Sprachmodell, das für professionelle Bereiche optimiert ist und sich auf Mathematik, Programmierung, Medizin, Bildung und andere Bereiche konzentriert, und unterstützt die Online-Suche sowie integrierte Plugins für Wetter, Datum usw. Das optimierte Modell zeigt hervorragende Leistungen und hohe Effizienz in komplexen Wissensabfragen, Sprachverständnis und hochrangiger Textgenerierung und ist die ideale Wahl für professionelle Anwendungsszenarien."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite ist ein leichtgewichtiges großes Sprachmodell mit extrem niedriger Latenz und effizienter Verarbeitung, das vollständig kostenlos und offen ist und Echtzeitsuchfunktionen unterstützt. Seine schnelle Reaktionsfähigkeit macht es besonders geeignet für Inferenzanwendungen und Modellanpassungen auf Geräten mit geringer Rechenleistung und bietet den Nutzern ein hervorragendes Kosten-Nutzen-Verhältnis sowie ein intelligentes Erlebnis, insbesondere in den Bereichen Wissensabfragen, Inhaltserstellung und Suchszenarien."
},
"llama-3.1-70b-instruct": {
"description": "Das Llama 3.1 70B Instruct-Modell hat 70B Parameter und bietet herausragende Leistungen bei der Generierung großer Texte und Anweisungsaufgaben."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral ist für wissenschaftliche Forschung und mathematische Schlussfolgerungen konzipiert und bietet effektive Rechenfähigkeiten und Ergebnisinterpretationen."
},
"max-32k": {
"description": "Spark Max 32K bietet eine große Kontextverarbeitungsfähigkeit mit verbesserter Kontextverständnis und logischer Schlussfolgerungsfähigkeit und unterstützt Texteingaben von bis zu 32K Tokens, was es ideal für das Lesen langer Dokumente und private Wissensabfragen macht."
},
"meta-llama-3-70b-instruct": {
"description": "Ein leistungsstarkes Modell mit 70 Milliarden Parametern, das in den Bereichen Schlussfolgerungen, Programmierung und breiten Sprachanwendungen herausragt."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Das Pixtral-Modell zeigt starke Fähigkeiten in Aufgaben wie Diagramm- und Bildverständnis, Dokumentenfragen, multimodale Schlussfolgerungen und Befolgung von Anweisungen. Es kann Bilder in natürlicher Auflösung und Seitenverhältnis aufnehmen und in einem langen Kontextfenster von bis zu 128K Tokens beliebig viele Bilder verarbeiten."
},
"pro-128k": {
"description": "Spark Pro 128K verfügt über eine außergewöhnliche Kontextverarbeitungsfähigkeit und kann bis zu 128K Kontextinformationen verarbeiten, was es besonders geeignet für die Analyse langer Texte und die Verarbeitung langfristiger logischer Zusammenhänge macht. Es bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Unterstützung für Zitate."
},
"qwen-coder-turbo-latest": {
"description": "Das Tongyi Qianwen Code-Modell."
},

View file

@ -184,5 +184,6 @@
"processing": "Processing file..."
}
}
}
},
"zenMode": "Zen Mode"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) is an innovative model suitable for multi-domain applications and complex tasks."
},
"Max-32k": {
"description": "Spark Max 32K is equipped with enhanced context processing capabilities, stronger context understanding, and logical reasoning abilities, supporting text input of up to 32K tokens, suitable for scenarios such as long document reading and private knowledge Q&A."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO is a highly flexible multi-model fusion designed to provide an exceptional creative experience."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "An updated version of the Phi-3-vision model."
},
"Pro-128k": {
"description": "Spark Pro-128K is configured with ultra-large context processing capabilities, able to handle up to 128K of contextual information, particularly suitable for long texts requiring comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 demonstrates exceptional performance across various visual language tasks, including document and chart understanding, scene text understanding, OCR, and solving scientific and mathematical problems."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitor models and Claude 3 Opus, excelling in a wide range of evaluations while maintaining the speed and cost of our mid-tier models."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet raises the industry standard, outperforming competing models and Claude 3 Opus, excelling in extensive evaluations while maintaining the speed and cost of our mid-tier models."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku is Anthropic's fastest and most compact model, providing near-instantaneous response times. It can quickly answer simple queries and requests. Customers will be able to build seamless AI experiences that mimic human interaction. Claude 3 Haiku can process images and return text output, with a context window of 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing."
},
"general": {
"description": "Spark Lite is a lightweight large language model with extremely low latency and efficient processing capabilities, completely free and open, supporting real-time online search functionality. Its fast response characteristics make it excel in inference applications and model fine-tuning on low-power devices, providing users with excellent cost-effectiveness and intelligent experiences, particularly in knowledge Q&A, content generation, and search scenarios."
},
"generalv3": {
"description": "Spark Pro is a high-performance large language model optimized for professional fields, focusing on mathematics, programming, healthcare, education, and more, supporting online search and built-in plugins for weather, dates, etc. Its optimized model demonstrates excellent performance and efficiency in complex knowledge Q&A, language understanding, and high-level text creation, making it an ideal choice for professional application scenarios."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite is a lightweight large language model with extremely low latency and efficient processing capabilities, completely free and open, supporting real-time online search functionality. Its quick response feature makes it excel in inference applications and model fine-tuning on low-power devices, providing users with excellent cost-effectiveness and intelligent experiences, particularly in knowledge Q&A, content generation, and search scenarios."
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct model, featuring 70B parameters, delivers outstanding performance in large text generation and instruction tasks."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral is designed for scientific research and mathematical reasoning, providing effective computational capabilities and result interpretation."
},
"max-32k": {
"description": "Spark Max 32K is configured with large context processing capabilities, enhanced contextual understanding, and logical reasoning abilities, supporting text input of 32K tokens, suitable for long document reading, private knowledge Q&A, and other scenarios."
},
"meta-llama-3-70b-instruct": {
"description": "A powerful 70-billion parameter model excelling in reasoning, coding, and broad language applications."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "The Pixtral model demonstrates strong capabilities in tasks such as chart and image understanding, document question answering, multimodal reasoning, and instruction following. It can ingest images at natural resolutions and aspect ratios and handle an arbitrary number of images within a long context window of up to 128K tokens."
},
"pro-128k": {
"description": "Spark Pro 128K is equipped with an extra-large context processing capability, able to handle up to 128K of contextual information, making it particularly suitable for long-form content that requires comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication."
},
"qwen-coder-turbo-latest": {
"description": "The Tongyi Qianwen Coder model."
},

View file

@ -184,5 +184,6 @@
"processing": "Procesando archivo..."
}
}
}
},
"zenMode": "Modo de concentración"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) es un modelo innovador, adecuado para aplicaciones en múltiples campos y tareas complejas."
},
"Max-32k": {
"description": "Spark Max 32K está equipado con una gran capacidad de procesamiento de contexto, una comprensión de contexto más fuerte y habilidades de razonamiento lógico, soporta entradas de texto de 32K tokens, adecuado para la lectura de documentos largos, preguntas y respuestas de conocimiento privado y otros escenarios."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO es una fusión de múltiples modelos altamente flexible, diseñada para ofrecer una experiencia creativa excepcional."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Versión actualizada del modelo Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K está configurado con una capacidad de procesamiento de contexto extremadamente grande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para contenido largo que requiere análisis completo y manejo de relaciones lógicas a largo plazo, proporcionando una lógica fluida y consistente y un soporte diverso de citas en comunicaciones de texto complejas."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 ha demostrado un rendimiento sobresaliente en diversas tareas de lenguaje visual, incluidas la comprensión de documentos y gráficos, comprensión de texto en escenas, OCR, resolución de problemas científicos y matemáticos."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet ha elevado los estándares de la industria, superando el rendimiento de modelos competidores y de Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y el costo de nuestros modelos de nivel medio."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, ofreciendo una velocidad de respuesta casi instantánea. Puede responder rápidamente a consultas y solicitudes simples. Los clientes podrán construir experiencias de IA sin costuras que imiten la interacción humana. Claude 3 Haiku puede manejar imágenes y devolver salidas de texto, con una ventana de contexto de 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos."
},
"general": {
"description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y abierto, que soporta funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y una experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda."
},
"generalv3": {
"description": "Spark Pro es un modelo de lenguaje grande de alto rendimiento optimizado para campos profesionales, enfocado en matemáticas, programación, medicina, educación y más, y soporta búsqueda en línea y plugins integrados como clima y fecha. Su modelo optimizado muestra un rendimiento excepcional y eficiente en preguntas y respuestas complejas, comprensión del lenguaje y creación de textos de alto nivel, siendo la opción ideal para escenarios de aplicación profesional."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y de código abierto, que admite funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda."
},
"llama-3.1-70b-instruct": {
"description": "El modelo Llama 3.1 70B Instruct, con 70B de parámetros, puede ofrecer un rendimiento excepcional en tareas de generación de texto y de instrucciones a gran escala."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral está diseñado para la investigación científica y el razonamiento matemático, proporcionando capacidades de cálculo efectivas y explicación de resultados."
},
"max-32k": {
"description": "Spark Max 32K está equipado con una capacidad de procesamiento de contexto grande, con una comprensión contextual más fuerte y habilidades de razonamiento lógico, soportando entradas de texto de 32K tokens, adecuado para la lectura de documentos largos, preguntas y respuestas de conocimiento privado y otros escenarios."
},
"meta-llama-3-70b-instruct": {
"description": "Un poderoso modelo de 70 mil millones de parámetros que sobresale en razonamiento, codificación y amplias aplicaciones de lenguaje."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "El modelo Pixtral muestra una fuerte capacidad en tareas como comprensión de gráficos e imágenes, preguntas y respuestas de documentos, razonamiento multimodal y seguimiento de instrucciones, capaz de ingerir imágenes en resolución y proporción natural, y manejar una cantidad arbitraria de imágenes en una ventana de contexto larga de hasta 128K tokens."
},
"pro-128k": {
"description": "Spark Pro 128K está equipado con una capacidad de procesamiento de contexto extragrande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para el análisis completo y el manejo de relaciones lógicas a largo plazo en contenido extenso, proporcionando una lógica fluida y coherente y un soporte diverso de citas en comunicaciones de texto complejas."
},
"qwen-coder-turbo-latest": {
"description": "El modelo de código Tongyi Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "Traitement du fichier..."
}
}
}
},
"zenMode": "Mode de concentration"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) est un modèle innovant, adapté à des applications dans plusieurs domaines et à des tâches complexes."
},
"Max-32k": {
"description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, offrant une meilleure compréhension du contexte et des capacités de raisonnement logique, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de longs documents, aux questions-réponses sur des connaissances privées et à d'autres scénarios."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Version améliorée du modèle Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K est configuré avec une capacité de traitement de contexte exceptionnel, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un support varié pour les références dans des communications textuelles complexes."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 a démontré des performances exceptionnelles sur diverses tâches de langage visuel, y compris la compréhension de documents et de graphiques, la compréhension de texte de scène, l'OCR, ainsi que la résolution de problèmes scientifiques et mathématiques."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet a élevé les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, tout en affichant d'excellentes performances dans une large gamme d'évaluations, tout en conservant la vitesse et le coût de nos modèles de niveau intermédiaire."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, offrant une vitesse de réponse quasi instantanée. Il peut répondre rapidement à des requêtes et demandes simples. Les clients pourront construire une expérience AI transparente imitant l'interaction humaine. Claude 3 Haiku peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"general": {
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, supportant une fonction de recherche en temps réel. Sa rapidité de réponse le rend exceptionnel dans les applications d'inférence sur des appareils à faible puissance de calcul et dans l'ajustement des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
},
"generalv3": {
"description": "Spark Pro est un modèle de langage de haute performance optimisé pour des domaines professionnels, se concentrant sur les mathématiques, la programmation, la médecine, l'éducation, etc., et supportant la recherche en ligne ainsi que des plugins intégrés pour la météo, la date, etc. Son modèle optimisé affiche d'excellentes performances et une efficacité dans des tâches complexes de questions-réponses, de compréhension linguistique et de création de textes de haut niveau, en faisant un choix idéal pour des applications professionnelles."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
},
"llama-3.1-70b-instruct": {
"description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral est conçu pour la recherche scientifique et le raisonnement mathématique, offrant des capacités de calcul efficaces et des interprétations de résultats."
},
"max-32k": {
"description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, avec une compréhension contextuelle et des capacités de raisonnement logique renforcées, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de documents longs, aux questions-réponses privées et à d'autres scénarios."
},
"meta-llama-3-70b-instruct": {
"description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Le modèle Pixtral montre de puissantes capacités dans des tâches telles que la compréhension des graphiques et des images, le questionnement de documents, le raisonnement multimodal et le respect des instructions, capable d'ingérer des images à résolution naturelle et à rapport d'aspect, tout en traitant un nombre quelconque d'images dans une fenêtre de contexte longue allant jusqu'à 128K tokens."
},
"pro-128k": {
"description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
},
"qwen-coder-turbo-latest": {
"description": "Le modèle de code Tongyi Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "Elaborazione del file..."
}
}
}
},
"zenMode": "Modalità di concentrazione"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi."
},
"Max-32k": {
"description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione e un ragionamento logico più potenti, supporta l'input di testo fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Versione aggiornata del modello Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K è dotato di capacità di elaborazione del contesto eccezionalmente grandi, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per contenuti lunghi che richiedono analisi complete e gestione di associazioni logiche a lungo termine, fornendo logica fluida e coerenza in comunicazioni testuali complesse e supporto per citazioni varie."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 ha dimostrato prestazioni eccezionali in una varietà di compiti visivi linguistici, tra cui comprensione di documenti e grafici, comprensione di testo in scena, OCR, risoluzione di problemi scientifici e matematici."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando i modelli concorrenti e Claude 3 Opus, dimostrando prestazioni eccezionali in una vasta gamma di valutazioni, mantenendo la velocità e i costi dei nostri modelli di livello medio."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando le prestazioni dei modelli concorrenti e di Claude 3 Opus, dimostrando eccellenza in una vasta gamma di valutazioni, mantenendo al contempo la velocità e i costi dei nostri modelli di livello medio."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, offrendo una velocità di risposta quasi istantanea. Può rispondere rapidamente a query e richieste semplici. I clienti saranno in grado di costruire un'esperienza AI senza soluzione di continuità che imita l'interazione umana. Claude 3 Haiku può gestire immagini e restituire output testuali, con una finestra di contesto di 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse."
},
"general": {
"description": "Spark Lite è un modello linguistico di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supportando funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning del modello, offrendo un ottimo rapporto costo-efficacia e un'esperienza intelligente, in particolare in scenari di domande e risposte, generazione di contenuti e ricerca."
},
"generalv3": {
"description": "Spark Pro è un modello linguistico di grandi dimensioni ad alte prestazioni, ottimizzato per settori professionali, focalizzandosi su matematica, programmazione, medicina, educazione e altro, supportando la ricerca online e plugin integrati per meteo, data e altro. Il modello ottimizzato mostra prestazioni eccellenti e alta efficienza in domande e risposte complesse, comprensione del linguaggio e creazione di testi di alto livello, rendendolo una scelta ideale per scenari di applicazione professionale."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
},
"llama-3.1-70b-instruct": {
"description": "Il modello Llama 3.1 70B Instruct, con 70B parametri, offre prestazioni eccezionali in generazione di testi di grandi dimensioni e compiti di istruzione."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral è progettato per la ricerca scientifica e il ragionamento matematico, offre capacità di calcolo efficaci e interpretazione dei risultati."
},
"max-32k": {
"description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione del contesto e capacità di ragionamento logico superiori, supporta input testuali fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
},
"meta-llama-3-70b-instruct": {
"description": "Un potente modello con 70 miliardi di parametri che eccelle nel ragionamento, nella codifica e nelle ampie applicazioni linguistiche."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Il modello Pixtral dimostra potenti capacità in compiti di comprensione di grafici e immagini, domande e risposte su documenti, ragionamento multimodale e rispetto delle istruzioni, in grado di elaborare immagini a risoluzione naturale e proporzioni, e di gestire un numero arbitrario di immagini in una finestra di contesto lunga fino a 128K token."
},
"pro-128k": {
"description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse."
},
"qwen-coder-turbo-latest": {
"description": "Modello di codice Tongyi Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "ファイル処理中..."
}
}
}
},
"zenMode": "集中モード"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。"
},
"Max-32k": {
"description": "Spark Max 32Kは、大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識に基づく質問応答などのシーンに適しています。"
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Phi-3-visionモデルの更新版です。"
},
"Pro-128k": {
"description": "Spark Pro-128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理でき、特に全体分析や長期的な論理関連処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて流暢で一貫した論理と多様な引用サポートを提供します。"
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2はさまざまな視覚と言語タスクで卓越した性能を発揮しており、文書や図表の理解、シーンテキストの理解、OCR、科学および数学の問題解決などを含みます。"
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れたパフォーマンスを示し、私たちの中程度のモデルの速度とコストを兼ね備えています。"
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnetは業界標準を引き上げ、競合モデルやClaude 3 Opusを上回る性能を発揮し、広範な評価で優れた結果を示しています。また、中程度のレベルのモデルと同等の速度とコストを持っています。"
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 HaikuはAnthropicの最も速く、最もコンパクトなモデルで、ほぼ瞬時の応答速度を提供します。簡単なクエリやリクエストに迅速に回答できます。顧客は人間のインタラクションを模倣するシームレスなAI体験を構築できるようになります。Claude 3 Haikuは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。"
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2は、Googleが提供する高効率モデルであり、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシーンをカバーしています。"
},
"general": {
"description": "Spark Liteは軽量な大言語モデルで、極めて低い遅延と高効率な処理能力を備え、完全に無料でオープンに提供され、リアルタイムのオンライン検索機能をサポートします。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデル微調整において優れたパフォーマンスを発揮し、ユーザーに優れたコスト効果とインテリジェントな体験を提供し、特に知識問答、コンテンツ生成、検索シーンでのパフォーマンスが優れています。"
},
"generalv3": {
"description": "Spark Proは専門分野に最適化された高性能な大言語モデルで、数学、プログラミング、医療、教育などの複数の分野に特化し、ネットワーク検索や内蔵の天気、日付などのプラグインをサポートします。最適化されたモデルは、複雑な知識問答、言語理解、高度なテキスト創作において優れたパフォーマンスと高効率を示し、専門的なアプリケーションシーンに最適な選択肢です。"
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。"
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtralは、科学研究と数学推論のために設計されており、効果的な計算能力と結果の解釈を提供します。"
},
"max-32k": {
"description": "Spark Max 32Kは大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識問答などのシーンに適しています。"
},
"meta-llama-3-70b-instruct": {
"description": "推論、コーディング、広範な言語アプリケーションに優れた70億パラメータの強力なモデルです。"
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Pixtralモデルは、グラフと画像理解、文書質問応答、多モーダル推論、指示遵守などのタスクで強力な能力を発揮し、自然な解像度とアスペクト比で画像を取り込み、最大128Kトークンの長いコンテキストウィンドウで任意の数の画像を処理できます。"
},
"pro-128k": {
"description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。"
},
"qwen-coder-turbo-latest": {
"description": "通義千問のコードモデルです。"
},

View file

@ -184,5 +184,6 @@
"processing": "파일 처리 중..."
}
}
}
},
"zenMode": "집중 모드"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다."
},
"Max-32k": {
"description": "Spark Max 32K는 대규모 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 제공합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 상황에 적합합니다."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision 모델의 업데이트된 버전입니다."
},
"Pro-128k": {
"description": "Spark Pro-128K는 초대형 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있어, 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합합니다. 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2는 문서 및 차트 이해, 장면 텍스트 이해, OCR, 과학 및 수학 문제 해결을 포함한 다양한 시각 언어 작업에서 뛰어난 성능을 보여줍니다."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켰으며, 경쟁 모델과 Claude 3 Opus를 초월하는 성능을 보여주고, 광범위한 평가에서 뛰어난 성과를 보였습니다. 또한 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 간결한 모델로, 거의 즉각적인 응답 속도를 제공합니다. 간단한 질문과 요청에 신속하게 답변할 수 있습니다. 고객은 인간 상호작용을 모방하는 원활한 AI 경험을 구축할 수 있습니다. Claude 3 Haiku는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 응용 프로그램부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다."
},
"general": {
"description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전 무료로 개방되어 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하여 사용자에게 뛰어난 비용 효율성과 지능적인 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
},
"generalv3": {
"description": "Spark Pro는 전문 분야에 최적화된 고성능 대형 언어 모델로, 수학, 프로그래밍, 의료, 교육 등 여러 분야에 중점을 두고 있으며, 네트워크 검색 및 내장된 날씨, 날짜 등의 플러그인을 지원합니다. 최적화된 모델은 복잡한 지식 질문 응답, 언어 이해 및 고급 텍스트 창작에서 뛰어난 성능과 효율성을 보여주며, 전문 응용 시나리오에 적합한 이상적인 선택입니다."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전히 무료로 제공되고 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하며, 사용자에게 뛰어난 비용 효율성과 스마트한 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct 모델은 70B 매개변수를 갖추고 있으며, 대규모 텍스트 생성 및 지시 작업에서 뛰어난 성능을 제공합니다."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral은 과학 연구 및 수학 추론을 위해 설계되었으며, 효과적인 계산 능력과 결과 해석을 제공합니다."
},
"max-32k": {
"description": "Spark Max 32K는 큰 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 지원합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 시나리오에 적합합니다."
},
"meta-llama-3-70b-instruct": {
"description": "추론, 코딩 및 광범위한 언어 응용 프로그램에서 뛰어난 성능을 발휘하는 강력한 70억 매개변수 모델입니다."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Pixtral 모델은 차트 및 이미지 이해, 문서 질문 응답, 다중 모드 추론 및 지시 준수와 같은 작업에서 강력한 능력을 발휘하며, 자연 해상도와 가로 세로 비율로 이미지를 입력할 수 있고, 최대 128K 토큰의 긴 컨텍스트 창에서 임의의 수의 이미지를 처리할 수 있습니다."
},
"pro-128k": {
"description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
},
"qwen-coder-turbo-latest": {
"description": "통의 천문 코드 모델입니다."
},

View file

@ -184,5 +184,6 @@
"processing": "Bestand wordt verwerkt..."
}
}
}
},
"zenMode": "Focusmodus"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken."
},
"Max-32k": {
"description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, verbeterd begrip van context en logische redeneervaardigheden, ondersteunt tekstinvoer van 32K tokens, geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Een geüpdatete versie van het Phi-3-vision model."
},
"Pro-128k": {
"description": "Spark Pro-128K is uitgerust met een enorme contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken, bijzonder geschikt voor lange teksten die volledige analyse en langdurige logische verbanden vereisen, en biedt vloeiende en consistente logica met diverse referenties in complexe tekstcommunicatie."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 toont uitstekende prestaties bij diverse visuele taaltaken, waaronder document- en grafiekbegrip, scène-tekstbegrip, OCR, en het oplossen van wetenschappelijke en wiskundige problemen."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet heeft de industrienormen verhoogd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen. Het presteert uitstekend in uitgebreide evaluaties, terwijl het de snelheid en kosten van onze middelgrote modellen behoudt."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, met bijna onmiddellijke reactietijden. Het kan snel eenvoudige vragen en verzoeken beantwoorden. Klanten kunnen een naadloze AI-ervaring creëren die menselijke interactie nabootst. Claude 3 Haiku kan afbeeldingen verwerken en tekstoutput retourneren, met een contextvenster van 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingsscenario's dekt, van kleine toepassingen tot complexe gegevensverwerking."
},
"general": {
"description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteiten, volledig gratis en open, met ondersteuning voor realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie-toepassingen en modelfijnstelling op apparaten met lage rekenkracht, en biedt gebruikers uitstekende kosteneffectiviteit en een intelligente ervaring, vooral in kennisvragen, inhoudsgeneratie en zoekscenario's."
},
"generalv3": {
"description": "Spark Pro is een hoogwaardig groot taalmodel dat is geoptimaliseerd voor professionele domeinen, met een focus op wiskunde, programmeren, geneeskunde, onderwijs en meer, en ondersteunt online zoeken en ingebouwde plugins voor weer, datum, enz. Het geoptimaliseerde model toont uitstekende prestaties en efficiëntie in complexe kennisvragen, taalbegrip en hoogwaardig tekstcreatie, en is de ideale keuze voor professionele toepassingsscenario's."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct model, met 70B parameters, biedt uitstekende prestaties in grote tekstgeneratie- en instructietaken."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral is ontworpen voor wetenschappelijk onderzoek en wiskundige inferentie, biedt effectieve rekencapaciteiten en resultaatinterpretatie."
},
"max-32k": {
"description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, met verbeterd begrip van context en logische redeneervaardigheden. Het ondersteunt tekstinvoer van 32K tokens en is geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
},
"meta-llama-3-70b-instruct": {
"description": "Een krachtig model met 70 miljard parameters dat uitblinkt in redeneren, coderen en brede taaltoepassingen."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Het Pixtral model toont sterke capaciteiten in taken zoals grafiek- en beeldbegrip, documentvraag-en-antwoord, multimodale redenering en instructievolging, en kan afbeeldingen met natuurlijke resolutie en beeldverhouding verwerken, evenals een onbeperkt aantal afbeeldingen in een lange contextvenster van maximaal 128K tokens."
},
"pro-128k": {
"description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie."
},
"qwen-coder-turbo-latest": {
"description": "Het Tongyi Qianwen codeermodel."
},

View file

@ -184,5 +184,6 @@
"processing": "Przetwarzanie pliku..."
}
}
}
},
"zenMode": "Tryb skupienia"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań."
},
"Max-32k": {
"description": "Spark Max 32K ma dużą zdolność przetwarzania kontekstu, lepsze zrozumienie kontekstu i zdolności logicznego rozumowania, obsługując teksty o długości 32K tokenów, odpowiednie do czytania długich dokumentów, prywatnych pytań o wiedzę i innych scenariuszy."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Zaktualizowana wersja modelu Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K ma wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, szczególnie odpowiedni do analizy całościowej i długoterminowego przetwarzania logicznego w długich tekstach, zapewniając płynne i spójne logicznie komunikowanie się oraz różnorodne wsparcie cytatów."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 pokazuje wyjątkowe wyniki w różnych zadaniach językowych i wizualnych, w tym zrozumieniu dokumentów i wykresów, zrozumieniu tekstu w scenach, OCR, rozwiązywaniu problemów naukowych i matematycznych."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, jednocześnie oferując szybkość i koszty na poziomie naszych modeli średniej klasy."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, wykazując doskonałe wyniki w szerokich ocenach, jednocześnie oferując prędkość i koszty naszych modeli średniego poziomu."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model od Anthropic, oferujący niemal natychmiastową szybkość odpowiedzi. Może szybko odpowiadać na proste zapytania i prośby. Klienci będą mogli budować płynne doświadczenia AI, które naśladują interakcje międzyludzkie. Claude 3 Haiku może przetwarzać obrazy i zwracać wyjścia tekstowe, z oknem kontekstowym wynoszącym 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne zastosowania, od małych aplikacji po złożone przetwarzanie danych."
},
"general": {
"description": "Spark Lite to lekki model dużego języka, charakteryzujący się bardzo niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcję wyszukiwania w czasie rzeczywistym. Jego szybka reakcja sprawia, że doskonale sprawdza się w zastosowaniach inferencyjnych i dostrajaniu modeli na urządzeniach o niskiej mocy obliczeniowej, oferując użytkownikom doskonały stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w zadaniach związanych z pytaniami o wiedzę, generowaniem treści i wyszukiwaniem."
},
"generalv3": {
"description": "Spark Pro to model dużego języka o wysokiej wydajności, zoptymalizowany do profesjonalnych dziedzin, takich jak matematyka, programowanie, medycyna i edukacja, wspierający wyszukiwanie w sieci oraz wbudowane wtyczki, takie jak pogoda i daty. Jego zoptymalizowany model wykazuje doskonałe wyniki i wysoką wydajność w skomplikowanych pytaniach o wiedzę, rozumieniu języka oraz tworzeniu zaawansowanych tekstów, co czyni go idealnym wyborem do profesjonalnych zastosowań."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
},
"llama-3.1-70b-instruct": {
"description": "Model Llama 3.1 70B Instruct, z 70B parametrami, oferujący doskonałe osiągi w dużych zadaniach generowania tekstu i poleceń."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral zaprojektowany do badań naukowych i wnioskowania matematycznego, oferujący efektywne możliwości obliczeniowe i interpretację wyników."
},
"max-32k": {
"description": "Spark Max 32K jest wyposażony w dużą zdolność przetwarzania kontekstu, oferując silniejsze zrozumienie kontekstu i zdolności logicznego wnioskowania, obsługując teksty o długości do 32K tokenów, co czyni go odpowiednim do czytania długich dokumentów, prywatnych pytań i odpowiedzi oraz innych scenariuszy."
},
"meta-llama-3-70b-instruct": {
"description": "Potężny model z 70 miliardami parametrów, doskonały w rozumowaniu, kodowaniu i szerokich zastosowaniach językowych."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Model Pixtral wykazuje silne zdolności w zadaniach związanych z analizą wykresów i zrozumieniem obrazów, pytaniami dokumentowymi, wielomodalnym rozumowaniem i przestrzeganiem instrukcji, zdolny do przyjmowania obrazów w naturalnej rozdzielczości i proporcjach, a także do przetwarzania dowolnej liczby obrazów w długim oknie kontekstowym o długości do 128K tokenów."
},
"pro-128k": {
"description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
},
"qwen-coder-turbo-latest": {
"description": "Model kodowania Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "Processando arquivo..."
}
}
}
},
"zenMode": "Modo de Foco"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas."
},
"Max-32k": {
"description": "O Spark Max 32K possui uma grande capacidade de processamento de contexto, com uma compreensão e raciocínio lógico mais robustos, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas sobre conhecimento privado e outros cenários."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Versão atualizada do modelo Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 demonstrou desempenho excepcional em diversas tarefas de linguagem visual, incluindo compreensão de documentos e gráficos, compreensão de texto em cena, OCR, e resolução de problemas científicos e matemáticos."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet elevou o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, enquanto mantém a velocidade e o custo de nossos modelos de nível médio."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "O Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, oferecendo uma velocidade de resposta quase instantânea. Ele pode responder rapidamente a consultas e solicitações simples. Os clientes poderão construir uma experiência de IA sem costura que imita a interação humana. O Claude 3 Haiku pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos."
},
"general": {
"description": "Spark Lite é um modelo de linguagem leve, com latência extremamente baixa e alta capacidade de processamento, totalmente gratuito e aberto, suportando funcionalidade de busca online em tempo real. Sua característica de resposta rápida o torna excelente em aplicações de inferência e ajuste de modelo em dispositivos de baixa potência, proporcionando aos usuários um excelente custo-benefício e experiência inteligente, especialmente em perguntas e respostas, geração de conteúdo e cenários de busca."
},
"generalv3": {
"description": "Spark Pro é um modelo de linguagem de alto desempenho otimizado para áreas profissionais, focando em matemática, programação, medicina, educação e outros campos, e suportando busca online e plugins integrados como clima e data. Seu modelo otimizado apresenta desempenho excepcional e eficiência em perguntas e respostas complexas, compreensão de linguagem e criação de texto de alto nível, sendo a escolha ideal para cenários de aplicação profissional."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
},
"llama-3.1-70b-instruct": {
"description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados."
},
"max-32k": {
"description": "Spark Max 32K possui uma capacidade de processamento de contexto grande, com melhor compreensão de contexto e capacidade de raciocínio lógico, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas de conhecimento privado e outros cenários."
},
"meta-llama-3-70b-instruct": {
"description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens."
},
"pro-128k": {
"description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
},
"qwen-coder-turbo-latest": {
"description": "Modelo de código Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "Обработка файла..."
}
}
}
},
"zenMode": "Режим концентрации"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач."
},
"Max-32k": {
"description": "Spark Max 32K оснащен высокой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев"
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Обновленная версия модели Phi-3-vision."
},
"Pro-128k": {
"description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 демонстрирует превосходные результаты в различных визуально-языковых задачах, включая понимание документов и графиков, понимание текстов сцены, OCR, решение научных и математических задач."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet установил новые стандарты в отрасли, превзойдя модели конкурентов и Claude 3 Opus, продемонстрировав отличные результаты в широкомасштабных оценках, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенную скорость ответа. Она может быстро отвечать на простые запросы и запросы. Клиенты смогут создать бесшовный AI-опыт, имитирующий человеческое взаимодействие. Claude 3 Haiku может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных."
},
"general": {
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функцию онлайн-поиска в реальном времени. Ее быстрая реакция делает ее выдающимся выбором для применения в низкопроизводительных устройствах и тонкой настройке моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в задачах на знание, генерацию контента и поисковых сценариях."
},
"generalv3": {
"description": "Spark Pro — это высокопроизводительная большая языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, медицина и образование, поддерживающая сетевой поиск и встроенные плагины для погоды, даты и т.д. Оптимизированная модель демонстрирует выдающиеся результаты и высокую эффективность в сложных задачах на знание, понимании языка и высокоуровневом создании текстов, что делает ее идеальным выбором для профессиональных приложений."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
},
"llama-3.1-70b-instruct": {
"description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов."
},
"max-32k": {
"description": "Spark Max 32K обладает большой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев."
},
"meta-llama-3-70b-instruct": {
"description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов."
},
"pro-128k": {
"description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
},
"qwen-coder-turbo-latest": {
"description": "Модель кода Tongyi Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "Dosya İşleniyor..."
}
}
}
},
"zenMode": "Odak Modu"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B), çok alanlı uygulamalar ve karmaşık görevler için uygun yenilikçi bir modeldir."
},
"Max-32k": {
"description": "Spark Max 32K, büyük bağlam işleme yeteneği, daha güçlü bağlam anlama ve mantıksal akıl yürütme yeteneği ile donatılmıştır. 32K token'lık metin girişi destekler ve uzun belgelerin okunması, özel bilgi sorgulamaları gibi senaryolar için uygundur."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Phi-3-görsel modelinin güncellenmiş versiyonu."
},
"Pro-128k": {
"description": "Spark Pro-128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır, 128K'ya kadar bağlam bilgisi işleyebilir, özellikle uzun metin içeriklerinde bütünsel analiz ve uzun vadeli mantıksal bağlantı işleme gerektiren durumlar için uygundur, karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunar."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2, belgelere ve grafiklere anlama, sahne metni anlama, OCR, bilimsel ve matematik soruları çözme gibi çeşitli görsel dil görevlerinde mükemmel performans sergilemiştir."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet, sektör standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak, geniş bir değerlendirme yelpazesinde mükemmel performans sergilemekte, orta seviye modellerimizin hız ve maliyet avantajlarını sunmaktadır."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir, neredeyse anında yanıt hızı sunar. Basit sorgular ve taleplere hızlı bir şekilde yanıt verebilir. Müşteriler, insan etkileşimini taklit eden kesintisiz bir AI deneyimi oluşturabileceklerdir. Claude 3 Haiku, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
},
"general": {
"description": "Spark Lite, son derece düşük gecikme ve yüksek verimlilik sunan hafif bir büyük dil modelidir, tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini destekler. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans gösterir, kullanıcılara mükemmel maliyet etkinliği ve akıllı deneyim sunar, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılıdır."
},
"generalv3": {
"description": "Spark Pro, profesyonel alanlar için optimize edilmiş yüksek performanslı büyük dil modelidir, matematik, programlama, sağlık, eğitim gibi birçok alana odaklanır ve çevrimiçi arama ile yerleşik hava durumu, tarih gibi eklentileri destekler. Optimize edilmiş modeli, karmaşık bilgi sorgulama, dil anlama ve yüksek düzeyde metin oluşturma konularında mükemmel performans ve yüksek verimlilik sergiler, profesyonel uygulama senaryoları için ideal bir seçimdir."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral, bilimsel araştırma ve matematik akıl yürütme için tasarlanmış, etkili hesaplama yetenekleri ve sonuç açıklamaları sunar."
},
"max-32k": {
"description": "Spark Max 32K, büyük bağlam işleme yeteneği ile donatılmıştır ve daha güçlü bağlam anlama ve mantıksal çıkarım yetenekleri sunmaktadır. 32K token'lık metin girişi desteklemekte olup, uzun belgelerin okunması, özel bilgi sorgulama gibi senaryolar için uygundur."
},
"meta-llama-3-70b-instruct": {
"description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir."
},
"pro-128k": {
"description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
},
"qwen-coder-turbo-latest": {
"description": "Tongyi Qianwen kodlama modeli."
},

View file

@ -184,5 +184,6 @@
"processing": "Đang xử lý tệp..."
}
}
}
},
"zenMode": "Chế độ tập trung"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) là một mô hình sáng tạo, phù hợp cho nhiều lĩnh vực ứng dụng và nhiệm vụ phức tạp."
},
"Max-32k": {
"description": "Spark Max 32K được cấu hình với khả năng xử lý ngữ cảnh lớn, khả năng hiểu ngữ cảnh và lý luận logic mạnh mẽ hơn, hỗ trợ đầu vào văn bản 32K token, phù hợp cho việc đọc tài liệu dài, hỏi đáp kiến thức riêng tư và các tình huống khác."
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc."
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision là phiên bản cập nhật của mô hình."
},
"Pro-128k": {
"description": "Spark Pro-128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 đã thể hiện hiệu suất xuất sắc trong nhiều tác vụ ngôn ngữ hình ảnh, bao gồm hiểu tài liệu và biểu đồ, hiểu văn bản trong cảnh, OCR, giải quyết vấn đề khoa học và toán học."
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội hơn các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí của mô hình tầm trung của chúng tôi."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội so với các mô hình đối thủ và Claude 3 Opus, thể hiện xuất sắc trong các đánh giá rộng rãi, đồng thời có tốc độ và chi phí tương đương với các mô hình tầm trung của chúng tôi."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku là mô hình nhanh nhất và gọn nhẹ nhất của Anthropic, cung cấp tốc độ phản hồi gần như ngay lập tức. Nó có thể nhanh chóng trả lời các truy vấn và yêu cầu đơn giản. Khách hàng sẽ có thể xây dựng trải nghiệm AI liền mạch mô phỏng tương tác của con người. Claude 3 Haiku có thể xử lý hình ảnh và trả về đầu ra văn bản, với cửa sổ ngữ cảnh 200K."
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ nhỏ đến xử lý dữ liệu phức tạp."
},
"general": {
"description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh giúp nó thể hiện xuất sắc trong các ứng dụng suy luận trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
},
"generalv3": {
"description": "Spark Pro là một mô hình ngôn ngữ lớn hiệu suất cao được tối ưu hóa cho các lĩnh vực chuyên môn, tập trung vào toán học, lập trình, y tế, giáo dục và nhiều lĩnh vực khác, đồng thời hỗ trợ tìm kiếm trực tuyến và các plugin tích hợp như thời tiết, ngày tháng. Mô hình đã được tối ưu hóa thể hiện xuất sắc và hiệu suất cao trong các nhiệm vụ hỏi đáp kiến thức phức tạp, hiểu ngôn ngữ và sáng tạo văn bản cấp cao, là lựa chọn lý tưởng cho các tình huống ứng dụng chuyên nghiệp."
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh của nó giúp nó nổi bật trong các ứng dụng suy diễn trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
},
"llama-3.1-70b-instruct": {
"description": "Mô hình Llama 3.1 70B Instruct, có 70B tham số, có thể cung cấp hiệu suất xuất sắc trong các nhiệm vụ sinh văn bản và chỉ dẫn lớn."
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral được thiết kế cho nghiên cứu khoa học và suy luận toán học, cung cấp khả năng tính toán hiệu quả và giải thích kết quả."
},
"max-32k": {
"description": "Spark Max 32K được cấu hình với khả năng xử lý ngữ cảnh lớn, có khả năng hiểu ngữ cảnh và suy luận logic mạnh mẽ hơn, hỗ trợ đầu vào văn bản 32K tokens, phù hợp cho việc đọc tài liệu dài, hỏi đáp kiến thức riêng tư và các tình huống khác."
},
"meta-llama-3-70b-instruct": {
"description": "Mô hình 70 tỷ tham số mạnh mẽ, xuất sắc trong lý luận, lập trình và các ứng dụng ngôn ngữ rộng lớn."
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Mô hình Pixtral thể hiện khả năng mạnh mẽ trong các nhiệm vụ như hiểu biểu đồ và hình ảnh, hỏi đáp tài liệu, suy luận đa phương tiện và tuân thủ hướng dẫn, có khả năng tiếp nhận hình ảnh với độ phân giải và tỷ lệ khung hình tự nhiên, cũng như xử lý bất kỳ số lượng hình ảnh nào trong cửa sổ ngữ cảnh dài lên đến 128K token."
},
"pro-128k": {
"description": "Spark Pro 128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
},
"qwen-coder-turbo-latest": {
"description": "Mô hình mã Qwen."
},

View file

@ -184,5 +184,6 @@
"processing": "文件处理中..."
}
}
}
},
"zenMode": "专注模式"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。"
},
"Max-32k": {
"description": "Spark Max 32K 配置了大上下文处理能力更强的上下文理解和逻辑推理能力支持32K tokens的文本输入适用于长文档阅读、私有知识问答等场景"
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。"
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision模型的更新版。"
},
"Pro-128k": {
"description": "Spark Pro 128K 配置了特大上下文处理能力能够处理多达128K的上下文信息特别适合需通篇分析和长期逻辑关联处理的长文内容可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2在各种视觉语言任务上展现出了卓越的性能包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。"
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus在广泛的评估中表现出色同时具有我们中等层级模型的速度和成本。"
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus在广泛的评估中表现出色同时具有我们中等层级模型的速度和成本。"
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku 是 Anthropic 最快、最紧凑的模型,提供近乎即时的响应速度。它可以快速回答简单的查询和请求。客户将能够构建模仿人类互动的无缝 AI 体验。Claude 3 Haiku 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
},
"general": {
"description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
},
"generalv3": {
"description": "Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。"
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct 模型具备70B参数能在大型文本生成和指示任务中提供卓越性能。"
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。"
},
"max-32k": {
"description": "Spark Max 32K 配置了大上下文处理能力更强的上下文理解和逻辑推理能力支持32K tokens的文本输入适用于长文档阅读、私有知识问答等场景"
},
"meta-llama-3-70b-instruct": {
"description": "一个强大的700亿参数模型在推理、编码和广泛的语言应用方面表现出色。"
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力,能够以自然分辨率和宽高比摄入图像,还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。"
},
"pro-128k": {
"description": "Spark Pro 128K 配置了特大上下文处理能力能够处理多达128K的上下文信息特别适合需通篇分析和长期逻辑关联处理的长文内容可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
},
"qwen-coder-turbo-latest": {
"description": "通义千问代码模型。"
},

View file

@ -184,5 +184,6 @@
"processing": "檔案處理中..."
}
}
}
},
"zenMode": "專注模式"
}

View file

@ -68,9 +68,6 @@
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) 是一種創新模型,適合多領域應用和複雜任務。"
},
"Max-32k": {
"description": "Spark Max 32K 配備了更強大的上下文處理能力具備更佳的上下文理解和邏輯推理能力支持32K tokens的文本輸入適用於長文檔閱讀、私有知識問答等場景"
},
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO 是一款高度靈活的多模型合併,旨在提供卓越的創造性體驗。"
},
@ -110,9 +107,6 @@
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision模型的更新版。"
},
"Pro-128k": {
"description": "Spark Pro-128K 配置了特大上下文處理能力能夠處理多達128K的上下文信息特別適合需通篇分析和長期邏輯關聯處理的長文內容可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。"
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2在各種視覺語言任務上展現出了卓越的性能包括文檔和圖表理解、場景文本理解、OCR、科學和數學問題解決等。"
},
@ -278,6 +272,9 @@
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet提升了行業標準性能超過競爭對手模型和Claude 3 Opus在廣泛的評估中表現出色同時具有我們中等層級模型的速度和成本。"
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet 提升了行業標準,性能超越競爭對手模型和 Claude 3 Opus在廣泛的評估中表現出色同時具備我們中等層級模型的速度和成本。"
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku是Anthropic最快、最緊湊的模型提供近乎即時的響應速度。它可以快速回答簡單的查詢和請求。客戶將能夠構建模仿人類互動的無縫AI體驗。Claude 3 Haiku可以處理圖像並返回文本輸出具有200K的上下文窗口。"
},
@ -467,9 +464,6 @@
"gemma2:2b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"general": {
"description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。"
},
"generalv3": {
"description": "Spark Pro 是一款為專業領域優化的高性能大語言模型,專注數學、編程、醫療、教育等多個領域,並支持聯網搜索及內置天氣、日期等插件。其優化後模型在複雜知識問答、語言理解及高層次文本創作中展現出色表現和高效性能,是適合專業應用場景的理想選擇。"
},
@ -625,6 +619,9 @@
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"lite": {
"description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。"
},
"llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct 模型,具備 70B 參數,能在大型文本生成和指示任務中提供卓越性能。"
},
@ -700,6 +697,9 @@
"mathstral": {
"description": "MathΣtral 專為科學研究和數學推理設計,提供有效的計算能力和結果解釋。"
},
"max-32k": {
"description": "Spark Max 32K 配置了大上下文處理能力更強的上下文理解和邏輯推理能力支持32K tokens的文本輸入適用於長文檔閱讀、私有知識問答等場景。"
},
"meta-llama-3-70b-instruct": {
"description": "一個強大的70億參數模型在推理、編碼和廣泛的語言應用中表現出色。"
},
@ -940,6 +940,9 @@
"pixtral-12b-2409": {
"description": "Pixtral模型在圖表和圖理解、文檔問答、多模態推理和指令遵循等任務上表現出強大的能力能夠以自然分辨率和寬高比攝入圖像還能夠在長達128K令牌的長上下文窗口中處理任意數量的圖像。"
},
"pro-128k": {
"description": "Spark Pro 128K 配置了特大上下文處理能力能夠處理多達128K的上下文信息特別適合需通篇分析和長期邏輯關聯處理的長文內容可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。"
},
"qwen-coder-turbo-latest": {
"description": "通義千問代碼模型。"
},

View file

@ -4,6 +4,8 @@ import { SideNav } from '@lobehub/ui';
import { memo } from 'react';
import { useActiveTabKey } from '@/hooks/useActiveTabKey';
import { useGlobalStore } from '@/store/global';
import { systemStatusSelectors } from '@/store/global/selectors';
import Avatar from './Avatar';
import BottomActions from './BottomActions';
@ -11,13 +13,17 @@ import TopActions from './TopActions';
const Nav = memo(() => {
const sidebarKey = useActiveTabKey();
const inZenMode = useGlobalStore(systemStatusSelectors.inZenMode);
return (
<SideNav
avatar={<Avatar />}
bottomActions={<BottomActions />}
style={{ height: '100%', zIndex: 100 }}
topActions={<TopActions tab={sidebarKey} />}
/>
!inZenMode && (
<SideNav
avatar={<Avatar />}
bottomActions={<BottomActions />}
style={{ height: '100%', zIndex: 100 }}
topActions={<TopActions tab={sidebarKey} />}
/>
)
);
});

View file

@ -4,6 +4,7 @@ import { isMobileDevice } from '@/utils/server/responsive';
import ChatHydration from './features/ChatHydration';
import DesktopChatInput from './features/ChatInput/Desktop';
import MobileChatInput from './features/ChatInput/Mobile';
import ZenModeToast from './features/ZenModeToast';
const ChatConversation = () => {
const mobile = isMobileDevice();
@ -11,6 +12,7 @@ const ChatConversation = () => {
return (
<>
<ZenModeToast />
<Conversation mobile={mobile} />
<ChatInput />
<ChatHydration />

View file

@ -0,0 +1,87 @@
'use client';
import { createStyles } from 'antd-style';
import { useEffect, useState } from 'react';
import { useTranslation } from 'react-i18next';
import { Flexbox } from 'react-layout-kit';
import HotKeys from '@/components/HotKeys';
import { HOTKEYS } from '@/const/hotkeys';
const useStyles = createStyles(({ css, token }) => ({
closeButton: css`
color: ${token.colorTextSecondary};
transition: color 0.2s;
&:hover {
color: ${token.colorTextQuaternary};
}
`,
container: css`
position: fixed;
z-index: 50;
inset-block-start: 16px;
inset-inline-start: 50%;
transform: translateX(-50%);
animation: fade-in-slide-down 300ms ease;
@keyframes fade-in-slide-down {
from {
transform: translate(-50%, -16px);
opacity: 0;
}
to {
transform: translate(-50%, 0);
opacity: 1;
}
}
`,
text: css`
font-size: ${token.fontSizeLG}px;
color: ${token.colorBgBase};
`,
toast: css`
display: flex;
align-items: center;
padding-block: 12px;
padding-inline: 16px;
background: ${token.colorText};
border-radius: 9999px;
box-shadow: ${token.boxShadowSecondary};
`,
}));
const Toast = () => {
const { t } = useTranslation('chat');
const { styles } = useStyles();
const [isVisible, setIsVisible] = useState(true);
useEffect(() => {
const timer = setTimeout(() => {
setIsVisible(false);
}, 2000);
return () => clearTimeout(timer);
}, []);
if (!isVisible) return null;
return (
<div className={styles.container}>
<div className={styles.toast}>
<Flexbox className={styles.text} gap={12} horizontal>
{t('zenMode')} <HotKeys inverseTheme keys={HOTKEYS.zenMode} />
</Flexbox>
</div>
</div>
);
};
export default Toast;

View file

@ -0,0 +1,16 @@
'use client';
import { memo } from 'react';
import { useGlobalStore } from '@/store/global';
import { systemStatusSelectors } from '@/store/global/selectors';
import Toast from './Toast';
const ZenModeToast = memo(() => {
const inZenMode = useGlobalStore(systemStatusSelectors.inZenMode);
return inZenMode && <Toast />;
});
export default ZenModeToast;

View file

@ -1,14 +1,25 @@
'use client';
import { ChatHeader } from '@lobehub/ui';
import { useGlobalStore } from '@/store/global';
import { systemStatusSelectors } from '@/store/global/selectors';
import HeaderAction from './HeaderAction';
import Main from './Main';
const Header = () => (
<ChatHeader
left={<Main />}
right={<HeaderAction />}
style={{ minHeight: 64, position: 'initial', zIndex: 11 }}
/>
);
const Header = () => {
const showHeader = useGlobalStore(systemStatusSelectors.showChatHeader);
return (
showHeader && (
<ChatHeader
left={<Main />}
right={<HeaderAction />}
style={{ minHeight: 64, position: 'initial', zIndex: 11 }}
/>
)
);
};
export default Header;

View file

@ -4,14 +4,13 @@ import isEqual from 'fast-deep-equal';
import { useCallback } from 'react';
import { useHotkeys } from 'react-hotkeys-hook';
import { ALT_KEY, CLEAN_MESSAGE_KEY, META_KEY, REGENERATE_KEY } from '@/const/hotkeys';
import { HOTKEYS } from '@/const/hotkeys';
import { useChatStore } from '@/store/chat';
import { chatSelectors } from '@/store/chat/selectors';
import { useFileStore } from '@/store/file';
import { useGlobalStore } from '@/store/global';
const HotKeys = () => {
const resendHotkeys = [ALT_KEY, REGENERATE_KEY].join('+');
const [regenerateMessage, clearMessage] = useChatStore((s) => [
s.regenerateMessage,
s.clearMessage,
@ -19,20 +18,25 @@ const HotKeys = () => {
const lastMessage = useChatStore(chatSelectors.latestMessage, isEqual);
const [clearImageList] = useFileStore((s) => [s.clearChatUploadFileList]);
const clearHotkeys = [META_KEY, ALT_KEY, CLEAN_MESSAGE_KEY].join('+');
const toggleZenMode = useGlobalStore((s) => s.toggleZenMode);
const resetConversation = useCallback(() => {
clearMessage();
clearImageList();
}, []);
useHotkeys(clearHotkeys, resetConversation, {
useHotkeys(HOTKEYS.clear, resetConversation, {
enableOnFormTags: true,
preventDefault: true,
});
useHotkeys(HOTKEYS.zenMode, toggleZenMode, {
enableOnFormTags: true,
preventDefault: true,
});
useHotkeys(
resendHotkeys,
HOTKEYS.regenerate,
() => {
if (!lastMessage || lastMessage.id === 'default' || lastMessage.role === 'system') return;
regenerateMessage(lastMessage.id);

View file

@ -29,16 +29,16 @@ const useStyles = createStyles(({ css, token }) => ({
const TopicPanel = memo(({ children }: PropsWithChildren) => {
const { styles } = useStyles();
const { md = true, lg = true } = useResponsive();
const [showAgentSettings, toggleConfig] = useGlobalStore((s) => [
const [showTopic, toggleConfig] = useGlobalStore((s) => [
systemStatusSelectors.showChatSideBar(s),
s.toggleChatSideBar,
]);
const showPortal = useChatStore(chatPortalSelectors.showPortal);
const [cacheExpand, setCacheExpand] = useState<boolean>(Boolean(showAgentSettings));
const [cacheExpand, setCacheExpand] = useState<boolean>(Boolean(showTopic));
const handleExpand = (expand: boolean) => {
if (isEqual(expand, Boolean(showAgentSettings))) return;
if (isEqual(expand, Boolean(showTopic))) return;
toggleConfig(expand);
setCacheExpand(expand);
};
@ -55,7 +55,7 @@ const TopicPanel = memo(({ children }: PropsWithChildren) => {
classNames={{
content: styles.content,
}}
expand={showAgentSettings}
expand={showTopic}
minWidth={CHAT_SIDEBAR_WIDTH}
mode={md ? 'fixed' : 'float'}
onExpandChange={handleExpand}

View file

@ -10,7 +10,7 @@ const Layout = ({ children, session }: LayoutProps) => {
<Flexbox
height={'100%'}
horizontal
style={{ maxWidth: 'calc(100vw - 64px)', overflow: 'hidden', position: 'relative' }}
style={{ maxWidth: '100%', overflow: 'hidden', position: 'relative' }}
width={'100%'}
>
<SessionPanel>{session}</SessionPanel>

View file

@ -2,4 +2,10 @@ export const ALT_KEY = 'alt';
export const META_KEY = 'mod';
export const SAVE_TOPIC_KEY = 'n';
export const CLEAN_MESSAGE_KEY = 'backspace';
export const REGENERATE_KEY = 'r';
export const HOTKEYS = {
clear: 'mod+alt+backspace',
regenerate: 'alt+r',
saveTopic: 'alt+n',
zenMode: 'mod+\\',
};

View file

@ -188,4 +188,5 @@ export default {
},
},
},
zenMode: '专注模式',
};

View file

@ -42,6 +42,22 @@ describe('createPreferenceSlice', () => {
expect(result.current.status.showChatSideBar).toBe(true);
});
it('should set chat sidebar to specified value', () => {
const { result } = renderHook(() => useGlobalStore());
act(() => {
useGlobalStore.setState({ isStatusInit: true });
result.current.toggleChatSideBar(true);
});
expect(result.current.status.showChatSideBar).toBe(true);
act(() => {
result.current.toggleChatSideBar(false);
});
expect(result.current.status.showChatSideBar).toBe(false);
});
});
describe('toggleExpandSessionGroup', () => {
@ -56,6 +72,120 @@ describe('createPreferenceSlice', () => {
expect(result.current.status.expandSessionGroupKeys).toContain(groupId);
});
const groupId = 'group-id';
const anotherGroupId = 'another-group-id';
beforeEach(() => {
// 确保每个测试前状态都是已初始化的
useGlobalStore.setState({ isStatusInit: true });
});
it('should add group id when expanding and id not exists', () => {
const { result } = renderHook(() => useGlobalStore());
act(() => {
result.current.toggleExpandSessionGroup(groupId, true);
});
expect(result.current.status.expandSessionGroupKeys).toEqual(['pinned', 'default', groupId]);
});
it('should not add duplicate group id when expanding', () => {
const { result } = renderHook(() => useGlobalStore());
act(() => {
// 先添加一个组
result.current.toggleExpandSessionGroup(groupId, true);
// 再次尝试添加同一个组
result.current.toggleExpandSessionGroup(groupId, true);
});
// 确保数组中只有一个实例
expect(result.current.status.expandSessionGroupKeys).toEqual(['pinned', 'default', groupId]);
});
it('should remove group id when collapsing', () => {
const { result } = renderHook(() => useGlobalStore());
act(() => {
// 先设置初始状态为展开
result.current.toggleExpandSessionGroup(groupId, true);
result.current.toggleExpandSessionGroup(anotherGroupId, true);
// 验证初始状态
// 收起第一个组
result.current.toggleExpandSessionGroup(groupId, false);
});
// 验证只移除了指定的组
expect(result.current.status.expandSessionGroupKeys).toEqual([
'pinned',
'default',
anotherGroupId,
]);
});
it('should do nothing when collapsing non-existent group', () => {
const { result } = renderHook(() => useGlobalStore());
act(() => {
// 先添加一个组
result.current.toggleExpandSessionGroup(groupId, true);
// 尝试收起一个不存在的组
result.current.toggleExpandSessionGroup('non-existent-id', false);
});
// 验证原有的组没有受影响
expect(result.current.status.expandSessionGroupKeys).toEqual(['pinned', 'default', groupId]);
});
it('should handle multiple groups correctly', () => {
const { result } = renderHook(() => useGlobalStore());
act(() => {
// 添加多个组
result.current.toggleExpandSessionGroup(groupId, true);
result.current.toggleExpandSessionGroup(anotherGroupId, true);
result.current.toggleExpandSessionGroup('third-group', true);
});
expect(result.current.status.expandSessionGroupKeys).toEqual([
'pinned',
'default',
groupId,
anotherGroupId,
'third-group',
]);
act(() => {
// 收起中间的组
result.current.toggleExpandSessionGroup(anotherGroupId, false);
});
expect(result.current.status.expandSessionGroupKeys).toEqual([
'pinned',
'default',
groupId,
'third-group',
]);
});
it('should save to localStorage when groups are toggled', () => {
const { result } = renderHook(() => useGlobalStore());
const saveToLocalStorageSpy = vi.spyOn(result.current.statusStorage, 'saveToLocalStorage');
act(() => {
result.current.toggleExpandSessionGroup(groupId, true);
});
expect(saveToLocalStorageSpy).toHaveBeenCalledWith(
expect.objectContaining({
expandSessionGroupKeys: ['pinned', 'default', groupId],
}),
);
});
});
describe('toggleMobileTopic', () => {
@ -84,6 +214,28 @@ describe('createPreferenceSlice', () => {
});
});
describe('toggleZenMode', () => {
it('should toggle zen mode', () => {
const { result } = renderHook(() => useGlobalStore());
act(() => {
useGlobalStore.setState({ isStatusInit: true });
// 初始值应该是 false
expect(result.current.status.zenMode).toBe(false);
result.current.toggleZenMode();
});
expect(result.current.status.zenMode).toBe(true);
act(() => {
result.current.toggleZenMode();
});
expect(result.current.status.zenMode).toBe(false);
});
});
describe('toggleSystemRole', () => {
it('should toggle system role', () => {
const { result } = renderHook(() => useGlobalStore());
@ -210,6 +362,16 @@ describe('createPreferenceSlice', () => {
expect(useGlobalStore.getState().hasNewVersion).toBeUndefined();
expect(useGlobalStore.getState().latestVersion).toBeUndefined();
});
it('should not fetch version when check is disabled', () => {
const getLatestVersionSpy = vi.spyOn(globalService, 'getLatestVersion');
renderHook(() => useGlobalStore().useCheckLatestVersion(false), {
wrapper: withSWR,
});
expect(getLatestVersionSpy).not.toHaveBeenCalled();
});
});
describe('useInitGlobalPreference', () => {

View file

@ -27,6 +27,7 @@ export interface GlobalStoreAction {
toggleMobilePortal: (visible?: boolean) => void;
toggleMobileTopic: (visible?: boolean) => void;
toggleSystemRole: (visible?: boolean) => void;
toggleZenMode: () => void;
updateSystemStatus: (status: Partial<SystemStatus>, action?: any) => void;
useCheckLatestVersion: (enabledCheck?: boolean) => SWRResponse<string>;
useInitSystemStatus: () => SWRResponse;
@ -77,6 +78,12 @@ export const globalActionSlice: StateCreator<
get().updateSystemStatus({ showSystemRole }, n('toggleMobileTopic', newValue));
},
toggleZenMode: () => {
const { status } = get();
const nextZenMode = !status.zenMode;
get().updateSystemStatus({ zenMode: nextZenMode }, n('toggleZenMode'));
},
updateSystemStatus: (status, action) => {
// Status cannot be modified when it is not initialized
if (!get().isStatusInit) return;

View file

@ -43,6 +43,7 @@ export interface SystemStatus {
showFilePanel?: boolean;
showSessionPanel?: boolean;
showSystemRole?: boolean;
zenMode?: boolean;
}
export interface GlobalState {
@ -67,6 +68,7 @@ export const INITIAL_STATUS = {
showFilePanel: true,
showSessionPanel: true,
showSystemRole: false,
zenMode: false,
} satisfies SystemStatus;
export const initialState: GlobalState = {

View file

@ -8,11 +8,13 @@ const sessionGroupKeys = (s: GlobalStore): string[] =>
const showSystemRole = (s: GlobalStore) => s.status.showSystemRole;
const mobileShowTopic = (s: GlobalStore) => s.status.mobileShowTopic;
const mobileShowPortal = (s: GlobalStore) => s.status.mobileShowPortal;
const showChatSideBar = (s: GlobalStore) => s.status.showChatSideBar;
const showSessionPanel = (s: GlobalStore) => s.status.showSessionPanel;
const showChatSideBar = (s: GlobalStore) => !s.status.zenMode && s.status.showChatSideBar;
const showSessionPanel = (s: GlobalStore) => !s.status.zenMode && s.status.showSessionPanel;
const showFilePanel = (s: GlobalStore) => s.status.showFilePanel;
const hidePWAInstaller = (s: GlobalStore) => s.status.hidePWAInstaller;
const showChatHeader = (s: GlobalStore) => !s.status.zenMode;
const inZenMode = (s: GlobalStore) => s.status.zenMode;
const sessionWidth = (s: GlobalStore) => s.status.sessionsWidth;
const filePanelWidth = (s: GlobalStore) => s.status.filePanelWidth;
const inputHeight = (s: GlobalStore) => s.status.inputHeight;
@ -20,11 +22,13 @@ const inputHeight = (s: GlobalStore) => s.status.inputHeight;
export const systemStatusSelectors = {
filePanelWidth,
hidePWAInstaller,
inZenMode,
inputHeight,
mobileShowPortal,
mobileShowTopic,
sessionGroupKeys,
sessionWidth,
showChatHeader,
showChatSideBar,
showFilePanel,
showSessionPanel,