From d8deaddeddc63298371c9ad146e8d95f504b59c8 Mon Sep 17 00:00:00 2001 From: Arvin Xu Date: Sat, 3 Jan 2026 16:22:22 +0800 Subject: [PATCH] =?UTF-8?q?=E2=9C=A8=20feat:=20add=20work=20path=20for=20l?= =?UTF-8?q?ocal=20system=20(#11128)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit * ✨ feat: support to show working dir * fix style * update docs * update topic * refactor to use chat config * inject working Directory * update i18n * fix tests --- .../desktop/src/main/controllers/SystemCtr.ts | 25 ++- drizzle.config.ts | 10 +- locales/ar/models.json | 1 + locales/ar/plugin.json | 10 + locales/bg-BG/models.json | 28 +++ locales/bg-BG/plugin.json | 10 + locales/de-DE/models.json | 29 +++ locales/de-DE/plugin.json | 10 + locales/en-US/plugin.json | 10 + locales/es-ES/models.json | 31 ++++ locales/es-ES/plugin.json | 10 + locales/fa-IR/models.json | 41 +++++ locales/fa-IR/plugin.json | 10 + locales/fr-FR/models.json | 46 +++++ locales/fr-FR/plugin.json | 10 + locales/it-IT/models.json | 42 +++++ locales/it-IT/plugin.json | 10 + locales/ja-JP/models.json | 1 + locales/ja-JP/plugin.json | 10 + locales/ko-KR/models.json | 33 +++- locales/ko-KR/plugin.json | 10 + locales/nl-NL/models.json | 48 +++++ locales/nl-NL/plugin.json | 10 + locales/pl-PL/models.json | 32 ++++ locales/pl-PL/plugin.json | 10 + locales/pt-BR/models.json | 47 +++++ locales/pt-BR/plugin.json | 10 + locales/ru-RU/models.json | 49 +++++ locales/ru-RU/plugin.json | 10 + locales/tr-TR/models.json | 28 +++ locales/tr-TR/plugin.json | 10 + locales/vi-VN/models.json | 36 ++++ locales/vi-VN/plugin.json | 10 + locales/zh-CN/models.json | 1 + locales/zh-CN/plugin.json | 10 + locales/zh-TW/models.json | 32 ++++ locales/zh-TW/plugin.json | 10 + .../src/systemRole.ts | 7 +- .../__tests__/topics/topic.update.test.ts | 71 +++++++ packages/database/src/models/topic.ts | 25 ++- packages/database/src/schemas/agent.ts | 6 +- packages/types/src/agent/agentConfig.ts | 22 +++ packages/types/src/agent/chatConfig.ts | 13 ++ packages/types/src/agent/index.ts | 1 + packages/types/src/topic/topic.ts | 5 + packages/utils/src/client/index.ts | 1 - .../Header/HeaderActions/index.tsx | 33 ++++ .../Header/HeaderActions/useMenu.tsx | 42 +++++ .../WorkingDirectoryContent.tsx | 174 ++++++++++++++++++ .../Header/WorkingDirectory/index.tsx | 115 ++++++++++++ .../features/Conversation/Header/index.tsx | 8 +- .../MentionList/useMentionItems.tsx | 2 +- .../MentionList/useMentionItems.tsx | 2 +- .../helpers}/GlobalAgentContextManager.ts | 0 .../helpers/parserPlaceholder/index.test.ts | 42 ++++- .../helpers/parserPlaceholder/index.ts | 19 +- src/locales/default/plugin.ts | 12 ++ src/server/routers/lambda/topic.ts | 21 ++- .../chat/mecha/contextEngineering.test.ts | 2 +- src/services/chat/mecha/contextEngineering.ts | 2 +- src/services/electron/system.ts | 30 ++- src/services/topic/index.ts | 7 + .../agent/selectors/agentByIdSelectors.ts | 49 ++++- src/store/agent/selectors/selectors.ts | 41 +++++ src/store/agent/slices/agent/action.ts | 16 +- src/store/chat/slices/topic/action.ts | 27 ++- src/store/chat/slices/topic/selectors.ts | 10 + src/store/electron/actions/app.ts | 2 +- 68 files changed, 1504 insertions(+), 43 deletions(-) create mode 100644 packages/types/src/agent/agentConfig.ts create mode 100644 src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/index.tsx create mode 100644 src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/useMenu.tsx create mode 100644 src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/WorkingDirectoryContent.tsx create mode 100644 src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/index.tsx rename {packages/utils/src/client => src/helpers}/GlobalAgentContextManager.ts (100%) rename packages/utils/src/client/parserPlaceholder.test.ts => src/helpers/parserPlaceholder/index.test.ts (89%) rename packages/utils/src/client/parserPlaceholder.ts => src/helpers/parserPlaceholder/index.ts (90%) diff --git a/apps/desktop/src/main/controllers/SystemCtr.ts b/apps/desktop/src/main/controllers/SystemCtr.ts index 257e4b15c8..640d34e3a1 100644 --- a/apps/desktop/src/main/controllers/SystemCtr.ts +++ b/apps/desktop/src/main/controllers/SystemCtr.ts @@ -1,5 +1,5 @@ import { ElectronAppState, ThemeMode } from '@lobechat/electron-client-ipc'; -import { app, nativeTheme, shell, systemPreferences } from 'electron'; +import { app, dialog, nativeTheme, shell, systemPreferences } from 'electron'; import { macOS } from 'electron-is'; import { spawn } from 'node:child_process'; import path from 'node:path'; @@ -194,6 +194,29 @@ export default class SystemController extends ControllerModule { return shell.openExternal(url); } + /** + * Open native folder picker dialog + */ + @IpcMethod() + async selectFolder(payload?: { + defaultPath?: string; + title?: string; + }): Promise { + const mainWindow = this.app.browserManager.getMainWindow()?.browserWindow; + + const result = await dialog.showOpenDialog(mainWindow!, { + defaultPath: payload?.defaultPath, + properties: ['openDirectory', 'createDirectory'], + title: payload?.title || 'Select Folder', + }); + + if (result.canceled || result.filePaths.length === 0) { + return undefined; + } + + return result.filePaths[0]; + } + /** * 更新应用语言设置 */ diff --git a/drizzle.config.ts b/drizzle.config.ts index d47ed2f711..77b594f058 100644 --- a/drizzle.config.ts +++ b/drizzle.config.ts @@ -7,15 +7,7 @@ import type { Config } from 'drizzle-kit'; dotenv.config(); -let connectionString = process.env.DATABASE_URL; - -if (process.env.NODE_ENV === 'test') { - console.log('current ENV:', process.env.NODE_ENV); - connectionString = process.env.DATABASE_TEST_URL; -} - -if (!connectionString) - throw new Error('`DATABASE_URL` or `DATABASE_TEST_URL` not found in environment'); +let connectionString = process.env.DATABASE_URL!; export default { dbCredentials: { diff --git a/locales/ar/models.json b/locales/ar/models.json index 78ac1d4e53..6afb4f6311 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -413,6 +413,7 @@ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B هو نسخة مكررة من Llama-3.3-70B-Instruct. كجزء من سلسلة DeepSeek-R1، تم تحسينه باستخدام عينات تم إنشاؤها بواسطة DeepSeek-R1 ويؤدي أداءً قويًا في الرياضيات، البرمجة، والتفكير.", "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B هو نسخة مكررة من Qwen2.5-14B وتم تحسينه باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويقدم استدلالًا قويًا.", "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B هو نسخة مكررة من Qwen2.5-32B وتم تحسينه باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويتفوق في الرياضيات، البرمجة، والتفكير.", + "devstral-2:123b.description": "Devstral 2 123B يتفوق في استخدام الأدوات لاستكشاف قواعد الشيفرة، وتحرير ملفات متعددة، ودعم وكلاء هندسة البرمجيات.", "meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.", "meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.", "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.", diff --git a/locales/ar/plugin.json b/locales/ar/plugin.json index f81560c58f..cc2a51b41f 100644 --- a/locales/ar/plugin.json +++ b/locales/ar/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "مخصص", "loading.content": "جارٍ استدعاء المهارة…", "loading.plugin": "المهارة قيد التشغيل…", + "localSystem.workingDirectory.agentDescription": "دليل العمل الافتراضي لجميع المحادثات مع هذا الوكيل", + "localSystem.workingDirectory.agentLevel": "دليل عمل الوكيل", + "localSystem.workingDirectory.current": "دليل العمل الحالي", + "localSystem.workingDirectory.notSet": "انقر لتعيين دليل العمل", + "localSystem.workingDirectory.placeholder": "أدخل مسار الدليل، مثل /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "اختر مجلدًا", + "localSystem.workingDirectory.title": "دليل العمل", + "localSystem.workingDirectory.topicDescription": "تجاوز الإعداد الافتراضي للوكيل لهذه المحادثة فقط", + "localSystem.workingDirectory.topicLevel": "تجاوز المحادثة", + "localSystem.workingDirectory.topicOverride": "تجاوز لهذه المحادثة", "mcpEmpty.deployment": "لا توجد خيارات نشر", "mcpEmpty.prompts": "لا توجد مطالبات", "mcpEmpty.resources": "لا توجد موارد", diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index dfe579228a..66643b6113 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -320,6 +320,34 @@ "comfyui/stable-diffusion-custom.description": "Персонализиран SD модел за преобразуване на текст в изображение. Използвайте custom_sd_lobe.safetensors като име на файл; ако имате VAE, използвайте custom_sd_vae_lobe.safetensors. Поставете файловете в съответните папки на Comfy.", "comfyui/stable-diffusion-refiner.description": "SDXL модел за преобразуване на изображение в изображение, който извършва висококачествени трансформации от входни изображения, поддържайки трансфер на стил, възстановяване и творчески вариации.", "comfyui/stable-diffusion-xl.description": "SDXL е модел за преобразуване на текст в изображение, поддържащ висока резолюция 1024x1024 с по-добро качество и детайлност на изображенията.", + "command-a-03-2025.description": "Command A е най-способният ни модел досега, отличаващ се в използването на инструменти, агенти, RAG и многоезични сценарии. Разполага с контекстен прозорец от 256K, работи само с два GPU и осигурява 150% по-висока пропускателна способност от Command R+ 08-2024.", + "command-light-nightly.description": "За да съкратим времето между основните версии, предлагаме нощни билдове на Command. За серията command-light това е command-light-nightly. Това е най-новата, най-експериментална (и потенциално нестабилна) версия, която се обновява редовно без предизвестие, затова не се препоръчва за продукционна употреба.", + "command-light.description": "По-малък и по-бърз вариант на Command, който е почти толкова способен, но с по-висока скорост.", + "command-nightly.description": "За да съкратим времето между основните версии, предлагаме нощни билдове на Command. За серията Command това е command-nightly. Това е най-новата, най-експериментална (и потенциално нестабилна) версия, която се обновява редовно без предизвестие, затова не се препоръчва за продукционна употреба.", + "command-r-03-2024.description": "Command R е чат модел, следващ инструкции, с по-високо качество, по-голяма надеждност и по-дълъг контекстен прозорец от предишните модели. Поддържа сложни работни потоци като генериране на код, RAG, използване на инструменти и агенти.", + "command-r-08-2024.description": "command-r-08-2024 е обновен модел Command R, пуснат през август 2024 г.", + "command-r-plus-04-2024.description": "command-r-plus е псевдоним на command-r-plus-04-2024, така че използването на command-r-plus в API-то сочи към този модел.", + "command-r-plus-08-2024.description": "Command R+ е чат модел, следващ инструкции, с по-високо качество, по-голяма надеждност и по-дълъг контекстен прозорец от предишните модели. Най-подходящ е за сложни RAG работни потоци и многоетапно използване на инструменти.", + "command-r-plus.description": "Command R+ е високопроизводителен LLM, създаден за реални бизнес сценарии и сложни приложения.", + "command-r.description": "Command R е LLM, оптимизиран за чат и задачи с дълъг контекст, идеален за динамично взаимодействие и управление на знания.", + "command-r7b-12-2024.description": "command-r7b-12-2024 е малка, ефективна актуализация, пусната през декември 2024 г. Отличава се в RAG, използване на инструменти и задачи с агенти, изискващи сложно, многоетапно разсъждение.", + "command.description": "Чат модел, следващ инструкции, който осигурява по-високо качество и надеждност при езикови задачи, с по-дълъг контекстен прозорец от базовите ни генеративни модели.", + "computer-use-preview.description": "computer-use-preview е специализиран модел за инструмента „computer use“, обучен да разбира и изпълнява задачи, свързани с компютри.", + "dall-e-2.description": "Второ поколение DALL·E модел с по-реалистично и точно генериране на изображения и 4× по-висока резолюция от първото поколение.", + "dall-e-3.description": "Най-новият модел DALL·E, пуснат през ноември 2023 г., поддържа по-реалистично и точно генериране на изображения с по-силни детайли.", + "databricks/dbrx-instruct.description": "DBRX Instruct предлага изключително надеждно следване на инструкции в различни индустрии.", + "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR е визионно-езиков модел от DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Изследва компресиране на контекст от изображения, ефективно обработва документи и ги преобразува в структуриран текст (напр. Markdown). Прецизно разпознава текст в изображения, подходящ за дигитализация на документи, извличане на текст и структурирана обработка.", + "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B дестилира chain-of-thought от DeepSeek-R1-0528 в Qwen3 8B Base. Постига SOTA сред отворените модели, надминавайки Qwen3 8B с 10% на AIME 2024 и съвпада с производителността на Qwen3-235B-thinking. Отличава се в математическо разсъждение, програмиране и логически тестове. Споделя архитектурата на Qwen3-8B, но използва токенизатора на DeepSeek-R1-0528.", + "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 използва допълнителни изчисления и алгоритмични оптимизации след обучение, за да задълбочи разсъждението. Представя се силно в бенчмаркове по математика, програмиране и логика, доближавайки се до водещи модели като o3 и Gemini 2.5 Pro.", + "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Дестилираните модели DeepSeek-R1 използват RL и cold-start данни за подобряване на разсъждението и поставят нови бенчмарк стандарти за отворени модели с много задачи.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Дестилираните модели DeepSeek-R1 използват RL и cold-start данни за подобряване на разсъждението и поставят нови бенчмарк стандарти за отворени модели с много задачи.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Дестилираните модели DeepSeek-R1 използват RL и cold-start данни за подобряване на разсъждението и поставят нови бенчмарк стандарти за отворени модели с много задачи.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B е дестилиран от Qwen2.5-32B и фино настроен върху 800K подбрани проби от DeepSeek-R1. Отличава се в математика, програмиране и разсъждение, постигайки силни резултати на AIME 2024, MATH-500 (94.3% точност) и GPQA Diamond.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B е дестилиран от Qwen2.5-Math-7B и фино настроен върху 800K подбрани проби от DeepSeek-R1. Представя се силно с 92.8% на MATH-500, 55.5% на AIME 2024 и рейтинг 1189 в CodeForces за 7B модел.", + "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 подобрява разсъждението с RL и cold-start данни, поставяйки нови бенчмарк стандарти за отворени модели с много задачи и надминава OpenAI-o1-mini.", + "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 надгражда DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, комбинирайки общи и кодови способности. Подобрява писането и следването на инструкции за по-добро съответствие с предпочитанията и показва значителни подобрения в AlpacaEval 2.0, ArenaHard, AlignBench и MT-Bench.", + "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus е обновен модел V3.1, позициониран като хибриден агентен LLM. Отстранява докладвани от потребители проблеми и подобрява стабилността, езиковата последователност и намалява смесените китайски/английски и аномални символи. Интегрира режими на мислене и немислене с шаблони за чат за гъвкаво превключване. Подобрява и производителността на Code Agent и Search Agent за по-надеждно използване на инструменти и многоетапни задачи.", + "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 използва хибридна архитектура за разсъждение и поддържа както мислещ, така и немислещ режим.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.", diff --git a/locales/bg-BG/plugin.json b/locales/bg-BG/plugin.json index 9b8725438c..dab26ea650 100644 --- a/locales/bg-BG/plugin.json +++ b/locales/bg-BG/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Потребителско", "loading.content": "Извикване на умение…", "loading.plugin": "Умението работи…", + "localSystem.workingDirectory.agentDescription": "По подразбиране работна директория за всички разговори с този агент", + "localSystem.workingDirectory.agentLevel": "Работна директория на агента", + "localSystem.workingDirectory.current": "Текуща работна директория", + "localSystem.workingDirectory.notSet": "Кликнете, за да зададете работна директория", + "localSystem.workingDirectory.placeholder": "Въведете път до директория, напр. /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "Изберете папка", + "localSystem.workingDirectory.title": "Работна директория", + "localSystem.workingDirectory.topicDescription": "Замени подразбираната директория на агента само за този разговор", + "localSystem.workingDirectory.topicLevel": "Замяна за конкретен разговор", + "localSystem.workingDirectory.topicOverride": "Замяна за този разговор", "mcpEmpty.deployment": "Няма опции за внедряване", "mcpEmpty.prompts": "Няма подсказки", "mcpEmpty.resources": "Няма ресурси", diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index b855e1520a..51f202cf3c 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -413,6 +413,35 @@ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B ist ein destilliertes Modell basierend auf Llama-3.3-70B-Instruct. Als Teil der DeepSeek-R1-Serie ist es mit DeepSeek-R1-generierten Beispielen feinabgestimmt und überzeugt in Mathematik, Programmierung und Argumentation.", "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B ist ein destilliertes Modell basierend auf Qwen2.5-14B und wurde mit 800.000 kuratierten Beispielen von DeepSeek-R1 trainiert. Es liefert starke Argumentationsleistung.", "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B ist ein destilliertes Modell basierend auf Qwen2.5-32B und wurde mit 800.000 kuratierten Beispielen von DeepSeek-R1 trainiert. Es überzeugt in Mathematik, Programmierung und Argumentation.", + "devstral-2:123b.description": "Devstral 2 123B ist besonders leistungsfähig beim Einsatz von Tools zur Erkundung von Codebasen, Bearbeitung mehrerer Dateien und zur Unterstützung softwaretechnischer Agenten.", + "doubao-1.5-lite-32k.description": "Doubao-1.5-lite ist ein neues, leichtgewichtiges Modell mit extrem schneller Reaktionszeit und bietet erstklassige Qualität bei minimaler Latenz.", + "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k ist ein umfassendes Upgrade von Doubao-1.5-Pro mit einer Leistungssteigerung von 10 %. Es unterstützt ein Kontextfenster von 256k und bis zu 12k Ausgabetokens und bietet damit höhere Leistung, ein größeres Kontextfenster und hohen Mehrwert für vielfältige Anwendungsfälle.", + "doubao-1.5-pro-32k.description": "Doubao-1.5-pro ist ein neues Flaggschiffmodell der nächsten Generation mit umfassenden Verbesserungen und überzeugt in den Bereichen Wissen, Programmierung und logisches Denken.", + "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 ist ein neues Modell für tiefes logisches Denken (die m-Version beinhaltet native multimodale Tiefenanalyse) und überzeugt in Mathematik, Programmierung, wissenschaftlichem Denken sowie allgemeinen Aufgaben wie kreativem Schreiben. Es erzielt Spitzenwerte in Benchmarks wie AIME 2024, Codeforces und GPQA. Unterstützt ein Kontextfenster von 128k und 16k Ausgabetokens.", + "doubao-1.5-thinking-pro.description": "Doubao-1.5 ist ein neues Modell für tiefes logisches Denken und überzeugt in Mathematik, Programmierung, wissenschaftlichem Denken sowie allgemeinen Aufgaben wie kreativem Schreiben. Es erzielt Spitzenwerte in Benchmarks wie AIME 2024, Codeforces und GPQA. Unterstützt ein Kontextfenster von 128k und 16k Ausgabetokens.", + "doubao-1.5-thinking-vision-pro.description": "Ein neues visuelles Modell für tiefes logisches Denken mit verbesserter multimodaler Analyse und Schlussfolgerung, das in 37 von 59 öffentlichen Benchmarks SOTA-Ergebnisse erzielt.", + "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS ist ein nativ auf grafische Benutzeroberflächen fokussiertes Agentenmodell, das durch menschenähnliche Wahrnehmung, Schlussfolgerung und Handlung nahtlos mit Benutzeroberflächen interagiert.", + "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen. Unterstützt ein Kontextfenster von 128k und bis zu 16k Ausgabetokens.", + "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen.", + "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen.", + "doubao-lite-128k.description": "Extrem schnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 128k.", + "doubao-lite-32k.description": "Extrem schnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 32k.", + "doubao-lite-4k.description": "Extrem schnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 4k.", + "doubao-pro-256k.description": "Das leistungsstärkste Flaggschiffmodell für komplexe Aufgaben mit starken Ergebnissen in referenzbasierten Fragen, Zusammenfassungen, kreativen Inhalten, Textklassifikation und Rollenspielen. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 256k.", + "doubao-pro-32k.description": "Das leistungsstärkste Flaggschiffmodell für komplexe Aufgaben mit starken Ergebnissen in referenzbasierten Fragen, Zusammenfassungen, kreativen Inhalten, Textklassifikation und Rollenspielen. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 32k.", + "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash ist ein ultraschnelles multimodales Modell für tiefes logisches Denken mit einer TPOT von nur 10 ms. Es unterstützt Text- und Bildverarbeitung, übertrifft das vorherige Lite-Modell im Textverständnis und erreicht die Leistung konkurrierender Pro-Modelle im visuellen Bereich. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.", + "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite ist ein neues multimodales Modell für tiefes logisches Denken mit einstellbarem Denkaufwand (Minimal, Niedrig, Mittel, Hoch). Es bietet ein hervorragendes Preis-Leistungs-Verhältnis und ist eine starke Wahl für allgemeine Aufgaben. Unterstützt ein Kontextfenster von bis zu 256k.", + "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking verstärkt das logische Denken erheblich und verbessert die Kernfähigkeiten in Programmierung, Mathematik und logischem Denken im Vergleich zu Doubao-1.5-thinking-pro. Zusätzlich wird das visuelle Verständnis erweitert. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.", + "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision ist ein visuelles Modell für tiefes logisches Denken mit verbesserter multimodaler Analyse für Bildung, Bildprüfung, Inspektion/Sicherheit und KI-gestützte Fragenbeantwortung. Unterstützt ein Kontextfenster von 256k und bis zu 64k Ausgabetokens.", + "doubao-seed-1.6.description": "Doubao-Seed-1.6 ist ein neues multimodales Modell für tiefes logisches Denken mit automatischen, denkenden und nicht-denkenden Modi. Im nicht-denkenden Modus übertrifft es Doubao-1.5-pro/250115 deutlich. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.", + "doubao-seed-1.8.description": "Doubao-Seed-1.8 verfügt über eine verbesserte multimodale Verständnisfähigkeit und Agentenfähigkeiten. Es unterstützt Text-, Bild- und Videoeingaben sowie Kontext-Caching und bietet herausragende Leistung bei komplexen Aufgaben.", + "doubao-seed-code.description": "Doubao-Seed-Code ist speziell für agentenbasiertes Programmieren optimiert, unterstützt multimodale Eingaben (Text/Bild/Video) und ein Kontextfenster von 256k. Es ist kompatibel mit der Anthropic API und eignet sich für Programmierung, visuelles Verständnis und Agenten-Workflows.", + "doubao-seededit-3-0-i2i-250628.description": "Das Doubao-Bildmodell von ByteDance Seed unterstützt Text- und Bildeingaben mit hochgradig kontrollierbarer, hochwertiger Bildgenerierung. Es ermöglicht textgesteuerte Bildbearbeitung mit Ausgabengrößen zwischen 512 und 1536 Pixeln auf der langen Seite.", + "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.", + "doubao-seedream-4-0-250828.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.", + "doubao-vision-lite-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.", + "doubao-vision-pro-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.", + "emohaa.description": "Emohaa ist ein Modell für psychische Gesundheit mit professionellen Beratungsfähigkeiten, das Nutzern hilft, emotionale Probleme besser zu verstehen.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.", diff --git a/locales/de-DE/plugin.json b/locales/de-DE/plugin.json index 277fb91dd3..593d6e792a 100644 --- a/locales/de-DE/plugin.json +++ b/locales/de-DE/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Benutzerdefiniert", "loading.content": "Skill wird aufgerufen…", "loading.plugin": "Skill wird ausgeführt…", + "localSystem.workingDirectory.agentDescription": "Standard-Arbeitsverzeichnis für alle Unterhaltungen mit diesem Agenten", + "localSystem.workingDirectory.agentLevel": "Agenten-Arbeitsverzeichnis", + "localSystem.workingDirectory.current": "Aktuelles Arbeitsverzeichnis", + "localSystem.workingDirectory.notSet": "Klicken, um Arbeitsverzeichnis festzulegen", + "localSystem.workingDirectory.placeholder": "Verzeichnis-Pfad eingeben, z. B. /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "Ordner auswählen", + "localSystem.workingDirectory.title": "Arbeitsverzeichnis", + "localSystem.workingDirectory.topicDescription": "Standard des Agenten nur für diese Unterhaltung überschreiben", + "localSystem.workingDirectory.topicLevel": "Überschreibung auf Unterhaltungsebene", + "localSystem.workingDirectory.topicOverride": "Überschreibung für diese Unterhaltung", "mcpEmpty.deployment": "Keine Bereitstellungsoptionen", "mcpEmpty.prompts": "Keine Prompts", "mcpEmpty.resources": "Keine Ressourcen", diff --git a/locales/en-US/plugin.json b/locales/en-US/plugin.json index 7aeeef6934..8b40778ac9 100644 --- a/locales/en-US/plugin.json +++ b/locales/en-US/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Custom", "loading.content": "Calling Skill…", "loading.plugin": "Skill running…", + "localSystem.workingDirectory.agentDescription": "Default working directory for all conversations with this Agent", + "localSystem.workingDirectory.agentLevel": "Agent Working Directory", + "localSystem.workingDirectory.current": "Current working directory", + "localSystem.workingDirectory.notSet": "Click to set working directory", + "localSystem.workingDirectory.placeholder": "Enter directory path, e.g. /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "Select folder", + "localSystem.workingDirectory.title": "Working Directory", + "localSystem.workingDirectory.topicDescription": "Override Agent default for this conversation only", + "localSystem.workingDirectory.topicLevel": "Conversation override", + "localSystem.workingDirectory.topicOverride": "Override for this conversation", "mcpEmpty.deployment": "No deployment options", "mcpEmpty.prompts": "No prompts", "mcpEmpty.resources": "No resources", diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index 8a90a63d7a..d18bcee9b3 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -382,6 +382,37 @@ "deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.", "deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671B parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.", + "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus es un modelo LLM optimizado para terminales de DeepSeek, diseñado específicamente para dispositivos de terminal.", + "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 es el modelo de pensamiento profundo correspondiente a la versión Terminus, creado para un razonamiento de alto rendimiento.", + "deepseek-v3.1.description": "DeepSeek-V3.1 es un nuevo modelo híbrido de razonamiento de DeepSeek, que admite modos de pensamiento y no pensamiento, y ofrece una mayor eficiencia de razonamiento que DeepSeek-R1-0528. Las optimizaciones posteriores al entrenamiento mejoran significativamente el uso de herramientas por parte de agentes y el rendimiento en tareas. Admite una ventana de contexto de 128k y hasta 64k tokens de salida.", + "deepseek-v3.1:671b.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con mejoras en razonamiento complejo y cadena de pensamiento, ideal para tareas que requieren análisis profundo.", + "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce atención dispersa para mejorar la eficiencia de entrenamiento e inferencia en textos largos, a un precio inferior al de deepseek-v3.1.", + "deepseek-v3.2-think.description": "DeepSeek V3.2 Think es un modelo de pensamiento profundo completo con razonamiento de cadenas largas más sólido.", + "deepseek-v3.2.description": "DeepSeek-V3.2 es el primer modelo de razonamiento híbrido de DeepSeek que integra el pensamiento en el uso de herramientas. Con una arquitectura eficiente que ahorra recursos, aprendizaje reforzado a gran escala para mejorar capacidades y datos sintéticos masivos para una fuerte generalización, su rendimiento es comparable al de GPT-5-High. La longitud de salida se ha reducido considerablemente, disminuyendo el coste computacional y el tiempo de espera del usuario.", + "deepseek-v3.description": "DeepSeek-V3 es un potente modelo MoE con 671 mil millones de parámetros totales y 37 mil millones activos por token.", + "deepseek-vl2-small.description": "DeepSeek VL2 Small es una versión multimodal ligera para entornos con recursos limitados y alta concurrencia.", + "deepseek-vl2.description": "DeepSeek VL2 es un modelo multimodal para comprensión imagen-texto y preguntas visuales detalladas.", + "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 es un modelo MoE de 685 mil millones de parámetros y la última iteración de la serie de chat insignia de DeepSeek.\n\nSe basa en [DeepSeek V3](/deepseek/deepseek-chat-v3) y ofrece un rendimiento sólido en diversas tareas.", + "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 es un modelo MoE de 685 mil millones de parámetros y la última iteración de la serie de chat insignia de DeepSeek.\n\nSe basa en [DeepSeek V3](/deepseek/deepseek-chat-v3) y ofrece un rendimiento sólido en diversas tareas.", + "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 es el modelo de razonamiento híbrido de largo contexto de DeepSeek, compatible con modos mixtos de pensamiento/no pensamiento e integración de herramientas.", + "deepseek/deepseek-chat.description": "DeepSeek-V3 es el modelo de razonamiento híbrido de alto rendimiento de DeepSeek para tareas complejas e integración de herramientas.", + "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 es una variante actualizada centrada en disponibilidad abierta y razonamiento más profundo.", + "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 mejora significativamente el razonamiento con datos etiquetados mínimos y genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.", + "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B es un modelo LLM destilado basado en Llama 3.3 70B, ajustado con salidas de DeepSeek R1 para lograr un rendimiento competitivo con modelos de frontera de gran tamaño.", + "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B es un modelo LLM destilado basado en Llama-3.1-8B-Instruct, entrenado con salidas de DeepSeek R1.", + "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B es un modelo LLM destilado basado en Qwen 2.5 14B, entrenado con salidas de DeepSeek R1. Supera a OpenAI o1-mini en múltiples pruebas, logrando resultados de vanguardia entre modelos densos. Resultados destacados:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nPuntuación CodeForces: 1481\nEl ajuste fino con salidas de DeepSeek R1 ofrece un rendimiento competitivo frente a modelos de frontera más grandes.", + "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B es un modelo LLM destilado basado en Qwen 2.5 32B, entrenado con salidas de DeepSeek R1. Supera a OpenAI o1-mini en múltiples pruebas, logrando resultados de vanguardia entre modelos densos. Resultados destacados:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nPuntuación CodeForces: 1691\nEl ajuste fino con salidas de DeepSeek R1 ofrece un rendimiento competitivo frente a modelos de frontera más grandes.", + "deepseek/deepseek-r1.description": "DeepSeek R1 ha sido actualizado a DeepSeek-R1-0528. Con mayor capacidad de cómputo y optimizaciones algorítmicas posteriores al entrenamiento, mejora significativamente la profundidad y capacidad de razonamiento. Tiene un rendimiento sólido en matemáticas, programación y pruebas de lógica general, acercándose a líderes como o3 y Gemini 2.5 Pro.", + "deepseek/deepseek-r1/community.description": "DeepSeek R1 es el último modelo de código abierto lanzado por el equipo de DeepSeek, con un rendimiento de razonamiento muy sólido, especialmente en matemáticas, programación y tareas de lógica, comparable a OpenAI o1.", + "deepseek/deepseek-r1:free.description": "DeepSeek-R1 mejora significativamente el razonamiento con datos etiquetados mínimos y genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.", + "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) es el modelo experimental de razonamiento de DeepSeek, adecuado para tareas de razonamiento de alta complejidad.", + "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base es una versión mejorada del modelo DeepSeek V3.", + "deepseek/deepseek-v3.description": "Un modelo LLM rápido de propósito general con razonamiento mejorado.", + "deepseek/deepseek-v3/community.description": "DeepSeek-V3 representa un gran avance en velocidad de razonamiento respecto a modelos anteriores. Ocupa el primer lugar entre los modelos de código abierto y rivaliza con los modelos cerrados más avanzados. DeepSeek-V3 adopta Multi-Head Latent Attention (MLA) y la arquitectura DeepSeekMoE, ambas validadas en DeepSeek-V2. También introduce una estrategia auxiliar sin pérdida para el balanceo de carga y un objetivo de entrenamiento de predicción multi-token para un rendimiento más sólido.", + "deepseek_r1.description": "DeepSeek-R1 es un modelo de razonamiento impulsado por aprendizaje por refuerzo que aborda problemas de repetición y legibilidad. Antes del RL, utiliza datos de arranque en frío para mejorar aún más el rendimiento de razonamiento. Igual a OpenAI-o1 en tareas de matemáticas, programación y razonamiento, con un entrenamiento cuidadosamente diseñado que mejora los resultados generales.", + "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B es una versión destilada de Llama-3.3-70B-Instruct. Como parte de la serie DeepSeek-R1, está ajustado con muestras generadas por DeepSeek-R1 y ofrece un rendimiento sólido en matemáticas, programación y razonamiento.", + "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B es una versión destilada de Qwen2.5-14B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, ofreciendo un razonamiento sólido.", + "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B es una versión destilada de Qwen2.5-32B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, destacando en matemáticas, programación y razonamiento.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.", diff --git a/locales/es-ES/plugin.json b/locales/es-ES/plugin.json index 030ba15332..e570f01194 100644 --- a/locales/es-ES/plugin.json +++ b/locales/es-ES/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Personalizado", "loading.content": "Llamando al Skill…", "loading.plugin": "Skill en ejecución…", + "localSystem.workingDirectory.agentDescription": "Directorio de trabajo predeterminado para todas las conversaciones con este Agente", + "localSystem.workingDirectory.agentLevel": "Directorio de trabajo del Agente", + "localSystem.workingDirectory.current": "Directorio de trabajo actual", + "localSystem.workingDirectory.notSet": "Haz clic para establecer el directorio de trabajo", + "localSystem.workingDirectory.placeholder": "Introduce la ruta del directorio, p. ej., /Usuarios/nombre/proyectos", + "localSystem.workingDirectory.selectFolder": "Seleccionar carpeta", + "localSystem.workingDirectory.title": "Directorio de trabajo", + "localSystem.workingDirectory.topicDescription": "Anula el valor predeterminado del Agente solo para esta conversación", + "localSystem.workingDirectory.topicLevel": "Anulación por conversación", + "localSystem.workingDirectory.topicOverride": "Anulación para esta conversación", "mcpEmpty.deployment": "Sin opciones de despliegue", "mcpEmpty.prompts": "Sin prompts", "mcpEmpty.resources": "Sin recursos", diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index 09c4bc1bba..af56de1ad2 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -271,15 +271,20 @@ "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.", "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.", "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام و قابل مشاهده تولید کند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.", "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.", "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.", "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته ارائه می‌شود.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.", "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.", + "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوش، روانی و درک مطلب برتری دارد.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.", "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.", "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.", @@ -294,6 +299,42 @@ "codestral-latest.description": "Codestral پیشرفته‌ترین مدل کدنویسی ماست؛ نسخه v2 (ژانویه ۲۰۲۵) برای وظایف با تأخیر کم و فرکانس بالا مانند FIM، اصلاح کد و تولید تست بهینه شده است.", "codestral.description": "Codestral اولین مدل کدنویسی از Mistral AI است که پشتیبانی قوی برای تولید کد ارائه می‌دهد.", "codex-mini-latest.description": "codex-mini-latest نسخه تنظیم‌شده مدل o4-mini برای رابط خط فرمان Codex است. برای استفاده مستقیم از API، توصیه می‌شود با gpt-4.1 شروع کنید.", + "cogito-2.1:671b.description": "Cogito v2.1 671B یک مدل زبان بازمتن آمریکایی است که برای استفاده تجاری رایگان است. این مدل عملکردی در حد مدل‌های برتر دارد، بازدهی بالای استدلال با توکن، زمینه طولانی ۱۲۸هزار توکنی و توانایی کلی قوی ارائه می‌دهد.", + "cogview-4.description": "CogView-4 نخستین مدل متن به تصویر بازمتن Zhipu است که توانایی تولید نویسه‌های چینی را دارد. این مدل درک معنایی، کیفیت تصویر و رندر متن چینی/انگلیسی را بهبود می‌بخشد، از دستورات دو زبانه با طول دلخواه پشتیبانی می‌کند و می‌تواند تصاویر را در هر وضوحی در محدوده مشخص تولید کند.", + "cohere-command-r-plus.description": "Command R+ یک مدل پیشرفته بهینه‌شده برای RAG است که برای بارهای کاری سازمانی طراحی شده است.", + "cohere-command-r.description": "Command R یک مدل مولد مقیاس‌پذیر است که برای استفاده در RAG و ابزارها طراحی شده و هوش مصنوعی در سطح تولید را ممکن می‌سازد.", + "cohere/Cohere-command-r-plus.description": "Command R+ یک مدل پیشرفته بهینه‌شده برای RAG است که برای بارهای کاری سازمانی طراحی شده است.", + "cohere/Cohere-command-r.description": "Command R یک مدل مولد مقیاس‌پذیر است که برای استفاده در RAG و ابزارها طراحی شده و هوش مصنوعی در سطح تولید را ممکن می‌سازد.", + "cohere/command-a.description": "Command A قوی‌ترین مدل Cohere تا به امروز است که در استفاده از ابزارها، عامل‌ها، RAG و کاربردهای چندزبانه برتری دارد. این مدل دارای طول زمینه ۲۵۶هزار توکن است، تنها با دو GPU اجرا می‌شود و ۱۵۰٪ بازدهی بالاتری نسبت به Command R+ 08-2024 دارد.", + "cohere/command-r-plus.description": "Command R+ جدیدترین مدل زبان بزرگ Cohere است که برای چت و زمینه طولانی بهینه شده و عملکردی استثنایی ارائه می‌دهد تا شرکت‌ها بتوانند از نمونه‌سازی فراتر روند.", + "cohere/command-r.description": "Command R برای وظایف چت و زمینه طولانی بهینه شده و به عنوان مدلی «مقیاس‌پذیر» معرفی می‌شود که تعادل بین عملکرد بالا و دقت را برقرار می‌کند تا شرکت‌ها بتوانند از نمونه‌سازی فراتر روند.", + "cohere/embed-v4.0.description": "مدلی برای طبقه‌بندی یا تبدیل متن، تصویر یا محتوای ترکیبی به بردارهای تعبیه‌شده.", + "comfyui/flux-dev.description": "FLUX.1 Dev یک مدل متن به تصویر با کیفیت بالا (۱۰ تا ۵۰ مرحله) است که برای خروجی‌های خلاقانه و هنری ممتاز ایده‌آل است.", + "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev یک مدل ویرایش تصویر است که از ویرایش‌های هدایت‌شده با متن، از جمله ویرایش‌های محلی و انتقال سبک پشتیبانی می‌کند.", + "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev یک مدل متن به تصویر با فیلترهای ایمنی داخلی است که با همکاری Krea توسعه یافته است.", + "comfyui/flux-schnell.description": "FLUX.1 Schnell یک مدل متن به تصویر فوق‌سریع است که تصاویر با کیفیت بالا را در ۱ تا ۴ مرحله تولید می‌کند و برای استفاده بلادرنگ و نمونه‌سازی سریع ایده‌آل است.", + "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 یک مدل کلاسیک متن به تصویر با وضوح ۵۱۲x۵۱۲ است که برای نمونه‌سازی سریع و آزمایش‌های خلاقانه مناسب است.", + "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 با رمزگذارهای داخلی CLIP/T5 نیازی به فایل‌های رمزگذار خارجی ندارد و برای مدل‌هایی مانند sd3.5_medium_incl_clips با مصرف منابع کمتر مناسب است.", + "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 یک مدل نسل جدید متن به تصویر است که در دو نسخه بزرگ و متوسط ارائه می‌شود. این مدل به فایل‌های رمزگذار CLIP خارجی نیاز دارد و کیفیت تصویر عالی و تبعیت دقیق از دستورات را ارائه می‌دهد.", + "comfyui/stable-diffusion-custom-refiner.description": "مدل تصویر به تصویر SDXL سفارشی. از custom_sd_lobe.safetensors به عنوان نام فایل مدل استفاده کنید؛ اگر VAE دارید، از custom_sd_vae_lobe.safetensors استفاده کنید. فایل‌های مدل را در پوشه‌های مورد نیاز Comfy قرار دهید.", + "comfyui/stable-diffusion-custom.description": "مدل متن به تصویر SD سفارشی. از custom_sd_lobe.safetensors به عنوان نام فایل مدل استفاده کنید؛ اگر VAE دارید، از custom_sd_vae_lobe.safetensors استفاده کنید. فایل‌های مدل را در پوشه‌های مورد نیاز Comfy قرار دهید.", + "comfyui/stable-diffusion-refiner.description": "مدل تصویر به تصویر SDXL که تبدیل‌های با کیفیت بالا از تصاویر ورودی انجام می‌دهد و از انتقال سبک، بازسازی و تغییرات خلاقانه پشتیبانی می‌کند.", + "comfyui/stable-diffusion-xl.description": "SDXL یک مدل متن به تصویر است که از تولید تصاویر با وضوح بالا ۱۰۲۴x۱۰۲۴ پشتیبانی می‌کند و کیفیت و جزئیات تصویر بهتری ارائه می‌دهد.", + "command-a-03-2025.description": "Command A توانمندترین مدل ما تا به امروز است که در استفاده از ابزارها، عامل‌ها، RAG و سناریوهای چندزبانه برتری دارد. این مدل دارای پنجره زمینه ۲۵۶هزار توکن است، تنها با دو GPU اجرا می‌شود و ۱۵۰٪ بازدهی بالاتری نسبت به Command R+ 08-2024 دارد.", + "command-light-nightly.description": "برای کاهش فاصله بین نسخه‌های اصلی، نسخه‌های شبانه Command را ارائه می‌دهیم. برای سری command-light، این نسخه command-light-nightly نام دارد. این نسخه جدیدترین و آزمایشی‌ترین (و احتمالاً ناپایدارترین) نسخه است که به‌طور منظم و بدون اطلاع به‌روزرسانی می‌شود، بنابراین برای استفاده در تولید توصیه نمی‌شود.", + "command-light.description": "نسخه‌ای کوچک‌تر و سریع‌تر از Command که تقریباً به همان اندازه توانمند است اما سریع‌تر عمل می‌کند.", + "command-nightly.description": "برای کاهش فاصله بین نسخه‌های اصلی، نسخه‌های شبانه Command را ارائه می‌دهیم. برای سری Command، این نسخه command-nightly نام دارد. این نسخه جدیدترین و آزمایشی‌ترین (و احتمالاً ناپایدارترین) نسخه است که به‌طور منظم و بدون اطلاع به‌روزرسانی می‌شود، بنابراین برای استفاده در تولید توصیه نمی‌شود.", + "command-r-03-2024.description": "Command R یک مدل چت پیرو دستورالعمل است که کیفیت بالاتر، قابلیت اطمینان بیشتر و پنجره زمینه طولانی‌تری نسبت به مدل‌های قبلی دارد. این مدل از جریان‌های کاری پیچیده مانند تولید کد، RAG، استفاده از ابزار و عامل‌ها پشتیبانی می‌کند.", + "command-r-08-2024.description": "command-r-08-2024 نسخه به‌روزرسانی‌شده مدل Command R است که در آگوست ۲۰۲۴ منتشر شده است.", + "command-r-plus-04-2024.description": "command-r-plus نام مستعار command-r-plus-04-2024 است، بنابراین استفاده از command-r-plus در API به آن مدل اشاره دارد.", + "command-r-plus-08-2024.description": "Command R+ یک مدل چت پیرو دستورالعمل است که کیفیت بالاتر، قابلیت اطمینان بیشتر و پنجره زمینه طولانی‌تری نسبت به مدل‌های قبلی دارد. این مدل برای جریان‌های کاری پیچیده RAG و استفاده چندمرحله‌ای از ابزارها بهترین گزینه است.", + "command-r-plus.description": "Command R+ یک مدل زبان بزرگ با عملکرد بالا است که برای سناریوهای واقعی سازمانی و برنامه‌های پیچیده طراحی شده است.", + "command-r.description": "Command R یک مدل زبان بزرگ بهینه‌شده برای چت و وظایف با زمینه طولانی است که برای تعامل پویا و مدیریت دانش ایده‌آل است.", + "command-r7b-12-2024.description": "command-r7b-12-2024 یک به‌روزرسانی کوچک و کارآمد است که در دسامبر ۲۰۲۴ منتشر شده است. این مدل در RAG، استفاده از ابزار و وظایف عامل‌ها که نیاز به استدلال پیچیده و چندمرحله‌ای دارند، عملکرد عالی دارد.", + "command.description": "مدل چت پیرو دستورالعمل که کیفیت و قابلیت اطمینان بالاتری در وظایف زبانی ارائه می‌دهد و پنجره زمینه طولانی‌تری نسبت به مدل‌های مولد پایه ما دارد.", + "computer-use-preview.description": "computer-use-preview یک مدل تخصصی برای ابزار «استفاده از رایانه» است که برای درک و اجرای وظایف مرتبط با رایانه آموزش دیده است.", + "dall-e-2.description": "مدل نسل دوم DALL·E با تولید تصاویر واقع‌گرایانه‌تر، دقیق‌تر و وضوحی ۴ برابر بیشتر از نسل اول.", + "dall-e-3.description": "جدیدترین مدل DALL·E که در نوامبر ۲۰۲۳ منتشر شد و از تولید تصاویر واقع‌گرایانه‌تر، دقیق‌تر و با جزئیات قوی‌تر پشتیبانی می‌کند.", "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.", "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.", "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.", diff --git a/locales/fa-IR/plugin.json b/locales/fa-IR/plugin.json index d789f55462..4cff9ecc02 100644 --- a/locales/fa-IR/plugin.json +++ b/locales/fa-IR/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "سفارشی", "loading.content": "در حال فراخوانی مهارت…", "loading.plugin": "مهارت در حال اجرا…", + "localSystem.workingDirectory.agentDescription": "پوشه کاری پیش‌فرض برای تمام گفتگوها با این عامل", + "localSystem.workingDirectory.agentLevel": "پوشه کاری عامل", + "localSystem.workingDirectory.current": "پوشه کاری فعلی", + "localSystem.workingDirectory.notSet": "برای تنظیم پوشه کاری کلیک کنید", + "localSystem.workingDirectory.placeholder": "مسیر پوشه را وارد کنید، مثلاً ‎/Users/name/projects", + "localSystem.workingDirectory.selectFolder": "انتخاب پوشه", + "localSystem.workingDirectory.title": "پوشه کاری", + "localSystem.workingDirectory.topicDescription": "نادیده گرفتن پیش‌فرض عامل فقط برای این گفتگو", + "localSystem.workingDirectory.topicLevel": "نادیده‌گیری در سطح گفتگو", + "localSystem.workingDirectory.topicOverride": "نادیده‌گیری برای این گفتگو", "mcpEmpty.deployment": "گزینه‌ای برای استقرار وجود ندارد", "mcpEmpty.prompts": "هیچ پرامپتی وجود ندارد", "mcpEmpty.resources": "هیچ منبعی وجود ندارد", diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index 53d85e4ba4..90b4279efa 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -336,6 +336,52 @@ "dall-e-2.description": "Modèle DALL·E de deuxième génération avec une génération d'images plus réaliste et précise, et une résolution 4× supérieure à la première génération.", "dall-e-3.description": "Le dernier modèle DALL·E, publié en novembre 2023, prend en charge une génération d'images plus réaliste et précise avec un niveau de détail renforcé.", "databricks/dbrx-instruct.description": "DBRX Instruct offre une gestion des instructions hautement fiable dans divers secteurs.", + "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR est un modèle vision-langage développé par DeepSeek AI, spécialisé dans la reconnaissance optique de caractères (OCR) et la « compression optique contextuelle ». Il explore la compression du contexte à partir d’images, traite efficacement les documents et les convertit en texte structuré (par exemple, Markdown). Il reconnaît avec précision le texte dans les images, ce qui le rend idéal pour la numérisation de documents, l’extraction de texte et le traitement structuré.", + "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B distille la chaîne de raisonnement de DeepSeek-R1-0528 dans Qwen3 8B Base. Il atteint l’état de l’art parmi les modèles open source, surpassant Qwen3 8B de 10 % sur AIME 2024 et égalant les performances de raisonnement de Qwen3-235B. Il excelle en raisonnement mathématique, en programmation et sur les benchmarks de logique générale. Il partage l’architecture de Qwen3-8B mais utilise le tokenizer de DeepSeek-R1-0528.", + "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 exploite une puissance de calcul accrue et des optimisations algorithmiques post-entraînement pour approfondir le raisonnement. Il affiche d’excellentes performances sur les benchmarks en mathématiques, programmation et logique générale, rivalisant avec des leaders comme o3 et Gemini 2.5 Pro.", + "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Les modèles distillés DeepSeek-R1 utilisent l’apprentissage par renforcement (RL) et des données de démarrage à froid pour améliorer le raisonnement et établir de nouveaux standards sur les benchmarks multitâches open source.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Les modèles distillés DeepSeek-R1 utilisent l’apprentissage par renforcement (RL) et des données de démarrage à froid pour améliorer le raisonnement et établir de nouveaux standards sur les benchmarks multitâches open source.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Les modèles distillés DeepSeek-R1 utilisent l’apprentissage par renforcement (RL) et des données de démarrage à froid pour améliorer le raisonnement et établir de nouveaux standards sur les benchmarks multitâches open source.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B est distillé à partir de Qwen2.5-32B et affiné sur 800 000 échantillons sélectionnés de DeepSeek-R1. Il excelle en mathématiques, programmation et raisonnement, obtenant d’excellents résultats sur AIME 2024, MATH-500 (94,3 % de précision) et GPQA Diamond.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B est distillé à partir de Qwen2.5-Math-7B et affiné sur 800 000 échantillons sélectionnés de DeepSeek-R1. Il affiche de solides performances avec 92,8 % sur MATH-500, 55,5 % sur AIME 2024 et une note CodeForces de 1189 pour un modèle 7B.", + "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 améliore le raisonnement grâce à l’apprentissage par renforcement et à des données de démarrage à froid, établissant de nouveaux standards multitâches open source et surpassant OpenAI-o1-mini.", + "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 améliore DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct, combinant capacités générales et de codage. Il améliore la rédaction et le suivi des instructions pour un meilleur alignement des préférences, avec des progrès significatifs sur AlpacaEval 2.0, ArenaHard, AlignBench et MT-Bench.", + "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus est une version mise à jour du modèle V3.1, positionnée comme un agent hybride LLM. Il corrige les problèmes signalés par les utilisateurs et améliore la stabilité, la cohérence linguistique, tout en réduisant les caractères anormaux et le mélange chinois/anglais. Il intègre les modes Pensant et Non-pensant avec des modèles de chat pour un basculement flexible. Il améliore également les performances des agents de code et de recherche pour une utilisation plus fiable des outils et des tâches multi-étapes.", + "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 utilise une architecture de raisonnement hybride et prend en charge les modes pensant et non-pensant.", + "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp est une version expérimentale de V3.2 servant de passerelle vers la prochaine architecture. Il ajoute DeepSeek Sparse Attention (DSA) au-dessus de V3.1-Terminus pour améliorer l’efficacité de l’entraînement et de l’inférence sur les contextes longs, avec des optimisations pour l’utilisation d’outils, la compréhension de documents longs et le raisonnement multi-étapes. Idéal pour explorer une efficacité de raisonnement accrue avec de grands budgets de contexte.", + "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE de 671 milliards de paramètres utilisant MLA et DeepSeekMoE avec un équilibrage de charge sans perte pour un entraînement et une inférence efficaces. Préentraîné sur 14,8T de tokens de haute qualité avec SFT et RL, il surpasse les autres modèles open source et rivalise avec les modèles fermés de pointe.", + "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) est un modèle innovant offrant une compréhension linguistique approfondie et une interaction fluide.", + "deepseek-ai/deepseek-r1.description": "Un modèle LLM de pointe, efficace, performant en raisonnement, mathématiques et programmation.", + "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.", + "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.", + "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en questions visuelles, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.", + "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance de codage du modèle de programmeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.", + "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.", + "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.", + "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.", + "deepseek-ocr.description": "DeepSeek-OCR est un modèle vision-langage de DeepSeek AI axé sur l’OCR et la « compression optique contextuelle ». Il explore la compression des informations contextuelles à partir d’images, traite efficacement les documents et les convertit en formats de texte structuré tels que Markdown. Il reconnaît avec précision le texte dans les images, ce qui le rend idéal pour la numérisation de documents, l’extraction de texte et le traitement structuré.", + "deepseek-r1-0528.description": "Modèle complet de 685B publié le 28/05/2025. DeepSeek-R1 utilise un apprentissage par renforcement à grande échelle en post-entraînement, améliorant considérablement le raisonnement avec peu de données annotées, et affiche de solides performances en mathématiques, codage et raisonnement en langage naturel.", + "deepseek-r1-250528.description": "DeepSeek R1 250528 est le modèle complet de raisonnement DeepSeek-R1 pour les tâches complexes en mathématiques et logique.", + "deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B édition rapide avec recherche web en temps réel, offrant des réponses plus rapides tout en maintenant les performances.", + "deepseek-r1-70b-online.description": "DeepSeek R1 70B édition standard avec recherche web en temps réel, adaptée aux tâches de chat et de texte à jour.", + "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B combine le raisonnement R1 avec l’écosystème Llama.", + "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B est distillé à partir de Llama-3.1-8B en utilisant les sorties de DeepSeek R1.", + "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama est distillé à partir de DeepSeek-R1 sur Llama.", + "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B est une distillation R1 basée sur Qianfan-70B avec une forte valeur ajoutée.", + "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B est une distillation R1 basée sur Qianfan-8B pour les applications petites et moyennes.", + "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B est une distillation R1 basée sur Llama-70B.", + "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B est un modèle ultra-léger pour les environnements à très faibles ressources.", + "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B est un modèle de taille moyenne pour un déploiement multi-scénarios.", + "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B est une distillation R1 basée sur Qwen-32B, équilibrant performance et coût.", + "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B est un modèle léger pour les environnements en périphérie et les entreprises privées.", + "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen est distillé à partir de DeepSeek-R1 sur Qwen.", + "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant capacité à l’échelle 671B et réponse rapide.", + "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.", + "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.", + "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de pensée avant la réponse finale pour améliorer la précision.", + "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.", + "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.", + "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.", diff --git a/locales/fr-FR/plugin.json b/locales/fr-FR/plugin.json index c6ec5af531..54ab368d22 100644 --- a/locales/fr-FR/plugin.json +++ b/locales/fr-FR/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Personnalisée", "loading.content": "Appel de la compétence…", "loading.plugin": "Compétence en cours d’exécution…", + "localSystem.workingDirectory.agentDescription": "Répertoire de travail par défaut pour toutes les conversations avec cet agent", + "localSystem.workingDirectory.agentLevel": "Répertoire de travail de l'agent", + "localSystem.workingDirectory.current": "Répertoire de travail actuel", + "localSystem.workingDirectory.notSet": "Cliquez pour définir le répertoire de travail", + "localSystem.workingDirectory.placeholder": "Saisissez le chemin du répertoire, par ex. /Users/nom/projets", + "localSystem.workingDirectory.selectFolder": "Sélectionner un dossier", + "localSystem.workingDirectory.title": "Répertoire de travail", + "localSystem.workingDirectory.topicDescription": "Remplacer le répertoire par défaut de l'agent uniquement pour cette conversation", + "localSystem.workingDirectory.topicLevel": "Remplacement pour la conversation", + "localSystem.workingDirectory.topicOverride": "Remplacement pour cette conversation", "mcpEmpty.deployment": "Aucune option de déploiement", "mcpEmpty.prompts": "Aucune invite", "mcpEmpty.resources": "Aucune ressource", diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index eaa1180e6a..eec247ee1a 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -336,6 +336,48 @@ "dall-e-2.description": "Modello DALL·E di seconda generazione con generazione di immagini più realistica e accurata e risoluzione 4× rispetto alla prima generazione.", "dall-e-3.description": "L'ultimo modello DALL·E, rilasciato a novembre 2023, supporta generazione di immagini più realistica e accurata con maggiore dettaglio.", "databricks/dbrx-instruct.description": "DBRX Instruct offre una gestione delle istruzioni altamente affidabile in diversi settori.", + "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR è un modello visione-linguaggio sviluppato da DeepSeek AI, specializzato in OCR e \"compressione ottica contestuale\". Esplora la compressione del contesto dalle immagini, elabora documenti in modo efficiente e li converte in testo strutturato (ad esempio, Markdown). Riconosce accuratamente il testo nelle immagini, risultando ideale per la digitalizzazione di documenti, l'estrazione di testo e l'elaborazione strutturata.", + "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B distilla il ragionamento a catena da DeepSeek-R1-0528 nel modello base Qwen3 8B. Raggiunge lo stato dell'arte tra i modelli open-source, superando Qwen3 8B del 10% su AIME 2024 e uguagliando le prestazioni di Qwen3-235B-thinking. Eccelle nei benchmark di ragionamento matematico, programmazione e logica generale. Condivide l'architettura di Qwen3-8B ma utilizza il tokenizer di DeepSeek-R1-0528.", + "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 sfrutta maggiore potenza computazionale e ottimizzazioni algoritmiche post-addestramento per approfondire il ragionamento. Ottiene risultati eccellenti nei benchmark di matematica, programmazione e logica generale, avvicinandosi a modelli leader come o3 e Gemini 2.5 Pro.", + "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "I modelli distillati DeepSeek-R1 utilizzano apprendimento per rinforzo (RL) e dati cold-start per migliorare il ragionamento e stabilire nuovi benchmark multi-task per modelli open-source.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "I modelli distillati DeepSeek-R1 utilizzano apprendimento per rinforzo (RL) e dati cold-start per migliorare il ragionamento e stabilire nuovi benchmark multi-task per modelli open-source.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "I modelli distillati DeepSeek-R1 utilizzano apprendimento per rinforzo (RL) e dati cold-start per migliorare il ragionamento e stabilire nuovi benchmark multi-task per modelli open-source.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B è distillato da Qwen2.5-32B e ottimizzato su 800.000 campioni curati da DeepSeek-R1. Eccelle in matematica, programmazione e ragionamento, ottenendo risultati di rilievo su AIME 2024, MATH-500 (94,3% di accuratezza) e GPQA Diamond.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B è distillato da Qwen2.5-Math-7B e ottimizzato su 800.000 campioni curati da DeepSeek-R1. Ottiene prestazioni elevate: 92,8% su MATH-500, 55,5% su AIME 2024 e un punteggio CodeForces di 1189 per un modello da 7B.", + "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 migliora il ragionamento grazie a dati cold-start e apprendimento per rinforzo, stabilendo nuovi benchmark multi-task per modelli open-source e superando OpenAI-o1-mini.", + "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 aggiorna DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct, combinando capacità generali e di programmazione. Migliora la scrittura e il rispetto delle istruzioni per un migliore allineamento alle preferenze, con progressi significativi su AlpacaEval 2.0, ArenaHard, AlignBench e MT-Bench.", + "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus è una versione aggiornata del modello V3.1, concepito come agente ibrido LLM. Risolve problemi segnalati dagli utenti e migliora stabilità, coerenza linguistica e riduce caratteri anomali o misti cinese/inglese. Integra modalità di pensiero e non-pensiero con template di chat per passaggi flessibili. Migliora anche le prestazioni di Code Agent e Search Agent per un uso più affidabile degli strumenti e compiti multi-step.", + "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 utilizza un'architettura di ragionamento ibrida e supporta sia modalità di pensiero che non-pensiero.", + "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp è una versione sperimentale che fa da ponte verso la prossima architettura. Aggiunge DeepSeek Sparse Attention (DSA) sopra V3.1-Terminus per migliorare l'efficienza nell'addestramento e inferenza su contesti lunghi, con ottimizzazioni per l'uso di strumenti, comprensione di documenti lunghi e ragionamento multi-step. Ideale per esplorare una maggiore efficienza di ragionamento con budget di contesto estesi.", + "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE da 671 miliardi di parametri che utilizza MLA e DeepSeekMoE con bilanciamento del carico senza perdite per un addestramento e inferenza efficienti. Preaddestrato su 14,8 trilioni di token di alta qualità con SFT e RL, supera altri modelli open-source e si avvicina ai modelli chiusi leader.", + "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) è un modello innovativo che offre una profonda comprensione linguistica e interazione.", + "deepseek-ai/deepseek-r1.description": "Un modello LLM all'avanguardia, efficiente e potente nel ragionamento, matematica e programmazione.", + "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e catena di pensiero per compiti di analisi approfondita.", + "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e catena di pensiero per compiti di analisi approfondita.", + "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.", + "deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello di chat e la forte capacità di codifica del modello coder, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.", + "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento nel mezzo, offrendo completamento di codice a livello di progetto e riempimento di frammenti.", + "deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.", + "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.", + "deepseek-ocr.description": "DeepSeek-OCR è un modello visione-linguaggio sviluppato da DeepSeek AI, focalizzato su OCR e \"compressione ottica contestuale\". Esplora la compressione delle informazioni contestuali dalle immagini, elabora documenti in modo efficiente e li converte in formati di testo strutturato come Markdown. Riconosce accuratamente il testo nelle immagini, rendendolo ideale per la digitalizzazione di documenti, l'estrazione di testo e l'elaborazione strutturata.", + "deepseek-r1-0528.description": "Modello completo da 685B rilasciato il 28/05/2025. DeepSeek-R1 utilizza RL su larga scala nel post-addestramento, migliorando notevolmente il ragionamento con dati etichettati minimi, ottenendo ottimi risultati in matematica, programmazione e ragionamento in linguaggio naturale.", + "deepseek-r1-250528.description": "DeepSeek R1 250528 è il modello completo di ragionamento DeepSeek-R1 per compiti complessi di matematica e logica.", + "deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B edizione veloce con ricerca web in tempo reale, offre risposte più rapide mantenendo alte prestazioni.", + "deepseek-r1-70b-online.description": "DeepSeek R1 70B edizione standard con ricerca web in tempo reale, adatto per chat aggiornate e compiti testuali.", + "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B combina il ragionamento R1 con l'ecosistema Llama.", + "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B è distillato da Llama-3.1-8B utilizzando output di DeepSeek R1.", + "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama è distillato da DeepSeek-R1 su Llama.", + "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B è una distillazione R1 basata su Qianfan-70B con elevato valore.", + "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B è una distillazione R1 basata su Qianfan-8B per applicazioni di piccole e medie dimensioni.", + "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B è una distillazione R1 basata su Llama-70B.", + "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B è un modello distillato ultra-leggero per ambienti con risorse molto limitate.", + "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B è un modello distillato di medie dimensioni per distribuzioni in scenari multipli.", + "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B è una distillazione R1 basata su Qwen-32B, che bilancia prestazioni e costi.", + "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B è un modello distillato leggero per ambienti edge e aziendali privati.", + "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen è distillato da DeepSeek-R1 su Qwen.", + "deepseek-r1-fast-online.description": "Versione completa veloce di DeepSeek R1 con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.", + "deepseek-r1-online.description": "Versione completa di DeepSeek R1 con 671B parametri e ricerca web in tempo reale, che offre comprensione e generazione potenziate.", + "deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.", diff --git a/locales/it-IT/plugin.json b/locales/it-IT/plugin.json index 44336e29b5..ff9bc6889b 100644 --- a/locales/it-IT/plugin.json +++ b/locales/it-IT/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Personalizzata", "loading.content": "Chiamata alla Skill…", "loading.plugin": "Skill in esecuzione…", + "localSystem.workingDirectory.agentDescription": "Directory di lavoro predefinito per tutte le conversazioni con questo Agente", + "localSystem.workingDirectory.agentLevel": "Directory di lavoro dell'Agente", + "localSystem.workingDirectory.current": "Directory di lavoro attuale", + "localSystem.workingDirectory.notSet": "Clicca per impostare la directory di lavoro", + "localSystem.workingDirectory.placeholder": "Inserisci il percorso della directory, es. /Users/nome/progetti", + "localSystem.workingDirectory.selectFolder": "Seleziona cartella", + "localSystem.workingDirectory.title": "Directory di lavoro", + "localSystem.workingDirectory.topicDescription": "Sovrascrive il valore predefinito dell'Agente solo per questa conversazione", + "localSystem.workingDirectory.topicLevel": "Sovrascrittura per conversazione", + "localSystem.workingDirectory.topicOverride": "Sovrascrittura per questa conversazione", "mcpEmpty.deployment": "Nessuna opzione di distribuzione", "mcpEmpty.prompts": "Nessun prompt", "mcpEmpty.resources": "Nessuna risorsa", diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index c3437ae1e4..a80f258815 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -413,6 +413,7 @@ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70Bは、Llama-3.3-70B-Instructをベースに、DeepSeek-R1が生成したサンプルでファインチューニングされた蒸留モデルで、数学、コーディング、推論において高い性能を発揮します。", "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bをベースに、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされた蒸留モデルで、強力な推論能力を持ちます。", "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32Bは、Qwen2.5-32Bをベースに、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされた蒸留モデルで、数学、コーディング、推論において優れた性能を発揮します。", + "devstral-2:123b.description": "Devstral 2 123B は、ツールを活用してコードベースを探索し、複数ファイルを編集し、ソフトウェアエンジニアリングエージェントを支援することに優れています。", "gemini-flash-latest.description": "Gemini Flash の最新リリース", "gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース", "gemini-pro-latest.description": "Gemini Pro の最新リリース", diff --git a/locales/ja-JP/plugin.json b/locales/ja-JP/plugin.json index a15367d9b1..d5b176f881 100644 --- a/locales/ja-JP/plugin.json +++ b/locales/ja-JP/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "カスタム", "loading.content": "スキルを呼び出し中...", "loading.plugin": "スキル実行中...", + "localSystem.workingDirectory.agentDescription": "このエージェントとのすべての会話におけるデフォルトの作業ディレクトリ", + "localSystem.workingDirectory.agentLevel": "エージェント作業ディレクトリ", + "localSystem.workingDirectory.current": "現在の作業ディレクトリ", + "localSystem.workingDirectory.notSet": "クリックして作業ディレクトリを設定", + "localSystem.workingDirectory.placeholder": "ディレクトリパスを入力(例:/Users/name/projects)", + "localSystem.workingDirectory.selectFolder": "フォルダを選択", + "localSystem.workingDirectory.title": "作業ディレクトリ", + "localSystem.workingDirectory.topicDescription": "この会話に限りエージェントのデフォルトを上書き", + "localSystem.workingDirectory.topicLevel": "会話ごとの上書き", + "localSystem.workingDirectory.topicOverride": "この会話用の上書き設定", "mcpEmpty.deployment": "デプロイオプションは現在ありません", "mcpEmpty.prompts": "このスキルには現在プロンプトがありません", "mcpEmpty.resources": "このスキルには現在リソースがありません", diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index d23b1a591b..7d0c6a0ac3 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -354,12 +354,11 @@ "deepseek-ai/deepseek-r1.description": "최신 기술을 반영한 고효율 LLM으로, 추론, 수학, 프로그래밍에 강점을 보입니다.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.", - "deepseek-ai/deepseek-v3.2-exp.description": "deepseek-v3.2-exp는 희소 어텐션을 도입하여 장문 텍스트에 대한 학습 및 추론 효율을 향상시키며, deepseek-v3.1보다 저렴한 비용으로 제공됩니다.", - "deepseek-ai/deepseek-v3.2-think.description": "DeepSeek V3.2 Think는 장기 사고 추론에 강한 완전한 심층 사고 모델입니다.", - "deepseek-ai/deepseek-v3.2.description": "DeepSeek-V3.2는 DeepSeek가 출시한 최초의 도구 사용에 사고를 결합한 하이브리드 추론 모델입니다. 효율적인 아키텍처로 연산 자원을 절약하고, 대규모 강화 학습으로 능력을 향상시키며, 대규모 합성 작업 데이터로 일반화 성능을 강화하여, 세 가지 요소가 결합된 성능은 GPT-5-High에 필적합니다. 출력 길이가 크게 줄어들어 계산 비용과 사용자 대기 시간이 현저히 감소합니다.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 질의응답, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.", "deepseek-chat.description": "일반 대화 능력과 코드 처리 능력을 결합한 새로운 오픈소스 모델입니다. 대화 모델의 자연스러운 상호작용과 코드 모델의 강력한 코딩 능력을 유지하며, 사용자 선호도에 더 잘 맞춰졌습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기에서도 향상된 성능을 보입니다.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.", + "deepseek-coder-v2.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.", + "deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.", "deepseek-ocr.description": "DeepSeek-OCR은 DeepSeek AI가 개발한 비전-언어 모델로, OCR과 '문맥 기반 광학 압축'에 중점을 둡니다. 이미지에서 문맥 정보를 압축하고 문서를 효율적으로 처리하여 Markdown과 같은 구조화된 텍스트 형식으로 변환합니다. 이미지 내 텍스트를 정확하게 인식하여 문서 디지털화, 텍스트 추출, 구조화 처리에 적합합니다.", "deepseek-r1-0528.description": "2025년 5월 28일에 공개된 685B 전체 모델입니다. DeepSeek-R1은 사후 학습에서 대규모 강화 학습을 활용하여 소량의 라벨 데이터로도 추론 능력을 크게 향상시켰으며, 수학, 코딩, 자연어 추론에서 뛰어난 성능을 보입니다.", "deepseek-r1-250528.description": "DeepSeek R1 250528은 고난도 수학 및 논리 작업을 위한 DeepSeek-R1 전체 추론 모델입니다.", @@ -383,9 +382,37 @@ "deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.", "deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.", "deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술적 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.", + "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus는 터미널 장치에 최적화된 DeepSeek의 LLM으로, 터미널 환경에 맞춰 설계되었습니다.", + "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821은 Terminus 버전에 대응하는 심층 사고 모델로, 고성능 추론을 위해 구축되었습니다.", + "deepseek-v3.1.description": "DeepSeek-V3.1은 DeepSeek의 새로운 하이브리드 추론 모델로, 사고 모드와 비사고 모드를 모두 지원하며, DeepSeek-R1-0528보다 더 높은 사고 효율을 제공합니다. 사후 학습 최적화를 통해 에이전트 도구 사용 및 작업 수행 능력이 크게 향상되었습니다. 128k 컨텍스트 윈도우와 최대 64k 출력 토큰을 지원합니다.", + "deepseek-v3.1:671b.description": "DeepSeek V3.1은 복잡한 추론과 연쇄 사고 능력이 향상된 차세대 추론 모델로, 심층 분석이 필요한 작업에 적합합니다.", + "deepseek-v3.2-exp.description": "deepseek-v3.2-exp는 희소 어텐션(sparse attention)을 도입하여 긴 텍스트에 대한 학습 및 추론 효율을 개선하였으며, deepseek-v3.1보다 저렴한 가격으로 제공됩니다.", + "deepseek-v3.2-think.description": "DeepSeek V3.2 Think는 장기 연쇄 추론 능력이 강화된 완전 심층 사고 모델입니다.", + "deepseek-v3.2.description": "DeepSeek-V3.2는 DeepSeek가 출시한 최초의 도구 사용에 사고를 통합한 하이브리드 추론 모델로, 효율적인 아키텍처로 연산 자원을 절약하고, 대규모 강화 학습으로 능력을 향상시키며, 대규모 합성 작업 데이터를 통해 일반화 성능을 강화합니다. 이 세 가지 요소의 결합으로 GPT-5-High에 필적하는 성능을 제공하며, 출력 길이를 대폭 줄여 계산 비용과 사용자 대기 시간을 현저히 감소시켰습니다.", "deepseek-v3.description": "DeepSeek-V3는 총 671B 파라미터 중 토큰당 37B가 활성화되는 강력한 MoE 모델입니다.", "deepseek-vl2-small.description": "DeepSeek VL2 Small은 자원이 제한되거나 동시 접속이 많은 환경을 위한 경량 멀티모달 버전입니다.", "deepseek-vl2.description": "DeepSeek VL2는 이미지-텍스트 이해와 정밀한 시각적 질의응답에 특화된 멀티모달 모델입니다.", + "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3는 685B 파라미터를 가진 MoE 모델로, DeepSeek의 대표 챗봇 시리즈의 최신 버전입니다.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3)를 기반으로 다양한 작업에서 뛰어난 성능을 발휘합니다.", + "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3는 685B 파라미터를 가진 MoE 모델로, DeepSeek의 대표 챗봇 시리즈의 최신 버전입니다.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3)를 기반으로 다양한 작업에서 뛰어난 성능을 발휘합니다.", + "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1은 DeepSeek의 장문 컨텍스트 하이브리드 추론 모델로, 사고/비사고 모드 전환과 도구 통합을 지원합니다.", + "deepseek/deepseek-chat.description": "DeepSeek-V3는 복잡한 작업과 도구 통합을 위한 DeepSeek의 고성능 하이브리드 추론 모델입니다.", + "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528은 공개 사용성과 심층 추론에 중점을 둔 업데이트 버전입니다.", + "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1은 최소한의 라벨링 데이터로도 추론 능력을 크게 향상시키며, 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.", + "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B는 Llama 3.3 70B를 기반으로 DeepSeek R1의 출력으로 파인튜닝된 디스틸 LLM으로, 대형 최첨단 모델과 경쟁할 수 있는 성능을 제공합니다.", + "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B는 Llama-3.1-8B-Instruct를 기반으로 DeepSeek R1의 출력으로 학습된 디스틸 LLM입니다.", + "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B는 Qwen 2.5 14B를 기반으로 DeepSeek R1의 출력으로 학습된 디스틸 LLM입니다. OpenAI o1-mini를 여러 벤치마크에서 능가하며, 밀집 모델 중 최고 성능을 기록합니다. 주요 벤치마크:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nDeepSeek R1 출력으로 파인튜닝하여 대형 모델과 경쟁 가능한 성능을 제공합니다.", + "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B는 Qwen 2.5 32B를 기반으로 DeepSeek R1의 출력으로 학습된 디스틸 LLM입니다. OpenAI o1-mini를 여러 벤치마크에서 능가하며, 밀집 모델 중 최고 성능을 기록합니다. 주요 벤치마크:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nDeepSeek R1 출력으로 파인튜닝하여 대형 모델과 경쟁 가능한 성능을 제공합니다.", + "deepseek/deepseek-r1.description": "DeepSeek R1은 DeepSeek-R1-0528로 업데이트되었습니다. 더 많은 연산 자원과 사후 학습 알고리즘 최적화를 통해 추론 깊이와 능력이 크게 향상되었습니다. 수학, 프로그래밍, 일반 논리 벤치마크에서 뛰어난 성능을 보이며, o3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다.", + "deepseek/deepseek-r1/community.description": "DeepSeek R1은 DeepSeek 팀이 공개한 최신 오픈소스 모델로, 수학, 코딩, 추론 작업에서 매우 강력한 성능을 발휘하며, OpenAI o1과 견줄 수 있습니다.", + "deepseek/deepseek-r1:free.description": "DeepSeek-R1은 최소한의 라벨링 데이터로도 추론 능력을 크게 향상시키며, 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.", + "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner)은 DeepSeek의 실험적 추론 모델로, 고난도 복잡 추론 작업에 적합합니다.", + "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base는 DeepSeek V3 모델의 개선 버전입니다.", + "deepseek/deepseek-v3.description": "추론 능력이 향상된 고속 범용 LLM입니다.", + "deepseek/deepseek-v3/community.description": "DeepSeek-V3는 이전 모델 대비 추론 속도에서 획기적인 발전을 이루었습니다. 오픈소스 모델 중 1위를 기록하며, 최고 수준의 폐쇄형 모델과 경쟁합니다. DeepSeek-V3는 DeepSeek-V2에서 검증된 Multi-Head Latent Attention (MLA)과 DeepSeekMoE 아키텍처를 채택하였으며, 부하 균형을 위한 무손실 보조 전략과 다중 토큰 예측 학습 목표를 도입하여 성능을 강화했습니다.", + "deepseek_r1.description": "DeepSeek-R1은 반복성과 가독성 문제를 해결하기 위해 강화 학습 기반으로 설계된 추론 모델입니다. RL 이전에는 cold-start 데이터를 활용하여 추론 성능을 더욱 향상시킵니다. 수학, 코딩, 추론 작업에서 OpenAI-o1과 대등한 성능을 보이며, 정교한 학습 설계로 전반적인 결과를 개선합니다.", + "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B는 Llama-3.3-70B-Instruct에서 디스틸된 모델로, DeepSeek-R1 시리즈의 일부입니다. DeepSeek-R1이 생성한 샘플로 파인튜닝되어 수학, 코딩, 추론에서 뛰어난 성능을 발휘합니다.", + "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B는 Qwen2.5-14B에서 디스틸되었으며, DeepSeek-R1이 생성한 80만 개의 정제된 샘플로 파인튜닝되어 강력한 추론 능력을 제공합니다.", + "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B에서 디스틸되었으며, DeepSeek-R1이 생성한 80만 개의 정제된 샘플로 파인튜닝되어 수학, 코딩, 추론에서 탁월한 성능을 발휘합니다.", "gemini-flash-latest.description": "Gemini Flash 최신 버전", "gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전", "gemini-pro-latest.description": "Gemini Pro 최신 버전", diff --git a/locales/ko-KR/plugin.json b/locales/ko-KR/plugin.json index 2a45bc69e7..589804cb27 100644 --- a/locales/ko-KR/plugin.json +++ b/locales/ko-KR/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "사용자 정의", "loading.content": "기능 호출 중...", "loading.plugin": "기능 실행 중...", + "localSystem.workingDirectory.agentDescription": "이 에이전트와의 모든 대화에 대한 기본 작업 디렉터리입니다", + "localSystem.workingDirectory.agentLevel": "에이전트 작업 디렉터리", + "localSystem.workingDirectory.current": "현재 작업 디렉터리", + "localSystem.workingDirectory.notSet": "작업 디렉터리를 설정하려면 클릭하세요", + "localSystem.workingDirectory.placeholder": "디렉터리 경로를 입력하세요. 예: /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "폴더 선택", + "localSystem.workingDirectory.title": "작업 디렉터리", + "localSystem.workingDirectory.topicDescription": "이 대화에만 적용되는 에이전트 기본값 재정의", + "localSystem.workingDirectory.topicLevel": "대화 재정의", + "localSystem.workingDirectory.topicOverride": "이 대화에 대한 재정의", "mcpEmpty.deployment": "배포 옵션이 없습니다.", "mcpEmpty.prompts": "이 기능에는 프롬프트가 없습니다.", "mcpEmpty.resources": "이 기능에는 리소스가 없습니다.", diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index db885d5f73..18959a6336 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -250,6 +250,54 @@ "anthropic/claude-opus-4.description": "Opus 4 is het vlaggenschipmodel van Anthropic, ontworpen voor complexe taken en zakelijke toepassingen.", "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 is het nieuwste hybride redeneermodel van Anthropic, geoptimaliseerd voor complexe redenering en programmeren.", "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 is het hybride redeneermodel van Anthropic met een combinatie van denk- en niet-denkvermogen.", + "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B is een gespreid LLM met 72 miljard totale en 16 miljard actieve parameters, gebaseerd op een gegroepeerde MoE (MoGE) architectuur. Het groepeert experts tijdens selectie en zorgt ervoor dat tokens een gelijk aantal experts per groep activeren, wat de belasting balanceert en de implementatie-efficiëntie op Ascend verbetert.", + "aya.description": "Aya 23 is Cohere’s meertalige model dat 23 talen ondersteunt voor uiteenlopende toepassingen.", + "aya:35b.description": "Aya 23 is Cohere’s meertalige model dat 23 talen ondersteunt voor uiteenlopende toepassingen.", + "azure-DeepSeek-R1-0528.description": "Ingezet door Microsoft; DeepSeek R1 is geüpgraded naar DeepSeek-R1-0528. De update verhoogt de rekenkracht en optimaliseert de algoritmes na training, wat de diepgang van redeneren en inferentie aanzienlijk verbetert. Het presteert sterk op benchmarks voor wiskunde, programmeren en algemene logica, en benadert toonaangevende modellen zoals O3 en Gemini 2.5 Pro.", + "baichuan-m2-32b.description": "Baichuan M2 32B is een MoE-model van Baichuan Intelligence met sterke redeneercapaciteiten.", + "baichuan/baichuan2-13b-chat.description": "Baichuan-13B is een open-source, commercieel bruikbaar LLM met 13 miljard parameters van Baichuan, dat toonaangevende resultaten behaalt voor zijn grootte op gezaghebbende Chinese en Engelse benchmarks.", + "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B is een MoE LLM van Baidu met 300 miljard totale parameters en 47 miljard actieve per token, wat sterke prestaties combineert met reken-efficiëntie. Als kernmodel van ERNIE 4.5 blinkt het uit in begrip, generatie, redeneren en programmeren. Het gebruikt een multimodale heterogene MoE pretraining met gecombineerde tekst-beeld training om de algehele capaciteit te versterken, vooral in instructievolging en wereldkennis.", + "baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview is Baidu’s volgende generatie native multimodale ERNIE-model, sterk in multimodaal begrip, instructievolging, creatie, feitelijke Q&A en toolgebruik.", + "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro is een snellere, verbeterde versie van FLUX Pro met uitstekende beeldkwaliteit en nauwkeurige promptvolging.", + "black-forest-labs/flux-dev.description": "FLUX Dev is de ontwikkelversie van FLUX voor niet-commercieel gebruik.", + "black-forest-labs/flux-pro.description": "FLUX Pro is het professionele FLUX-model voor hoogwaardige beeldgeneratie.", + "black-forest-labs/flux-schnell.description": "FLUX Schnell is een snel beeldgeneratiemodel geoptimaliseerd voor snelheid.", + "c4ai-aya-expanse-32b.description": "Aya Expanse is een krachtig meertalig model met 32 miljard parameters dat gebruikmaakt van instructietuning, data-arbitrage, voorkeurstraining en modelfusie om te concurreren met eentalige modellen. Het ondersteunt 23 talen.", + "c4ai-aya-expanse-8b.description": "Aya Expanse is een krachtig meertalig model met 8 miljard parameters dat gebruikmaakt van instructietuning, data-arbitrage, voorkeurstraining en modelfusie om te concurreren met eentalige modellen. Het ondersteunt 23 talen.", + "c4ai-aya-vision-32b.description": "Aya Vision is een geavanceerd multimodaal model dat sterk presteert op belangrijke benchmarks voor taal, tekst en beeld. Het ondersteunt 23 talen. Deze 32B-versie richt zich op topprestaties in meertalige contexten.", + "c4ai-aya-vision-8b.description": "Aya Vision is een geavanceerd multimodaal model dat sterk presteert op belangrijke benchmarks voor taal, tekst en beeld. Deze 8B-versie is geoptimaliseerd voor lage latentie en sterke prestaties.", + "charglm-3.description": "CharGLM-3 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.", + "charglm-4.description": "CharGLM-4 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.", + "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.", + "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.", + "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku presteert het beter op meerdere vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentiebenchmarks.", + "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor de gebruiker. Sonnet blinkt uit in codering, datawetenschap, visuele taken en agenttoepassingen.", + "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.", + "claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.", + "claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.", + "claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en uitgebreide redeneercapaciteiten.", + "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.", + "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.", + "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.", + "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.", + "codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.", + "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.", + "codegemma.description": "CodeGemma is een lichtgewicht model voor diverse programmeertaken, dat snelle iteratie en integratie mogelijk maakt.", + "codegemma:2b.description": "CodeGemma is een lichtgewicht model voor diverse programmeertaken, dat snelle iteratie en integratie mogelijk maakt.", + "codellama.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.", + "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.", + "codellama:13b.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.", + "codellama:34b.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.", + "codellama:70b.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.", + "codeqwen.description": "CodeQwen1.5 is een groot taalmodel getraind op uitgebreide codegegevens, ontworpen voor complexe programmeertaken.", + "codestral-latest.description": "Codestral is ons meest geavanceerde codemodel; versie 2 (jan 2025) is gericht op taken met lage latentie en hoge frequentie zoals FIM, codecorrectie en testgeneratie.", + "codestral.description": "Codestral is het eerste codemodel van Mistral AI, met sterke ondersteuning voor codegeneratie.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.", diff --git a/locales/nl-NL/plugin.json b/locales/nl-NL/plugin.json index 482a271537..188e8280a0 100644 --- a/locales/nl-NL/plugin.json +++ b/locales/nl-NL/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Aangepast", "loading.content": "Skill wordt aangeroepen…", "loading.plugin": "Skill wordt uitgevoerd…", + "localSystem.workingDirectory.agentDescription": "Standaard werkmap voor alle gesprekken met deze Agent", + "localSystem.workingDirectory.agentLevel": "Agent-werkmap", + "localSystem.workingDirectory.current": "Huidige werkmap", + "localSystem.workingDirectory.notSet": "Klik om werkmap in te stellen", + "localSystem.workingDirectory.placeholder": "Voer het pad naar de map in, bijv. /Users/naam/projecten", + "localSystem.workingDirectory.selectFolder": "Map selecteren", + "localSystem.workingDirectory.title": "Werkmap", + "localSystem.workingDirectory.topicDescription": "Overschrijf de standaardinstelling van de Agent alleen voor dit gesprek", + "localSystem.workingDirectory.topicLevel": "Gespreksspecifieke overschrijving", + "localSystem.workingDirectory.topicOverride": "Overschrijving voor dit gesprek", "mcpEmpty.deployment": "Geen implementatieopties", "mcpEmpty.prompts": "Geen prompts", "mcpEmpty.resources": "Geen bronnen", diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index f9fc3e0edf..1261b3caac 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -218,6 +218,38 @@ "accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 to seria modeli językowych typu decoder-only opracowana przez zespół Qwen i Alibaba Cloud, dostępna w rozmiarach 0.5B, 1.5B, 3B, 7B, 14B, 32B i 72B, zarówno w wersjach bazowych, jak i dostrojonych do instrukcji.", "accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder to najnowszy model językowy Qwen zaprojektowany do programowania (wcześniej CodeQwen). Uwaga: model ten jest obecnie udostępniany eksperymentalnie jako model bezserwerowy. W przypadku zastosowań produkcyjnych należy pamiętać, że Fireworks może wycofać wdrożenie w krótkim czasie.", "accounts/yi-01-ai/models/yi-large.description": "Yi-Large to najwyższej klasy model językowy, który plasuje się tuż za GPT-4, Gemini 1.5 Pro i Claude 3 Opus w rankingu LMSYS. Wyróżnia się zdolnościami wielojęzycznymi, szczególnie w językach hiszpańskim, chińskim, japońskim, niemieckim i francuskim. Yi-Large jest również przyjazny dla programistów, korzystając z tego samego schematu API co OpenAI, co ułatwia integrację.", + "ai21-jamba-1.5-large.description": "Wielojęzyczny model z 398 miliardami parametrów (94 miliardy aktywnych), oferujący okno kontekstowe 256K, wywoływanie funkcji, uporządkowane dane wyjściowe i generowanie oparte na faktach.", + "ai21-jamba-1.5-mini.description": "Wielojęzyczny model z 52 miliardami parametrów (12 miliardów aktywnych), oferujący okno kontekstowe 256K, wywoływanie funkcji, uporządkowane dane wyjściowe i generowanie oparte na faktach.", + "ai21-labs/AI21-Jamba-1.5-Large.description": "Wielojęzyczny model z 398 miliardami parametrów (94 miliardy aktywnych), oferujący okno kontekstowe 256K, wywoływanie funkcji, uporządkowane dane wyjściowe i generowanie oparte na faktach.", + "ai21-labs/AI21-Jamba-1.5-Mini.description": "Wielojęzyczny model z 52 miliardami parametrów (12 miliardów aktywnych), oferujący okno kontekstowe 256K, wywoływanie funkcji, uporządkowane dane wyjściowe i generowanie oparte na faktach.", + "alibaba/qwen-3-14b.description": "Qwen3 to najnowsza generacja w serii Qwen, oferująca kompleksowy zestaw modeli gęstych i MoE. Dzięki zaawansowanemu treningowi model osiąga przełomowe wyniki w rozumowaniu, podążaniu za instrukcjami, zdolnościach agentowych i obsłudze wielu języków.", + "alibaba/qwen-3-235b.description": "Qwen3 to najnowsza generacja w serii Qwen, oferująca kompleksowy zestaw modeli gęstych i MoE. Dzięki zaawansowanemu treningowi model osiąga przełomowe wyniki w rozumowaniu, podążaniu za instrukcjami, zdolnościach agentowych i obsłudze wielu języków.", + "alibaba/qwen-3-30b.description": "Qwen3 to najnowsza generacja w serii Qwen, oferująca kompleksowy zestaw modeli gęstych i MoE. Dzięki zaawansowanemu treningowi model osiąga przełomowe wyniki w rozumowaniu, podążaniu za instrukcjami, zdolnościach agentowych i obsłudze wielu języków.", + "alibaba/qwen-3-32b.description": "Qwen3 to najnowsza generacja w serii Qwen, oferująca kompleksowy zestaw modeli gęstych i MoE. Dzięki zaawansowanemu treningowi model osiąga przełomowe wyniki w rozumowaniu, podążaniu za instrukcjami, zdolnościach agentowych i obsłudze wielu języków.", + "alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct to najbardziej zaawansowany model kodujący Qwen, osiągający wysokie wyniki w kodowaniu agentowym, korzystaniu z przeglądarki i innych kluczowych zadaniach programistycznych, dorównując poziomowi Claude Sonnet.", + "amazon/nova-lite.description": "Bardzo tani model multimodalny o wyjątkowo szybkim przetwarzaniu obrazów, wideo i tekstu.", + "amazon/nova-micro.description": "Model tekstowy oferujący ultra-niskie opóźnienia przy bardzo niskim koszcie.", + "amazon/nova-pro.description": "Wysoce wydajny model multimodalny zapewniający najlepszy balans między dokładnością, szybkością i kosztem w szerokim zakresie zadań.", + "amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 to lekki, wydajny model osadzania tekstu obsługujący wiele języków i oferujący wymiary 1024, 512 i 256.", + "anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet ustanawia nowy standard branżowy, przewyższając konkurencję i Claude 3 Opus w szerokich testach, zachowując przy tym średni poziom kosztów i szybkości.", + "anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet ustanawia nowy standard branżowy, przewyższając konkurencję i Claude 3 Opus w szerokich testach, zachowując przy tym średni poziom kosztów i szybkości.", + "anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model Anthropic, zapewniający niemal natychmiastowe odpowiedzi na proste zapytania. Umożliwia płynne, naturalne interakcje z AI i obsługuje wejście obrazowe z oknem kontekstowym 200K.", + "anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus to najpotężniejszy model AI od Anthropic, oferujący najwyższy poziom wydajności w złożonych zadaniach. Radzi sobie z otwartymi zapytaniami i nowymi scenariuszami z wyjątkową płynnością i zrozumieniem na poziomie ludzkim, obsługując wejście obrazowe z oknem kontekstowym 200K.", + "anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla zastosowań korporacyjnych, oferując wysoką wartość przy niższych kosztach. Zaprojektowany jako niezawodny model do wdrożeń na dużą skalę, obsługuje wejście obrazowe z oknem kontekstowym 200K.", + "anthropic.claude-instant-v1.description": "Szybki, ekonomiczny, a jednocześnie wydajny model do codziennych rozmów, analizy tekstu, podsumowań i pytań do dokumentów.", + "anthropic.claude-v2.description": "Wysoce wydajny model do zadań od złożonego dialogu i kreatywnego generowania po szczegółowe podążanie za instrukcjami.", + "anthropic.claude-v2:1.description": "Zaktualizowany Claude 2 z podwojonym oknem kontekstowym i poprawioną niezawodnością, mniejszą halucynacją i większą dokładnością opartą na dowodach dla długich dokumentów i RAG.", + "anthropic/claude-3-haiku.description": "Claude 3 Haiku to najszybszy model Anthropic, zaprojektowany do zastosowań korporacyjnych z dłuższymi zapytaniami. Szybko analizuje duże dokumenty, takie jak raporty kwartalne, umowy czy sprawy prawne, przy połowie kosztów konkurencji.", + "anthropic/claude-3-opus.description": "Claude 3 Opus to najbardziej inteligentny model Anthropic z wiodącą wydajnością w złożonych zadaniach, radzący sobie z otwartymi zapytaniami i nowymi scenariuszami z wyjątkową płynnością i zrozumieniem na poziomie ludzkim.", + "anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku oferuje zwiększoną szybkość, dokładność kodowania i obsługę narzędzi, odpowiedni do scenariuszy wymagających szybkiej interakcji i integracji z narzędziami.", + "anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet to szybki, wydajny model z rodziny Sonnet, oferujący lepsze kodowanie i rozumowanie, z niektórymi wersjami stopniowo zastępowanymi przez Sonnet 3.7 i nowsze.", + "anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet to ulepszony model Sonnet z silniejszym rozumowaniem i kodowaniem, odpowiedni do złożonych zadań na poziomie korporacyjnym.", + "anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 to szybki model o wysokiej wydajności od Anthropic, oferujący bardzo niskie opóźnienia przy zachowaniu wysokiej dokładności.", + "anthropic/claude-opus-4.1.description": "Opus 4.1 to zaawansowany model Anthropic zoptymalizowany pod kątem programowania, złożonego rozumowania i długotrwałych zadań.", + "anthropic/claude-opus-4.5.description": "Claude Opus 4.5 to flagowy model Anthropic, łączący najwyższą inteligencję z możliwością skalowania dla złożonych zadań wymagających wysokiej jakości rozumowania.", + "anthropic/claude-opus-4.description": "Opus 4 to flagowy model Anthropic zaprojektowany do złożonych zadań i zastosowań korporacyjnych.", + "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 to najnowszy hybrydowy model rozumowania od Anthropic, zoptymalizowany pod kątem złożonego rozumowania i kodowania.", + "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 to hybrydowy model rozumowania Anthropic z mieszanym trybem myślenia i działania bez myślenia.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.", diff --git a/locales/pl-PL/plugin.json b/locales/pl-PL/plugin.json index ec98398fb8..191d1bd260 100644 --- a/locales/pl-PL/plugin.json +++ b/locales/pl-PL/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Niestandardowa", "loading.content": "Wywoływanie umiejętności…", "loading.plugin": "Umiejętność działa…", + "localSystem.workingDirectory.agentDescription": "Domyślny katalog roboczy dla wszystkich rozmów z tym Agentem", + "localSystem.workingDirectory.agentLevel": "Katalog roboczy Agenta", + "localSystem.workingDirectory.current": "Bieżący katalog roboczy", + "localSystem.workingDirectory.notSet": "Kliknij, aby ustawić katalog roboczy", + "localSystem.workingDirectory.placeholder": "Wprowadź ścieżkę katalogu, np. /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "Wybierz folder", + "localSystem.workingDirectory.title": "Katalog roboczy", + "localSystem.workingDirectory.topicDescription": "Zastąp domyślny katalog Agenta tylko dla tej rozmowy", + "localSystem.workingDirectory.topicLevel": "Zastąpienie w rozmowie", + "localSystem.workingDirectory.topicOverride": "Zastąpienie dla tej rozmowy", "mcpEmpty.deployment": "Brak opcji wdrożenia", "mcpEmpty.prompts": "Brak promptów", "mcpEmpty.resources": "Brak zasobów", diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 5d12d8ad49..f1ac5fb22f 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -335,6 +335,53 @@ "computer-use-preview.description": "computer-use-preview é um modelo especializado para a ferramenta \"uso de computador\", treinado para compreender e executar tarefas relacionadas ao uso de computadores.", "dall-e-2.description": "Modelo DALL·E de segunda geração com geração de imagens mais realista e precisa, e resolução 4× maior que a da primeira geração.", "dall-e-3.description": "O modelo DALL·E mais recente, lançado em novembro de 2023, oferece geração de imagens mais realista e precisa, com maior riqueza de detalhes.", + "databricks/dbrx-instruct.description": "DBRX Instruct oferece manipulação de instruções altamente confiável em diversos setores.", + "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR é um modelo de visão e linguagem da DeepSeek AI focado em OCR e \"compressão óptica contextual\". Ele explora a compressão de contexto a partir de imagens, processa documentos de forma eficiente e os converte em texto estruturado (por exemplo, Markdown). Reconhece texto em imagens com precisão, sendo ideal para digitalização de documentos, extração de texto e processamento estruturado.", + "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B destila o raciocínio em cadeia do DeepSeek-R1-0528 no Qwen3 8B Base. Alcança o estado da arte entre os modelos abertos, superando o Qwen3 8B em 10% no AIME 2024 e igualando o desempenho do Qwen3-235B-thinking. Destaca-se em raciocínio matemático, programação e benchmarks de lógica geral. Compartilha a arquitetura do Qwen3-8B, mas utiliza o tokenizador do DeepSeek-R1-0528.", + "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 aproveita maior capacidade computacional e otimizações algorítmicas pós-treinamento para aprofundar o raciocínio. Apresenta desempenho sólido em benchmarks de matemática, programação e lógica geral, aproximando-se de líderes como o o3 e o Gemini 2.5 Pro.", + "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Os modelos destilados DeepSeek-R1 utilizam aprendizado por reforço (RL) e dados de início a frio para melhorar o raciocínio e estabelecer novos benchmarks multitarefa entre modelos abertos.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Os modelos destilados DeepSeek-R1 utilizam aprendizado por reforço (RL) e dados de início a frio para melhorar o raciocínio e estabelecer novos benchmarks multitarefa entre modelos abertos.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Os modelos destilados DeepSeek-R1 utilizam aprendizado por reforço (RL) e dados de início a frio para melhorar o raciocínio e estabelecer novos benchmarks multitarefa entre modelos abertos.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B é destilado do Qwen2.5-32B e ajustado com 800 mil amostras selecionadas do DeepSeek-R1. Destaca-se em matemática, programação e raciocínio, alcançando resultados expressivos no AIME 2024, MATH-500 (94,3% de acerto) e GPQA Diamond.", + "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B é destilado do Qwen2.5-Math-7B e ajustado com 800 mil amostras selecionadas do DeepSeek-R1. Apresenta desempenho sólido, com 92,8% no MATH-500, 55,5% no AIME 2024 e uma pontuação de 1189 no CodeForces para um modelo de 7B.", + "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 melhora o raciocínio com aprendizado por reforço e dados de início a frio, estabelecendo novos benchmarks multitarefa entre modelos abertos e superando o OpenAI-o1-mini.", + "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 atualiza os modelos DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct, combinando habilidades gerais e de programação. Melhora a escrita e o seguimento de instruções para melhor alinhamento com preferências, com ganhos significativos no AlpacaEval 2.0, ArenaHard, AlignBench e MT-Bench.", + "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus é uma versão atualizada do modelo V3.1, posicionado como um agente híbrido LLM. Corrige problemas relatados por usuários e melhora a estabilidade, consistência linguística e reduz caracteres anormais e mistura de chinês/inglês. Integra modos de pensamento e não-pensamento com templates de chat para alternância flexível. Também aprimora o desempenho dos agentes de código e busca para uso mais confiável de ferramentas e tarefas em múltiplas etapas.", + "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 utiliza uma arquitetura híbrida de raciocínio e suporta modos de pensamento e não-pensamento.", + "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp é uma versão experimental da arquitetura V3.2 que faz a ponte para a próxima geração. Adiciona DeepSeek Sparse Attention (DSA) sobre o V3.1-Terminus para melhorar o treinamento e inferência em contextos longos, com otimizações para uso de ferramentas, compreensão de documentos extensos e raciocínio em múltiplas etapas. Ideal para explorar maior eficiência de raciocínio com orçamentos de contexto amplos.", + "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 é um modelo MoE com 671 bilhões de parâmetros que utiliza MLA e DeepSeekMoE com balanceamento de carga sem perdas para treinamento e inferência eficientes. Pré-treinado com 14,8 trilhões de tokens de alta qualidade, com SFT e RL, supera outros modelos abertos e se aproxima dos modelos fechados líderes.", + "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) é um modelo inovador que oferece compreensão profunda da linguagem e interação.", + "deepseek-ai/deepseek-r1.description": "Um modelo de linguagem eficiente de última geração com forte desempenho em raciocínio, matemática e programação.", + "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.", + "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.", + "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.", + "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Preserva o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programação, com melhor alinhamento de preferências. DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.", + "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento no meio, oferecendo preenchimento de código em nível de projeto e inserção de trechos.", + "deepseek-coder-v2.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.", + "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.", + "deepseek-ocr.description": "DeepSeek-OCR é um modelo de visão e linguagem da DeepSeek AI focado em OCR e \"compressão óptica contextual\". Ele explora a compressão de informações contextuais a partir de imagens, processa documentos de forma eficiente e os converte em formatos de texto estruturado como Markdown. Reconhece texto em imagens com precisão, sendo ideal para digitalização de documentos, extração de texto e processamento estruturado.", + "deepseek-r1-0528.description": "Modelo completo de 685B lançado em 28/05/2025. DeepSeek-R1 utiliza aprendizado por reforço em larga escala no pós-treinamento, melhorando significativamente o raciocínio com dados rotulados mínimos, com desempenho forte em matemática, programação e raciocínio em linguagem natural.", + "deepseek-r1-250528.description": "DeepSeek R1 250528 é o modelo completo de raciocínio DeepSeek-R1 para tarefas complexas de matemática e lógica.", + "deepseek-r1-70b-fast-online.description": "Edição rápida do DeepSeek R1 70B com busca em tempo real na web, oferecendo respostas mais rápidas sem comprometer o desempenho.", + "deepseek-r1-70b-online.description": "Edição padrão do DeepSeek R1 70B com busca em tempo real na web, ideal para tarefas de chat e texto atualizadas.", + "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B combina o raciocínio do R1 com o ecossistema Llama.", + "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B é destilado do Llama-3.1-8B usando saídas do DeepSeek R1.", + "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama é destilado do DeepSeek-R1 sobre o Llama.", + "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B é uma destilação do R1 baseada no Qianfan-70B com alto valor.", + "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B é uma destilação do R1 baseada no Qianfan-8B para aplicações pequenas e médias.", + "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B é uma destilação do R1 baseada no Llama-70B.", + "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B é um modelo de destilação ultraleve para ambientes com recursos muito limitados.", + "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B é um modelo de destilação de porte médio para implantação em múltiplos cenários.", + "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B é uma destilação do R1 baseada no Qwen-32B, equilibrando desempenho e custo.", + "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B é um modelo de destilação leve para ambientes de borda e empresas privadas.", + "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen é destilado do DeepSeek-R1 sobre o Qwen.", + "deepseek-r1-fast-online.description": "Versão completa rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.", + "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.", + "deepseek-r1.description": "DeepSeek-R1 utiliza dados de início a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.", + "deepseek-reasoner.description": "O modo de pensamento do DeepSeek V3.2 gera uma cadeia de raciocínio antes da resposta final para melhorar a precisão.", + "deepseek-v2.description": "DeepSeek V2 é um modelo MoE eficiente para processamento econômico.", + "deepseek-v2:236b.description": "DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.", + "deepseek-v3-0324.description": "DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.", "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.", "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.", "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.", diff --git a/locales/pt-BR/plugin.json b/locales/pt-BR/plugin.json index 1658bdd441..b38384378b 100644 --- a/locales/pt-BR/plugin.json +++ b/locales/pt-BR/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Personalizada", "loading.content": "Chamando Skill…", "loading.plugin": "Skill em execução…", + "localSystem.workingDirectory.agentDescription": "Diretório de trabalho padrão para todas as conversas com este Agente", + "localSystem.workingDirectory.agentLevel": "Diretório de Trabalho do Agente", + "localSystem.workingDirectory.current": "Diretório de trabalho atual", + "localSystem.workingDirectory.notSet": "Clique para definir o diretório de trabalho", + "localSystem.workingDirectory.placeholder": "Insira o caminho do diretório, ex: /Users/nome/projetos", + "localSystem.workingDirectory.selectFolder": "Selecionar pasta", + "localSystem.workingDirectory.title": "Diretório de Trabalho", + "localSystem.workingDirectory.topicDescription": "Substituir o padrão do Agente apenas para esta conversa", + "localSystem.workingDirectory.topicLevel": "Substituição na conversa", + "localSystem.workingDirectory.topicOverride": "Substituição para esta conversa", "mcpEmpty.deployment": "Sem opções de implantação", "mcpEmpty.prompts": "Sem prompts", "mcpEmpty.resources": "Sem recursos", diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index a93bf6ba21..235d7468ac 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -364,6 +364,55 @@ "deepseek-r1-250528.description": "DeepSeek R1 250528 — полная модель рассуждений DeepSeek-R1 для сложных математических и логических задач.", "deepseek-r1-70b-fast-online.description": "Быстрая версия DeepSeek R1 70B с поддержкой веб-поиска в реальном времени, обеспечивающая более быстрые ответы при сохранении производительности.", "deepseek-r1-70b-online.description": "Стандартная версия DeepSeek R1 70B с поддержкой веб-поиска в реальном времени, подходящая для актуальных диалогов и текстовых задач.", + "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B сочетает в себе возможности R1 рассуждений с экосистемой Llama.", + "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B — это дистиллированная модель на основе Llama-3.1-8B, обученная с использованием выходных данных DeepSeek R1.", + "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama — дистиллированная модель DeepSeek-R1 на базе Llama.", + "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B — это дистиллированная модель R1 на основе Qianfan-70B с высокой ценностью.", + "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B — дистиллированная модель R1 на базе Qianfan-8B, предназначенная для малых и средних приложений.", + "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B — дистиллированная модель R1 на основе Llama-70B.", + "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B — сверхлёгкая дистиллированная модель для сред с очень ограниченными ресурсами.", + "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B — дистиллированная модель среднего размера для многосценарного развертывания.", + "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B — дистиллированная модель R1 на базе Qwen-32B, обеспечивающая баланс между производительностью и стоимостью.", + "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B — лёгкая дистиллированная модель для периферийных и корпоративных сред с повышенной конфиденциальностью.", + "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen — дистиллированная модель DeepSeek-R1 на базе Qwen.", + "deepseek-r1-fast-online.description": "Полная версия DeepSeek R1 с быстрым откликом и поиском в реальном времени, сочетающая возможности масштаба 671B и высокую скорость.", + "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671 миллиардами параметров и поиском в реальном времени, обеспечивающая улучшенное понимание и генерацию.", + "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа обучения с подкреплением и демонстрирует сопоставимую с OpenAI-o1 производительность в задачах математики, программирования и логического вывода.", + "deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.", + "deepseek-v2.description": "DeepSeek V2 — это эффективная модель MoE для экономичной обработки данных.", + "deepseek-v2:236b.description": "DeepSeek V2 236B — модель, ориентированная на программирование, с высокой способностью к генерации кода.", + "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671 миллиардами параметров, обладающая выдающимися возможностями в программировании, техническом анализе, понимании контекста и работе с длинными текстами.", + "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus — оптимизированная для терминальных устройств LLM-модель от DeepSeek.", + "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 — модель глубокого мышления, соответствующая версии Terminus, предназначенная для высокоэффективного логического вывода.", + "deepseek-v3.1.description": "DeepSeek-V3.1 — гибридная модель рассуждений нового поколения от DeepSeek, поддерживающая режимы с мышлением и без, обеспечивая более высокую эффективность мышления по сравнению с DeepSeek-R1-0528. Оптимизации после обучения значительно улучшают использование инструментов агентами и выполнение задач. Поддерживает окно контекста до 128k и до 64k выходных токенов.", + "deepseek-v3.1:671b.description": "DeepSeek V3.1 — модель следующего поколения для сложных рассуждений и цепочек логических выводов, подходящая для задач, требующих глубокого анализа.", + "deepseek-v3.2-exp.description": "deepseek-v3.2-exp внедряет разреженное внимание для повышения эффективности обучения и вывода на длинных текстах, предлагая более низкую цену по сравнению с deepseek-v3.1.", + "deepseek-v3.2-think.description": "DeepSeek V3.2 Think — полноценная модель глубокого мышления с усиленными возможностями длинных логических цепочек.", + "deepseek-v3.2.description": "DeepSeek-V3.2 — первая гибридная модель рассуждений от DeepSeek, объединяющая мышление с использованием инструментов. Эффективная архитектура снижает потребление ресурсов, масштабное обучение с подкреплением повышает способности, а синтетические данные задач обеспечивают сильную обобщаемость. В совокупности модель демонстрирует производительность, сопоставимую с GPT-5-High, при этом значительно снижая вычислительные затраты и время ожидания пользователя.", + "deepseek-v3.description": "DeepSeek-V3 — мощная модель MoE с общим числом параметров 671B и 37B активных параметров на токен.", + "deepseek-vl2-small.description": "DeepSeek VL2 Small — лёгкая мультимодальная модель для использования в условиях ограниченных ресурсов и высокой нагрузки.", + "deepseek-vl2.description": "DeepSeek VL2 — мультимодальная модель для понимания изображений и текста, а также точного визуального вопросно-ответного взаимодействия.", + "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 — модель MoE с 685 миллиардами параметров и последняя итерация флагманской серии чатов DeepSeek.\n\nОснована на [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует высокую производительность в различных задачах.", + "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 — модель MoE с 685 миллиардами параметров и последняя итерация флагманской серии чатов DeepSeek.\n\nОснована на [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует высокую производительность в различных задачах.", + "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 — гибридная модель рассуждений с длинным контекстом от DeepSeek, поддерживающая смешанные режимы мышления и интеграцию инструментов.", + "deepseek/deepseek-chat.description": "DeepSeek-V3 — высокопроизводительная гибридная модель рассуждений от DeepSeek для сложных задач и интеграции инструментов.", + "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 — обновлённый вариант, ориентированный на открытую доступность и более глубокие рассуждения.", + "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 значительно улучшает логический вывод при минимальном количестве размеченных данных и выводит цепочку рассуждений перед финальным ответом для повышения точности.", + "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B — дистиллированная LLM-модель на основе Llama 3.3 70B, дообученная с использованием выходных данных DeepSeek R1 для достижения конкурентной производительности с передовыми крупными моделями.", + "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B — дистиллированная LLM-модель на основе Llama-3.1-8B-Instruct, обученная с использованием выходных данных DeepSeek R1.", + "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B — дистиллированная LLM-модель на основе Qwen 2.5 14B, обученная на выходных данных DeepSeek R1. Превосходит OpenAI o1-mini по нескольким бенчмаркам, достигая передовых результатов среди плотных моделей. Основные показатели:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nРейтинг CodeForces: 1481\nДообучение на выходных данных DeepSeek R1 обеспечивает конкурентную производительность с более крупными моделями.", + "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B — дистиллированная LLM-модель на основе Qwen 2.5 32B, обученная на выходных данных DeepSeek R1. Превосходит OpenAI o1-mini по нескольким бенчмаркам, достигая передовых результатов среди плотных моделей. Основные показатели:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nРейтинг CodeForces: 1691\nДообучение на выходных данных DeepSeek R1 обеспечивает конкурентную производительность с более крупными моделями.", + "deepseek/deepseek-r1.description": "DeepSeek R1 обновлён до версии DeepSeek-R1-0528. Благодаря увеличенным вычислительным ресурсам и алгоритмическим оптимизациям после обучения, модель значительно улучшила глубину и качество рассуждений. Демонстрирует высокие результаты в математике, программировании и логике, приближаясь к лидерам, таким как o3 и Gemini 2.5 Pro.", + "deepseek/deepseek-r1/community.description": "DeepSeek R1 — последняя открытая модель от команды DeepSeek с очень высокой производительностью в логических задачах, особенно в математике, программировании и рассуждениях, сопоставимая с OpenAI o1.", + "deepseek/deepseek-r1:free.description": "DeepSeek-R1 значительно улучшает логический вывод при минимальном количестве размеченных данных и выводит цепочку рассуждений перед финальным ответом для повышения точности.", + "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) — экспериментальная модель рассуждений от DeepSeek, подходящая для задач высокой сложности.", + "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base — улучшенная версия модели DeepSeek V3.", + "deepseek/deepseek-v3.description": "Быстрая универсальная LLM-модель с улучшенными возможностями рассуждения.", + "deepseek/deepseek-v3/community.description": "DeepSeek-V3 обеспечивает значительный прорыв в скорости рассуждений по сравнению с предыдущими моделями. Занимает первое место среди открытых моделей и соперничает с самыми продвинутыми закрытыми решениями. DeepSeek-V3 использует Multi-Head Latent Attention (MLA) и архитектуру DeepSeekMoE, проверенные в DeepSeek-V2. Также внедрена вспомогательная стратегия без потерь для балансировки нагрузки и обучение с предсказанием нескольких токенов для повышения производительности.", + "deepseek_r1.description": "DeepSeek-R1 — модель рассуждений, основанная на обучении с подкреплением, решающая проблемы повторов и читаемости. До этапа RL использует данные холодного старта для повышения качества рассуждений. Сопоставима с OpenAI-o1 в задачах математики, программирования и логики, с тщательно продуманным обучением для улучшения общих результатов.", + "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B — дистиллированная модель на основе Llama-3.3-70B-Instruct. Является частью серии DeepSeek-R1, дообучена на выборках, сгенерированных DeepSeek-R1, и демонстрирует высокие результаты в математике, программировании и логике.", + "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B — дистиллированная модель на основе Qwen2.5-14B, дообученная на 800 тысячах отобранных выборок, сгенерированных DeepSeek-R1, обеспечивая высокое качество рассуждений.", + "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B — дистиллированная модель на основе Qwen2.5-32B, дообученная на 800 тысячах отобранных выборок, сгенерированных DeepSeek-R1, превосходя в задачах математики, программирования и логики.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.", diff --git a/locales/ru-RU/plugin.json b/locales/ru-RU/plugin.json index e077eab84c..972ec7f3ad 100644 --- a/locales/ru-RU/plugin.json +++ b/locales/ru-RU/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Пользовательский", "loading.content": "Вызов навыка…", "loading.plugin": "Навык выполняется…", + "localSystem.workingDirectory.agentDescription": "Рабочая директория по умолчанию для всех разговоров с этим агентом", + "localSystem.workingDirectory.agentLevel": "Рабочая директория агента", + "localSystem.workingDirectory.current": "Текущая рабочая директория", + "localSystem.workingDirectory.notSet": "Нажмите, чтобы установить рабочую директорию", + "localSystem.workingDirectory.placeholder": "Введите путь к директории, например: /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "Выбрать папку", + "localSystem.workingDirectory.title": "Рабочая директория", + "localSystem.workingDirectory.topicDescription": "Переопределить директорию агента только для этого разговора", + "localSystem.workingDirectory.topicLevel": "Переопределение для разговора", + "localSystem.workingDirectory.topicOverride": "Переопределение для этого разговора", "mcpEmpty.deployment": "Нет вариантов развертывания", "mcpEmpty.prompts": "Нет подсказок", "mcpEmpty.resources": "Нет ресурсов", diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 50017b8c0c..2ed318b541 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -364,6 +364,34 @@ "deepseek-r1-250528.description": "DeepSeek R1 250528, zorlu matematik ve mantık görevleri için tam DeepSeek-R1 akıl yürütme modelidir.", "deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B hızlı sürüm, gerçek zamanlı web aramasıyla daha hızlı yanıtlar sunar ve performansı korur.", "deepseek-r1-70b-online.description": "DeepSeek R1 70B standart sürüm, gerçek zamanlı web aramasıyla güncel sohbet ve metin görevleri için uygundur.", + "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B, R1 akıl yürütmesini Llama ekosistemiyle birleştirir.", + "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B, DeepSeek R1 çıktıları kullanılarak Llama-3.1-8B'den damıtılmıştır.", + "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama, DeepSeek-R1'den Llama üzerinde damıtılmıştır.", + "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B, Qianfan-70B tabanlı güçlü bir R1 damıtma modelidir.", + "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B, küçük ve orta ölçekli uygulamalar için Qianfan-8B tabanlı bir R1 damıtma modelidir.", + "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B, Llama-70B tabanlı bir R1 damıtma modelidir.", + "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B, çok düşük kaynaklı ortamlar için ultra hafif bir damıtma modelidir.", + "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B, çok senaryolu dağıtım için orta ölçekli bir damıtma modelidir.", + "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B, performans ve maliyet dengesini sağlayan Qwen-32B tabanlı bir R1 damıtma modelidir.", + "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B, uç ve özel kurumsal ortamlar için hafif bir damıtma modelidir.", + "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen, DeepSeek-R1'den Qwen üzerinde damıtılmıştır.", + "deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenekleri ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.", + "deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramalı DeepSeek R1 tam sürüm, güçlü anlama ve üretim sunar.", + "deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verisi kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans gösterir.", + "deepseek-reasoner.description": "DeepSeek V3.2 düşünme modu, doğruluğu artırmak için nihai cevaptan önce düşünce zinciri üretir.", + "deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.", + "deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi yeteneklerine sahip DeepSeek’in kod odaklı modelidir.", + "deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.", + "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus, terminal cihazlar için optimize edilmiş DeepSeek’in terminal odaklı LLM modelidir.", + "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821, Terminus sürümüne karşılık gelen derin düşünme modelidir ve yüksek performanslı akıl yürütme için tasarlanmıştır.", + "deepseek-v3.1.description": "DeepSeek-V3.1, düşünme ve düşünmeme modlarını destekleyen yeni bir hibrit akıl yürütme modelidir. DeepSeek-R1-0528'e kıyasla daha yüksek düşünme verimliliği sunar. Eğitim sonrası optimizasyonlar, araç kullanımı ve görev performansını büyük ölçüde artırır. 128k bağlam penceresi ve 64k'ya kadar çıktı token'ı destekler.", + "deepseek-v3.1:671b.description": "DeepSeek V3.1, gelişmiş karmaşık akıl yürütme ve düşünce zinciri ile derin analiz gerektiren görevler için uygun yeni nesil bir akıl yürütme modelidir.", + "deepseek-v3.2-exp.description": "deepseek-v3.2-exp, uzun metinlerde eğitim ve çıkarım verimliliğini artırmak için seyrek dikkat mekanizması sunar ve deepseek-v3.1'e göre daha düşük maliyetlidir.", + "deepseek-v3.2-think.description": "DeepSeek V3.2 Think, daha güçlü uzun zincirli akıl yürütme yeteneğine sahip tam kapsamlı bir derin düşünme modelidir.", + "deepseek-v3.2.description": "DeepSeek-V3.2, DeepSeek tarafından sunulan ilk düşünmeyi araç kullanımına entegre eden hibrit akıl yürütme modelidir. Verimli mimarisiyle hesaplama gücünden tasarruf eder, büyük ölçekli pekiştirmeli öğrenmeyle yeteneklerini artırır ve büyük ölçekli sentetik görev verisiyle genelleme gücünü yükseltir. Bu üç unsurun birleşimiyle GPT-5-High seviyesinde performans sunar, çıktı uzunluğunu önemli ölçüde azaltır ve hesaplama maliyeti ile kullanıcı bekleme süresini düşürür.", + "deepseek-v3.description": "DeepSeek-V3, 671B toplam parametreli ve token başına 37B aktif parametreli güçlü bir MoE modelidir.", + "deepseek-vl2-small.description": "DeepSeek VL2 Small, kaynak kısıtlı ve yüksek eşzamanlı kullanım için hafif bir çok modlu modeldir.", + "deepseek-vl2.description": "DeepSeek VL2, görüntü-metin anlama ve ayrıntılı görsel Soru-Cevap için çok modlu bir modeldir.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.", "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.", "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.", diff --git a/locales/tr-TR/plugin.json b/locales/tr-TR/plugin.json index c996a39147..1f945e3c2d 100644 --- a/locales/tr-TR/plugin.json +++ b/locales/tr-TR/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Özel", "loading.content": "Yetenek çağrılıyor…", "loading.plugin": "Yetenek çalışıyor…", + "localSystem.workingDirectory.agentDescription": "Bu Ajana ait tüm konuşmalar için varsayılan çalışma dizini", + "localSystem.workingDirectory.agentLevel": "Ajan Çalışma Dizini", + "localSystem.workingDirectory.current": "Geçerli çalışma dizini", + "localSystem.workingDirectory.notSet": "Çalışma dizinini ayarlamak için tıklayın", + "localSystem.workingDirectory.placeholder": "Dizin yolunu girin, örn. /Kullanicilar/isim/projeler", + "localSystem.workingDirectory.selectFolder": "Klasör seç", + "localSystem.workingDirectory.title": "Çalışma Dizini", + "localSystem.workingDirectory.topicDescription": "Yalnızca bu konuşma için Ajan varsayılanını geçersiz kıl", + "localSystem.workingDirectory.topicLevel": "Konuşma geçersiz kılma", + "localSystem.workingDirectory.topicOverride": "Bu konuşma için geçersiz kılma", "mcpEmpty.deployment": "Dağıtım seçeneği yok", "mcpEmpty.prompts": "İpucu yok", "mcpEmpty.resources": "Kaynak yok", diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 7cf9ebf98b..6a779b6a91 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -299,6 +299,42 @@ "codestral-latest.description": "Codestral là mô hình lập trình tiên tiến nhất của chúng tôi; phiên bản v2 (tháng 1 năm 2025) nhắm đến các tác vụ tần suất cao, độ trễ thấp như FIM, sửa mã và sinh bài kiểm tra.", "codestral.description": "Codestral là mô hình lập trình đầu tiên của Mistral AI, cung cấp hỗ trợ sinh mã mạnh mẽ.", "codex-mini-latest.description": "codex-mini-latest là một mô hình o4-mini được tinh chỉnh dành cho Codex CLI. Đối với việc sử dụng API trực tiếp, chúng tôi khuyến nghị bắt đầu với gpt-4.1.", + "cogito-2.1:671b.description": "Cogito v2.1 671B là một mô hình ngôn ngữ mã nguồn mở của Mỹ, miễn phí cho mục đích thương mại, có hiệu suất sánh ngang với các mô hình hàng đầu, hiệu quả suy luận theo token cao hơn, hỗ trợ ngữ cảnh dài 128k và khả năng tổng thể mạnh mẽ.", + "cogview-4.description": "CogView-4 là mô hình chuyển văn bản thành hình ảnh mã nguồn mở đầu tiên của Zhipu có khả năng tạo ký tự tiếng Trung. Mô hình cải thiện khả năng hiểu ngữ nghĩa, chất lượng hình ảnh và hiển thị văn bản tiếng Trung/Anh, hỗ trợ lời nhắc song ngữ với độ dài tùy ý và có thể tạo hình ảnh ở bất kỳ độ phân giải nào trong phạm vi cho phép.", + "cohere-command-r-plus.description": "Command R+ là một mô hình tiên tiến được tối ưu hóa cho RAG, được xây dựng để xử lý khối lượng công việc doanh nghiệp.", + "cohere-command-r.description": "Command R là một mô hình sinh văn bản có khả năng mở rộng, được thiết kế cho RAG và sử dụng công cụ, cho phép triển khai AI ở cấp độ sản xuất.", + "cohere/Cohere-command-r-plus.description": "Command R+ là một mô hình tiên tiến được tối ưu hóa cho RAG, được xây dựng để xử lý khối lượng công việc doanh nghiệp.", + "cohere/Cohere-command-r.description": "Command R là một mô hình sinh văn bản có khả năng mở rộng, được thiết kế cho RAG và sử dụng công cụ, cho phép triển khai AI ở cấp độ sản xuất.", + "cohere/command-a.description": "Command A là mô hình mạnh nhất của Cohere cho đến nay, vượt trội trong việc sử dụng công cụ, tác tử, RAG và các trường hợp đa ngôn ngữ. Mô hình có độ dài ngữ cảnh 256K, chạy chỉ với hai GPU và đạt thông lượng cao hơn 150% so với Command R+ 08-2024.", + "cohere/command-r-plus.description": "Command R+ là mô hình LLM mới nhất của Cohere, được tối ưu hóa cho trò chuyện và ngữ cảnh dài, hướng đến hiệu suất vượt trội để các công ty có thể vượt qua giai đoạn nguyên mẫu và đi vào sản xuất.", + "cohere/command-r.description": "Command R được tối ưu hóa cho các tác vụ trò chuyện và ngữ cảnh dài, được định vị là mô hình “có thể mở rộng” cân bằng giữa hiệu suất cao và độ chính xác, giúp doanh nghiệp vượt qua giai đoạn nguyên mẫu và triển khai thực tế.", + "cohere/embed-v4.0.description": "Một mô hình phân loại hoặc chuyển đổi văn bản, hình ảnh hoặc nội dung hỗn hợp thành các vector nhúng (embedding).", + "comfyui/flux-dev.description": "FLUX.1 Dev là mô hình chuyển văn bản thành hình ảnh chất lượng cao (10–50 bước), lý tưởng cho các sản phẩm sáng tạo và nghệ thuật cao cấp.", + "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev là mô hình chỉnh sửa hình ảnh hỗ trợ chỉnh sửa theo hướng dẫn văn bản, bao gồm chỉnh sửa cục bộ và chuyển đổi phong cách.", + "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev là mô hình chuyển văn bản thành hình ảnh được tăng cường an toàn, đồng phát triển với Krea, tích hợp bộ lọc an toàn sẵn có.", + "comfyui/flux-schnell.description": "FLUX.1 Schnell là mô hình chuyển văn bản thành hình ảnh siêu nhanh, tạo hình ảnh chất lượng cao chỉ trong 1–4 bước, lý tưởng cho sử dụng thời gian thực và tạo mẫu nhanh.", + "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 là mô hình chuyển văn bản thành hình ảnh cổ điển với độ phân giải 512x512, lý tưởng cho tạo mẫu nhanh và thử nghiệm sáng tạo.", + "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 tích hợp sẵn bộ mã hóa CLIP/T5, không cần tệp mã hóa bên ngoài, phù hợp với các mô hình như sd3.5_medium_incl_clips với mức sử dụng tài nguyên thấp hơn.", + "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 là mô hình chuyển văn bản thành hình ảnh thế hệ mới với các biến thể Large và Medium. Mô hình yêu cầu tệp mã hóa CLIP bên ngoài và mang lại chất lượng hình ảnh xuất sắc cùng khả năng tuân thủ lời nhắc cao.", + "comfyui/stable-diffusion-custom-refiner.description": "Mô hình SDXL chuyển hình ảnh thành hình ảnh tùy chỉnh. Sử dụng tên tệp model là custom_sd_lobe.safetensors; nếu có VAE, sử dụng custom_sd_vae_lobe.safetensors. Đặt các tệp model vào thư mục yêu cầu của Comfy.", + "comfyui/stable-diffusion-custom.description": "Mô hình SD chuyển văn bản thành hình ảnh tùy chỉnh. Sử dụng tên tệp model là custom_sd_lobe.safetensors; nếu có VAE, sử dụng custom_sd_vae_lobe.safetensors. Đặt các tệp model vào thư mục yêu cầu của Comfy.", + "comfyui/stable-diffusion-refiner.description": "Mô hình SDXL chuyển hình ảnh thành hình ảnh thực hiện các chuyển đổi chất lượng cao từ hình ảnh đầu vào, hỗ trợ chuyển đổi phong cách, phục hồi và biến thể sáng tạo.", + "comfyui/stable-diffusion-xl.description": "SDXL là mô hình chuyển văn bản thành hình ảnh hỗ trợ tạo hình ảnh độ phân giải cao 1024x1024 với chất lượng và chi tiết tốt hơn.", + "command-a-03-2025.description": "Command A là mô hình mạnh nhất của chúng tôi cho đến nay, vượt trội trong việc sử dụng công cụ, tác tử, RAG và các tình huống đa ngôn ngữ. Mô hình có cửa sổ ngữ cảnh 256K, chạy chỉ với hai GPU và đạt thông lượng cao hơn 150% so với Command R+ 08-2024.", + "command-light-nightly.description": "Để rút ngắn khoảng cách giữa các bản phát hành chính, chúng tôi cung cấp các bản dựng Command hàng đêm. Với dòng command-light, phiên bản này được gọi là command-light-nightly. Đây là phiên bản mới nhất, mang tính thử nghiệm cao (và có thể không ổn định), được cập nhật thường xuyên mà không thông báo, do đó không khuyến nghị sử dụng trong môi trường sản xuất.", + "command-light.description": "Biến thể Command nhỏ hơn, nhanh hơn, gần như mạnh mẽ như bản gốc nhưng có tốc độ cao hơn.", + "command-nightly.description": "Để rút ngắn khoảng cách giữa các bản phát hành chính, chúng tôi cung cấp các bản dựng Command hàng đêm. Với dòng Command, phiên bản này được gọi là command-nightly. Đây là phiên bản mới nhất, mang tính thử nghiệm cao (và có thể không ổn định), được cập nhật thường xuyên mà không thông báo, do đó không khuyến nghị sử dụng trong môi trường sản xuất.", + "command-r-03-2024.description": "Command R là mô hình trò chuyện tuân theo hướng dẫn với chất lượng cao hơn, độ tin cậy lớn hơn và cửa sổ ngữ cảnh dài hơn so với các mô hình trước đó. Mô hình hỗ trợ các quy trình phức tạp như tạo mã, RAG, sử dụng công cụ và tác tử.", + "command-r-08-2024.description": "command-r-08-2024 là phiên bản cập nhật của mô hình Command R được phát hành vào tháng 8 năm 2024.", + "command-r-plus-04-2024.description": "command-r-plus là bí danh của command-r-plus-04-2024, vì vậy sử dụng command-r-plus trong API sẽ trỏ đến mô hình đó.", + "command-r-plus-08-2024.description": "Command R+ là mô hình trò chuyện tuân theo hướng dẫn với chất lượng cao hơn, độ tin cậy lớn hơn và cửa sổ ngữ cảnh dài hơn so với các mô hình trước đó. Mô hình phù hợp nhất cho các quy trình RAG phức tạp và sử dụng công cụ nhiều bước.", + "command-r-plus.description": "Command R+ là mô hình LLM hiệu suất cao được thiết kế cho các tình huống doanh nghiệp thực tế và ứng dụng phức tạp.", + "command-r.description": "Command R là mô hình LLM được tối ưu hóa cho trò chuyện và các tác vụ ngữ cảnh dài, lý tưởng cho tương tác động và quản lý tri thức.", + "command-r7b-12-2024.description": "command-r7b-12-2024 là bản cập nhật nhỏ, hiệu quả được phát hành vào tháng 12 năm 2024. Mô hình vượt trội trong các tác vụ RAG, sử dụng công cụ và tác tử đòi hỏi suy luận phức tạp nhiều bước.", + "command.description": "Mô hình trò chuyện tuân theo hướng dẫn cung cấp chất lượng và độ tin cậy cao hơn trong các tác vụ ngôn ngữ, với cửa sổ ngữ cảnh dài hơn so với các mô hình sinh văn bản cơ bản của chúng tôi.", + "computer-use-preview.description": "computer-use-preview là mô hình chuyên biệt cho công cụ \"sử dụng máy tính\", được huấn luyện để hiểu và thực hiện các tác vụ liên quan đến máy tính.", + "dall-e-2.description": "DALL·E thế hệ thứ hai với khả năng tạo hình ảnh chân thực, chính xác hơn và độ phân giải gấp 4 lần thế hệ đầu tiên.", + "dall-e-3.description": "Mô hình DALL·E mới nhất, phát hành tháng 11 năm 2023, hỗ trợ tạo hình ảnh chân thực, chính xác hơn với chi tiết mạnh mẽ hơn.", "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.", "meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.", "meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.", diff --git a/locales/vi-VN/plugin.json b/locales/vi-VN/plugin.json index 43640a325f..e034759346 100644 --- a/locales/vi-VN/plugin.json +++ b/locales/vi-VN/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "Tùy chỉnh", "loading.content": "Đang gọi Kỹ năng…", "loading.plugin": "Kỹ năng đang chạy…", + "localSystem.workingDirectory.agentDescription": "Thư mục làm việc mặc định cho tất cả các cuộc trò chuyện với Tác nhân này", + "localSystem.workingDirectory.agentLevel": "Thư mục làm việc của Tác nhân", + "localSystem.workingDirectory.current": "Thư mục làm việc hiện tại", + "localSystem.workingDirectory.notSet": "Nhấn để thiết lập thư mục làm việc", + "localSystem.workingDirectory.placeholder": "Nhập đường dẫn thư mục, ví dụ: /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "Chọn thư mục", + "localSystem.workingDirectory.title": "Thư mục làm việc", + "localSystem.workingDirectory.topicDescription": "Ghi đè mặc định của Tác nhân chỉ cho cuộc trò chuyện này", + "localSystem.workingDirectory.topicLevel": "Ghi đè trong cuộc trò chuyện", + "localSystem.workingDirectory.topicOverride": "Ghi đè cho cuộc trò chuyện này", "mcpEmpty.deployment": "Không có tùy chọn triển khai", "mcpEmpty.prompts": "Không có lời nhắc", "mcpEmpty.resources": "Không có tài nguyên", diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index b99b785b4d..018d918e9a 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -103,6 +103,7 @@ "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一个拥有 6710 亿参数的 MoE 模型,采用 MLA 和 DeepSeekMoE 架构,并通过无损负载均衡实现高效推理与训练。预训练数据量达 14.8 万亿高质量 token,并通过 SFT 和 RL 进一步调优,性能超越其他开源模型,接近领先的闭源模型。", "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 是最新且最强大的 Kimi K2 模型。作为顶级 MoE 模型,拥有 1 万亿总参数和 320 亿激活参数。其主要特点包括更强的代理式编程智能,在基准测试和真实代理任务中取得显著提升,同时前端代码美观性和可用性也得到优化。", "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo 是 K2 Thinking 的高性能变体,在保持多步骤推理和工具使用能力的同时,优化了推理速度和吞吐量。该模型为 MoE 架构,拥有约 1 万亿总参数,原生支持 256K 上下文,并在生产场景中具备稳定的大规模工具调用能力,满足更严格的延迟与并发需求。", + "Pro/zai-org/glm-4.7.description": "GLM-4.7 是智谱新一代旗舰模型,总参数量达 355B,激活参数量为 32B,在通用对话、推理和智能体能力方面实现了全面升级。GLM-4.7 强化了交错思考(Interleaved Thinking),并引入了保留思考(Preserved Thinking)和轮级思考(Turn-level Thinking)。", "QwQ-32B-Preview.description": "Qwen QwQ 是一个实验性研究模型,专注于提升推理能力。", "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview 是 Qwen 团队推出的研究模型,专注于视觉推理,擅长复杂场景理解和视觉数学问题。", "Qwen/QwQ-32B-Preview.description": "Qwen QwQ 是一个实验性研究模型,致力于提升 AI 的推理能力。", diff --git a/locales/zh-CN/plugin.json b/locales/zh-CN/plugin.json index 5134f06010..dd07102da3 100644 --- a/locales/zh-CN/plugin.json +++ b/locales/zh-CN/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "自定义", "loading.content": "调用技能中…", "loading.plugin": "技能运行中…", + "localSystem.workingDirectory.agentDescription": "该助手下所有对话的默认工作目录", + "localSystem.workingDirectory.agentLevel": "代理工作目录", + "localSystem.workingDirectory.current": "当前工作目录", + "localSystem.workingDirectory.notSet": "点击设置工作目录", + "localSystem.workingDirectory.placeholder": "输入目录路径,如 /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "选择文件夹", + "localSystem.workingDirectory.title": "工作目录", + "localSystem.workingDirectory.topicDescription": "仅覆盖当前对话的工作目录", + "localSystem.workingDirectory.topicLevel": "对话覆盖", + "localSystem.workingDirectory.topicOverride": "为当前对话覆盖设置", "mcpEmpty.deployment": "暂无部署选项", "mcpEmpty.prompts": "该技能暂无提示词", "mcpEmpty.resources": "该技能暂无资源", diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index aea873bb3b..7f9414c485 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -360,6 +360,38 @@ "deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。", "deepseek-ocr.description": "DeepSeek-OCR 是 DeepSeek AI 推出的視覺語言模型,專注於 OCR 與「上下文光學壓縮」。探索從影像中壓縮上下文資訊,能高效處理文件並轉換為結構化文字格式(如 Markdown),準確辨識影像中的文字,適用於文件數位化、文字擷取與結構化處理。", + "deepseek-r1-0528.description": "685B 全量模型於 2025-05-28 發布。DeepSeek-R1 在後訓練階段引入大規模強化學習(RL),即使標註資料極少,也能大幅提升推理能力,並在數學、程式碼與自然語言推理方面表現優異。", + "deepseek-r1-250528.description": "DeepSeek R1 250528 是專為高難度數學與邏輯任務設計的 DeepSeek-R1 全量推理模型。", + "deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B 快速版,支援即時網頁搜尋,回應更迅速且維持高效能。", + "deepseek-r1-70b-online.description": "DeepSeek R1 70B 標準版,支援即時網頁搜尋,適合處理最新聊天與文字任務。", + "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B 結合 R1 推理能力與 Llama 生態系統。", + "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B 是以 DeepSeek R1 輸出資料蒸餾自 Llama-3.1-8B。", + "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama 是以 DeepSeek-R1 在 Llama 上進行蒸餾訓練的模型。", + "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B 是基於 Qianfan-70B 的 R1 蒸餾模型,具備高價值表現。", + "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B 是基於 Qianfan-8B 的 R1 蒸餾模型,適用於中小型應用場景。", + "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B 是基於 Llama-70B 的 R1 蒸餾模型。", + "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B 是超輕量蒸餾模型,適用於極低資源環境。", + "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B 是中型蒸餾模型,適合多場景部署。", + "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B 是基於 Qwen-32B 的 R1 蒸餾模型,兼顧效能與成本。", + "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B 是輕量級蒸餾模型,適合邊緣端與企業私有部署環境。", + "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen 是以 DeepSeek-R1 在 Qwen 上進行蒸餾訓練的模型。", + "deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。", + "deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。", + "deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。", + "deepseek-reasoner.description": "DeepSeek V3.2 思考模式在最終答案前輸出思路鏈(chain-of-thought),以提升準確性。", + "deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。", + "deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。", + "deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。", + "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus 是 DeepSeek 為終端設備優化的 LLM 模型。", + "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 是對應 Terminus 版本的深度思考模型,專為高效推理而設計。", + "deepseek-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 推出的新一代混合推理模型,支援思考與非思考模式,思考效率高於 DeepSeek-R1-0528。後訓練優化大幅提升代理工具使用與任務執行能力,支援 128k 上下文視窗與最多 64k 輸出字元。", + "deepseek-v3.1:671b.description": "DeepSeek V3.1 是新一代推理模型,強化複雜推理與思路鏈能力,適合需要深入分析的任務。", + "deepseek-v3.2-exp.description": "deepseek-v3.2-exp 引入稀疏注意力機制,在處理長文本時提升訓練與推理效率,價格低於 deepseek-v3.1。", + "deepseek-v3.2-think.description": "DeepSeek V3.2 Think 是完整的深度思考模型,具備更強的長鏈推理能力。", + "deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首款將思考融入工具使用的混合推理模型,透過高效架構節省算力、以大規模強化學習提升能力、並結合大規模合成任務資料強化泛化能力,三者融合使其效能媲美 GPT-5-High,輸出長度大幅降低,顯著減少計算成本與用戶等待時間。", + "deepseek-v3.description": "DeepSeek-V3 是一款強大的 MoE 模型,總參數達 671B,每個 token 啟用 37B 參數。", + "deepseek-vl2-small.description": "DeepSeek VL2 Small 是輕量級多模態模型,適用於資源受限與高併發場景。", + "deepseek-vl2.description": "DeepSeek VL2 是一款多模態模型,支援圖文理解與細緻的視覺問答任務。", "gemini-flash-latest.description": "Gemini Flash 最新版本", "gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本", "gemini-pro-latest.description": "Gemini Pro 最新版本", diff --git a/locales/zh-TW/plugin.json b/locales/zh-TW/plugin.json index a6b8c2bb65..19109cbe5b 100644 --- a/locales/zh-TW/plugin.json +++ b/locales/zh-TW/plugin.json @@ -312,6 +312,16 @@ "list.item.local.title": "自定義", "loading.content": "調用插件中...", "loading.plugin": "插件運行中...", + "localSystem.workingDirectory.agentDescription": "此代理人所有對話的預設工作目錄", + "localSystem.workingDirectory.agentLevel": "代理人工作目錄", + "localSystem.workingDirectory.current": "目前的工作目錄", + "localSystem.workingDirectory.notSet": "點擊以設定工作目錄", + "localSystem.workingDirectory.placeholder": "輸入目錄路徑,例如 /Users/name/projects", + "localSystem.workingDirectory.selectFolder": "選擇資料夾", + "localSystem.workingDirectory.title": "工作目錄", + "localSystem.workingDirectory.topicDescription": "僅針對此對話覆寫代理人預設值", + "localSystem.workingDirectory.topicLevel": "對話層級覆寫", + "localSystem.workingDirectory.topicOverride": "此對話的覆寫設定", "mcpEmpty.deployment": "暫無部署選項", "mcpEmpty.prompts": "此外掛暫無提示詞", "mcpEmpty.resources": "此外掛暫無資源", diff --git a/packages/builtin-tool-local-system/src/systemRole.ts b/packages/builtin-tool-local-system/src/systemRole.ts index 2d1ccf6a6e..abcd3d740e 100644 --- a/packages/builtin-tool-local-system/src/systemRole.ts +++ b/packages/builtin-tool-local-system/src/systemRole.ts @@ -1,7 +1,12 @@ export const systemPrompt = `You have a Local System tool with capabilities to interact with the user's local system. You can list directories, read file contents, search for files, move, and rename files/directories. -Here are some known locations and system details on the user's system. User is using the Operating System: {{platform}}({{arch}}). Use these paths when the user refers to these common locations by name (e.g., "my desktop", "downloads folder"). +**Current Working Directory:** {{workingDirectory}} +All relative paths and file operations should be based on this directory unless the user specifies otherwise. + +**Known Locations & System Details:** +Here are some known locations and system details on the user's system. User is using the Operating System: {{platform}}({{arch}}). +Use these paths when the user refers to these common locations by name (e.g., "my desktop", "downloads folder"). - Desktop: {{desktopPath}} - Documents: {{documentsPath}} - Downloads: {{downloadsPath}} diff --git a/packages/database/src/models/__tests__/topics/topic.update.test.ts b/packages/database/src/models/__tests__/topics/topic.update.test.ts index d22b74f90f..c4eb77951f 100644 --- a/packages/database/src/models/__tests__/topics/topic.update.test.ts +++ b/packages/database/src/models/__tests__/topics/topic.update.test.ts @@ -52,4 +52,75 @@ describe('TopicModel - Update', () => { expect(item).toHaveLength(0); }); }); + + describe('updateMetadata', () => { + it('should update metadata on a topic with no existing metadata', async () => { + const topicId = 'metadata-test-1'; + await serverDB.insert(topics).values({ userId, id: topicId, title: 'Test' }); + + const result = await topicModel.updateMetadata(topicId, { + workingDirectory: '/path/to/dir', + }); + + expect(result).toHaveLength(1); + expect(result[0].metadata).toEqual({ workingDirectory: '/path/to/dir' }); + }); + + it('should merge metadata with existing metadata', async () => { + const topicId = 'metadata-test-2'; + await serverDB.insert(topics).values({ + userId, + id: topicId, + title: 'Test', + metadata: { model: 'gpt-4', provider: 'openai' }, + }); + + const result = await topicModel.updateMetadata(topicId, { + workingDirectory: '/new/path', + }); + + expect(result).toHaveLength(1); + expect(result[0].metadata).toEqual({ + model: 'gpt-4', + provider: 'openai', + workingDirectory: '/new/path', + }); + }); + + it('should overwrite existing metadata fields when updating', async () => { + const topicId = 'metadata-test-3'; + await serverDB.insert(topics).values({ + userId, + id: topicId, + title: 'Test', + metadata: { workingDirectory: '/old/path', model: 'gpt-4' }, + }); + + const result = await topicModel.updateMetadata(topicId, { + workingDirectory: '/new/path', + }); + + expect(result).toHaveLength(1); + expect(result[0].metadata).toEqual({ + model: 'gpt-4', + workingDirectory: '/new/path', + }); + }); + + it('should not update metadata if user ID does not match', async () => { + await serverDB.insert(users).values([{ id: 'other-user' }]); + const topicId = 'metadata-test-4'; + await serverDB.insert(topics).values({ + userId: 'other-user', + id: topicId, + title: 'Test', + }); + + const result = await topicModel.updateMetadata(topicId, { + workingDirectory: '/path/to/dir', + }); + + expect(result).toHaveLength(0); + }); + }); }); diff --git a/packages/database/src/models/topic.ts b/packages/database/src/models/topic.ts index 4b97074d57..d398f09a50 100644 --- a/packages/database/src/models/topic.ts +++ b/packages/database/src/models/topic.ts @@ -1,4 +1,4 @@ -import { DBMessageItem, TopicRankItem } from '@lobechat/types'; +import { ChatTopicMetadata, DBMessageItem, TopicRankItem } from '@lobechat/types'; import { SQL, and, @@ -583,6 +583,29 @@ export class TopicModel { .returning(); }; + /** + * Update topic metadata with merge logic + * This method merges new metadata with existing metadata instead of replacing it + */ + updateMetadata = async (id: string, metadata: Partial) => { + // Get existing topic to merge metadata + const existing = await this.db.query.topics.findFirst({ + columns: { metadata: true }, + where: and(eq(topics.id, id), eq(topics.userId, this.userId)), + }); + + const mergedMetadata: ChatTopicMetadata = { + ...existing?.metadata, + ...metadata, + }; + + return this.db + .update(topics) + .set({ metadata: mergedMetadata }) + .where(and(eq(topics.id, id), eq(topics.userId, this.userId))) + .returning(); + }; + // **************** Helper *************** // private genId = () => idGenerator('topics'); diff --git a/packages/database/src/schemas/agent.ts b/packages/database/src/schemas/agent.ts index de7a3fa017..e6b64adc9c 100644 --- a/packages/database/src/schemas/agent.ts +++ b/packages/database/src/schemas/agent.ts @@ -1,5 +1,6 @@ /* eslint-disable sort-keys-fix/sort-keys-fix */ import type { LobeAgentChatConfig, LobeAgentTTSConfig } from '@lobechat/types'; +import { AgentChatConfigSchema } from '@lobechat/types'; import { boolean, index, @@ -77,7 +78,10 @@ export const agents = pgTable( ], ); -export const insertAgentSchema = createInsertSchema(agents); +export const insertAgentSchema = createInsertSchema(agents, { + // Override chatConfig type to use the proper schema + chatConfig: AgentChatConfigSchema.nullable().optional(), +}); export type NewAgent = typeof agents.$inferInsert; export type AgentItem = typeof agents.$inferSelect; diff --git a/packages/types/src/agent/agentConfig.ts b/packages/types/src/agent/agentConfig.ts new file mode 100644 index 0000000000..f767d2a742 --- /dev/null +++ b/packages/types/src/agent/agentConfig.ts @@ -0,0 +1,22 @@ +/** + * Agent 执行模式 + * - auto: 自动决定执行策略 + * - plan: 先规划后执行,适合复杂任务 + * - ask: 执行前询问用户确认 + * - implement: 直接执行,不询问 + */ +export type AgentMode = 'auto' | 'plan' | 'ask' | 'implement'; + +/** + * Local System 配置(桌面端专用) + */ +export interface LocalSystemConfig { + /** + * Local System 工作目录(桌面端专用) + */ + workingDirectory?: string; + + // 未来可扩展: + // allowedPaths?: string[]; + // deniedCommands?: string[]; +} diff --git a/packages/types/src/agent/chatConfig.ts b/packages/types/src/agent/chatConfig.ts index 46c0acfe1e..2035486b30 100644 --- a/packages/types/src/agent/chatConfig.ts +++ b/packages/types/src/agent/chatConfig.ts @@ -2,6 +2,7 @@ import { z } from 'zod'; import { SearchMode } from '../search'; +import { LocalSystemConfig } from './agentConfig'; export interface WorkingModel { model: string; @@ -9,6 +10,10 @@ export interface WorkingModel { } export interface LobeAgentChatConfig { + /** + * Local System 配置(桌面端专用) + */ + localSystem?: LocalSystemConfig; enableAutoCreateTopic?: boolean; autoCreateTopicThreshold: number; @@ -74,6 +79,13 @@ export interface LobeAgentChatConfig { } /* eslint-enable */ +/** + * Zod schema for LocalSystemConfig + */ +export const LocalSystemConfigSchema = z.object({ + workingDirectory: z.string().optional(), +}); + export const AgentChatConfigSchema = z.object({ autoCreateTopicThreshold: z.number().default(2), disableContextCaching: z.boolean().optional(), @@ -91,6 +103,7 @@ export const AgentChatConfigSchema = z.object({ historyCount: z.number().optional(), imageAspectRatio: z.string().optional(), imageResolution: z.enum(['1K', '2K', '4K']).optional(), + localSystem: LocalSystemConfigSchema.optional(), reasoningBudgetToken: z.number().optional(), reasoningEffort: z.enum(['low', 'medium', 'high']).optional(), searchFCModel: z diff --git a/packages/types/src/agent/index.ts b/packages/types/src/agent/index.ts index 092e67c2cb..47a01dc2c2 100644 --- a/packages/types/src/agent/index.ts +++ b/packages/types/src/agent/index.ts @@ -1,3 +1,4 @@ +export * from './agentConfig'; export * from './chatConfig'; export * from './item'; export * from './tts'; diff --git a/packages/types/src/topic/topic.ts b/packages/types/src/topic/topic.ts index ca9f72bd87..01ce47d010 100644 --- a/packages/types/src/topic/topic.ts +++ b/packages/types/src/topic/topic.ts @@ -38,6 +38,11 @@ export interface ChatTopicMetadata { provider?: string; userMemoryExtractRunState?: TopicUserMemoryExtractRunState; userMemoryExtractStatus?: 'pending' | 'completed' | 'failed'; + /** + * Local System 工作目录(桌面端专用) + * 优先级高于 Agent 级别的设置 + */ + workingDirectory?: string; } export interface ChatTopicSummary { diff --git a/packages/utils/src/client/index.ts b/packages/utils/src/client/index.ts index 006812bb8e..dfdf2ea7eb 100644 --- a/packages/utils/src/client/index.ts +++ b/packages/utils/src/client/index.ts @@ -3,6 +3,5 @@ export * from './clipboard'; export * from './downloadFile'; export * from './exportFile'; export * from './fetchEventSource'; -export * from './parserPlaceholder'; export * from './sanitize'; export * from './videoValidation'; diff --git a/src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/index.tsx b/src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/index.tsx new file mode 100644 index 0000000000..1d1147494f --- /dev/null +++ b/src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/index.tsx @@ -0,0 +1,33 @@ +'use client'; + +import { ActionIcon, Dropdown } from '@lobehub/ui'; +import type { MenuProps } from '@lobehub/ui'; +import { MoreHorizontal } from 'lucide-react'; +import { memo } from 'react'; + +import { DESKTOP_HEADER_ICON_SIZE } from '@/const/layoutTokens'; + +import { useMenu } from './useMenu'; + +const HeaderActions = memo(() => { + const { menuItems } = useMenu(); + + return ( + { + domEvent.stopPropagation(); + }, + }} + trigger={['click']} + > + + + ); +}); + +HeaderActions.displayName = 'HeaderActions'; + +export default HeaderActions; diff --git a/src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/useMenu.tsx b/src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/useMenu.tsx new file mode 100644 index 0000000000..8f8d37457a --- /dev/null +++ b/src/app/[variants]/(main)/chat/features/Conversation/Header/HeaderActions/useMenu.tsx @@ -0,0 +1,42 @@ +'use client'; + +import { Flexbox } from '@lobehub/ui'; +import { Switch } from 'antd'; +import { useMemo } from 'react'; +import { useTranslation } from 'react-i18next'; + +import { useGlobalStore } from '@/store/global'; +import { systemStatusSelectors } from '@/store/global/selectors'; + +export const useMenu = (): { menuItems: any[] } => { + const { t } = useTranslation('chat'); + + const [wideScreen, toggleWideScreen] = useGlobalStore((s) => [ + systemStatusSelectors.wideScreen(s), + s.toggleWideScreen, + ]); + + const menuItems = useMemo( + () => [ + { + key: 'full-width', + label: ( + + {t('viewMode.fullWidth')} + { + event.stopPropagation(); + }} + size="small" + /> + + ), + }, + ], + [t, wideScreen, toggleWideScreen], + ); + + return { menuItems }; +}; diff --git a/src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/WorkingDirectoryContent.tsx b/src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/WorkingDirectoryContent.tsx new file mode 100644 index 0000000000..ed68932376 --- /dev/null +++ b/src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/WorkingDirectoryContent.tsx @@ -0,0 +1,174 @@ +import { isDesktop } from '@lobechat/const'; +import { Flexbox, Icon, Text } from '@lobehub/ui'; +import { Button, Divider, Input, Space, Switch } from 'antd'; +import { FolderOpen } from 'lucide-react'; +import { memo, useCallback, useState } from 'react'; +import { useTranslation } from 'react-i18next'; + +import { electronSystemService } from '@/services/electron/system'; +import { useAgentStore } from '@/store/agent'; +import { agentByIdSelectors } from '@/store/agent/selectors'; +import { useChatStore } from '@/store/chat'; +import { topicSelectors } from '@/store/chat/selectors'; + +interface WorkingDirectoryContentProps { + agentId: string; + onClose?: () => void; +} + +const WorkingDirectoryContent = memo(({ agentId, onClose }) => { + const { t } = useTranslation('plugin'); + + // Get current values + const agentWorkingDirectory = useAgentStore((s) => + agentByIdSelectors.getAgentWorkingDirectoryById(agentId)(s), + ); + const topicWorkingDirectory = useChatStore(topicSelectors.currentTopicWorkingDirectory); + const activeTopicId = useChatStore((s) => s.activeTopicId); + + // Actions + const updateAgentLocalSystemConfig = useAgentStore((s) => s.updateAgentLocalSystemConfigById); + const updateTopicMetadata = useChatStore((s) => s.updateTopicMetadata); + + // Local state for editing + const [agentDir, setAgentDir] = useState(agentWorkingDirectory || ''); + const [topicDir, setTopicDir] = useState(topicWorkingDirectory || ''); + const [useTopicOverride, setUseTopicOverride] = useState(!!topicWorkingDirectory); + const [loading, setLoading] = useState(false); + + const handleSelectAgentFolder = useCallback(async () => { + if (!isDesktop) return; + const folder = await electronSystemService.selectFolder({ + defaultPath: agentDir || undefined, + title: t('localSystem.workingDirectory.selectFolder'), + }); + if (folder) setAgentDir(folder); + }, [agentDir, t]); + + const handleSelectTopicFolder = useCallback(async () => { + if (!isDesktop) return; + const folder = await electronSystemService.selectFolder({ + defaultPath: topicDir || undefined, + title: t('localSystem.workingDirectory.selectFolder'), + }); + if (folder) setTopicDir(folder); + }, [topicDir, t]); + + const handleSave = useCallback(async () => { + setLoading(true); + try { + // Save agent working directory + await updateAgentLocalSystemConfig(agentId, { + workingDirectory: agentDir || undefined, + }); + + // Save topic working directory if override is enabled + if (activeTopicId && useTopicOverride) { + await updateTopicMetadata(activeTopicId, { + workingDirectory: topicDir || undefined, + }); + } else if (activeTopicId && !useTopicOverride && topicWorkingDirectory) { + // Clear topic override if disabled + await updateTopicMetadata(activeTopicId, { + workingDirectory: undefined, + }); + } + + onClose?.(); + } finally { + setLoading(false); + } + }, [ + agentId, + agentDir, + activeTopicId, + useTopicOverride, + topicDir, + topicWorkingDirectory, + updateAgentLocalSystemConfig, + updateTopicMetadata, + onClose, + ]); + + return ( + + + + {t('localSystem.workingDirectory.agentLevel')} + + + setAgentDir(e.target.value)} + placeholder={t('localSystem.workingDirectory.placeholder')} + size="small" + style={{ flex: 1, fontSize: 12 }} + value={agentDir} + variant={'filled'} + /> + {isDesktop && ( + + )} + + + + {activeTopicId && ( + <> + + + { + setUseTopicOverride(!useTopicOverride); + }} + style={{ cursor: 'pointer' }} + > + + {t('localSystem.workingDirectory.topicOverride')} + + + {useTopicOverride && ( + + + {t('localSystem.workingDirectory.topicLevel')} + + + setTopicDir(e.target.value)} + placeholder={t('localSystem.workingDirectory.placeholder')} + size="small" + style={{ flex: 1, fontSize: 12 }} + value={topicDir} + variant={'filled'} + /> + {isDesktop && ( + + )} + + + )} + + )} + + + + + + + + + ); +}); + +WorkingDirectoryContent.displayName = 'WorkingDirectoryContent'; + +export default WorkingDirectoryContent; diff --git a/src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/index.tsx b/src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/index.tsx new file mode 100644 index 0000000000..b4d17b63c3 --- /dev/null +++ b/src/app/[variants]/(main)/chat/features/Conversation/Header/WorkingDirectory/index.tsx @@ -0,0 +1,115 @@ +import { LocalSystemManifest } from '@lobechat/builtin-tool-local-system'; +import { Flexbox, Icon, Tooltip } from '@lobehub/ui'; +import { Popover } from 'antd'; +import { createStaticStyles, cx } from 'antd-style'; +import { LaptopIcon, SquircleDashed } from 'lucide-react'; +import { memo, useMemo, useState } from 'react'; +import { useTranslation } from 'react-i18next'; + +import { useAgentStore } from '@/store/agent'; +import { agentByIdSelectors } from '@/store/agent/selectors'; +import { useChatStore } from '@/store/chat'; +import { topicSelectors } from '@/store/chat/selectors'; + +import WorkingDirectoryContent from './WorkingDirectoryContent'; + +const styles = createStaticStyles(({ css, cssVar }) => { + return { + base: css` + border-radius: 6px; + color: ${cssVar.colorTextTertiary}; + background-color: ${cssVar.colorFillTertiary}; + + :hover { + color: ${cssVar.colorTextSecondary}; + background-color: ${cssVar.colorFillSecondary}; + } + `, + filled: css` + font-family: ${cssVar.fontFamilyCode}; + color: ${cssVar.colorText} !important; + `, + }; +}); + +const WorkingDirectory = memo(() => { + const { t } = useTranslation('plugin'); + const [open, setOpen] = useState(false); + + const agentId = useAgentStore((s) => s.activeAgentId); + + // Check if local-system plugin is enabled for current agent + const plugins = useAgentStore((s) => + agentId ? agentByIdSelectors.getAgentPluginsById(agentId)(s) : [], + ); + const isLocalSystemEnabled = useMemo( + () => plugins.includes(LocalSystemManifest.identifier), + [plugins], + ); + + // Get working directory from Topic (higher priority) or Agent (fallback) + const topicWorkingDirectory = useChatStore(topicSelectors.currentTopicWorkingDirectory); + const agentWorkingDirectory = useAgentStore((s) => + agentId ? agentByIdSelectors.getAgentWorkingDirectoryById(agentId)(s) : undefined, + ); + + const effectiveWorkingDirectory = topicWorkingDirectory || agentWorkingDirectory; + + // Only show when local-system is enabled and agent exists + if (!agentId || !isLocalSystemEnabled) return null; + + // Get last folder name for display + const hasWorkingDirectory = !!effectiveWorkingDirectory; + + const displayName = effectiveWorkingDirectory + ? effectiveWorkingDirectory.split('/').findLast(Boolean) || effectiveWorkingDirectory + : t('localSystem.workingDirectory.notSet'); + + const content = hasWorkingDirectory ? ( + + + {displayName} + + ) : ( + + + {t('localSystem.workingDirectory.notSet')} + + ); + return ( + setOpen(false)} />} + onOpenChange={setOpen} + open={open} + placement="bottomRight" + trigger={['click']} + > +
+ {open ? ( + content + ) : ( + + {content} + + )} +
+
+ ); +}); + +WorkingDirectory.displayName = 'WorkingDirectory'; + +export default WorkingDirectory; diff --git a/src/app/[variants]/(main)/chat/features/Conversation/Header/index.tsx b/src/app/[variants]/(main)/chat/features/Conversation/Header/index.tsx index 1c91add212..de874baa3b 100644 --- a/src/app/[variants]/(main)/chat/features/Conversation/Header/index.tsx +++ b/src/app/[variants]/(main)/chat/features/Conversation/Header/index.tsx @@ -6,10 +6,11 @@ import { memo } from 'react'; import NavHeader from '@/features/NavHeader'; -import WideScreenButton from '../../../../../../../features/WideScreenContainer/WideScreenButton'; +import HeaderActions from './HeaderActions'; import NotebookButton from './NotebookButton'; import ShareButton from './ShareButton'; import Tags from './Tags'; +import WorkingDirectory from './WorkingDirectory'; const Header = memo(() => { return ( @@ -20,10 +21,11 @@ const Header = memo(() => { } right={ - - + + + } /> diff --git a/src/app/[variants]/(main)/chat/profile/features/ProfileEditor/MentionList/useMentionItems.tsx b/src/app/[variants]/(main)/chat/profile/features/ProfileEditor/MentionList/useMentionItems.tsx index 36c5ee15cc..ea543300e9 100644 --- a/src/app/[variants]/(main)/chat/profile/features/ProfileEditor/MentionList/useMentionItems.tsx +++ b/src/app/[variants]/(main)/chat/profile/features/ProfileEditor/MentionList/useMentionItems.tsx @@ -9,10 +9,10 @@ import isEqual from 'fast-deep-equal'; import { memo, useCallback, useMemo } from 'react'; import PluginAvatar from '@/components/Plugins/PluginAvatar'; +import { globalAgentContextManager } from '@/helpers/GlobalAgentContextManager'; import { useAgentStore } from '@/store/agent'; import { pluginHelpers, useToolStore } from '@/store/tool'; import { toolSelectors } from '@/store/tool/selectors'; -import { globalAgentContextManager } from '@/utils/client/GlobalAgentContextManager'; import { hydrationPrompt } from '@/utils/promptTemplate'; import MentionDropdown from './MentionDropdown'; diff --git a/src/app/[variants]/(main)/group/profile/features/ProfileEditor/MentionList/useMentionItems.tsx b/src/app/[variants]/(main)/group/profile/features/ProfileEditor/MentionList/useMentionItems.tsx index 36c5ee15cc..ea543300e9 100644 --- a/src/app/[variants]/(main)/group/profile/features/ProfileEditor/MentionList/useMentionItems.tsx +++ b/src/app/[variants]/(main)/group/profile/features/ProfileEditor/MentionList/useMentionItems.tsx @@ -9,10 +9,10 @@ import isEqual from 'fast-deep-equal'; import { memo, useCallback, useMemo } from 'react'; import PluginAvatar from '@/components/Plugins/PluginAvatar'; +import { globalAgentContextManager } from '@/helpers/GlobalAgentContextManager'; import { useAgentStore } from '@/store/agent'; import { pluginHelpers, useToolStore } from '@/store/tool'; import { toolSelectors } from '@/store/tool/selectors'; -import { globalAgentContextManager } from '@/utils/client/GlobalAgentContextManager'; import { hydrationPrompt } from '@/utils/promptTemplate'; import MentionDropdown from './MentionDropdown'; diff --git a/packages/utils/src/client/GlobalAgentContextManager.ts b/src/helpers/GlobalAgentContextManager.ts similarity index 100% rename from packages/utils/src/client/GlobalAgentContextManager.ts rename to src/helpers/GlobalAgentContextManager.ts diff --git a/packages/utils/src/client/parserPlaceholder.test.ts b/src/helpers/parserPlaceholder/index.test.ts similarity index 89% rename from packages/utils/src/client/parserPlaceholder.test.ts rename to src/helpers/parserPlaceholder/index.test.ts index 25e1f32865..c24cebcdf6 100644 --- a/packages/utils/src/client/parserPlaceholder.test.ts +++ b/src/helpers/parserPlaceholder/index.test.ts @@ -1,9 +1,9 @@ import { afterEach, beforeEach, describe, expect, it, vi } from 'vitest'; -import { parsePlaceholderVariablesMessages } from './parserPlaceholder'; +import { parsePlaceholderVariablesMessages } from './index'; // Mock dependencies -vi.mock('../uuid', () => ({ +vi.mock('@lobechat/utils', () => ({ uuid: () => 'mocked-uuid-12345', })); @@ -18,6 +18,44 @@ vi.mock('@/store/user/selectors', () => ({ displayUserName: () => 'testuser', nickName: () => 'Test User', fullName: () => 'Test Full Name', + email: () => 'test@example.com', + }, +})); + +vi.mock('@/store/agent', () => ({ + useAgentStore: { + getState: () => ({}), + }, +})); + +vi.mock('@/store/agent/selectors', () => ({ + agentSelectors: { + currentAgentModel: () => 'gpt-4', + currentAgentModelProvider: () => 'openai', + currentAgentWorkingDirectory: () => undefined, + }, +})); + +vi.mock('@/store/chat', () => ({ + useChatStore: { + getState: () => ({}), + }, +})); + +vi.mock('@/store/chat/selectors', () => ({ + topicSelectors: { + currentTopicWorkingDirectory: () => undefined, + }, +})); + +vi.mock('./GlobalAgentContextManager', () => ({ + globalAgentContextManager: { + getContext: () => ({ + homePath: '/Users/test', + desktopPath: '/Users/test/Desktop', + documentsPath: '/Users/test/Documents', + downloadsPath: '/Users/test/Downloads', + }), }, })); diff --git a/packages/utils/src/client/parserPlaceholder.ts b/src/helpers/parserPlaceholder/index.ts similarity index 90% rename from packages/utils/src/client/parserPlaceholder.ts rename to src/helpers/parserPlaceholder/index.ts index bb4fa69fe4..c344709c20 100644 --- a/packages/utils/src/client/parserPlaceholder.ts +++ b/src/helpers/parserPlaceholder/index.ts @@ -1,12 +1,14 @@ +import { uuid } from '@lobechat/utils'; import { template } from 'es-toolkit/compat'; import { useAgentStore } from '@/store/agent'; import { agentSelectors } from '@/store/agent/selectors'; +import { useChatStore } from '@/store/chat'; +import { topicSelectors } from '@/store/chat/selectors'; import { useUserStore } from '@/store/user'; import { userProfileSelectors } from '@/store/user/selectors'; -import { uuid } from '../uuid'; -import { globalAgentContextManager } from './GlobalAgentContextManager'; +import { globalAgentContextManager } from '../GlobalAgentContextManager'; const placeholderVariablesRegex = /{{(.*?)}}/g; @@ -140,6 +142,7 @@ export const VARIABLE_GENERATORS = { * | `{{picturesPath}}` | /Users/username/Pictures | * | `{{videosPath}}` | /Users/username/Videos | * | `{{userDataPath}}` | /Users/username/Library/Application Support/LobeChat | + * | `{{workingDirectory}}` | /Users/username/Projects/my-project | * */ homePath: () => globalAgentContextManager.getContext().homePath ?? '', @@ -150,6 +153,18 @@ export const VARIABLE_GENERATORS = { picturesPath: () => globalAgentContextManager.getContext().picturesPath ?? '', videosPath: () => globalAgentContextManager.getContext().videosPath ?? '', userDataPath: () => globalAgentContextManager.getContext().userDataPath ?? '', + /** + * Working directory: Topic-level setting takes priority over Agent-level setting + */ + workingDirectory: () => { + // First check topic-level working directory + const topicWorkingDir = topicSelectors.currentTopicWorkingDirectory(useChatStore.getState()); + if (topicWorkingDir) return topicWorkingDir; + + // Fallback to agent-level working directory + const agentWorkingDir = agentSelectors.currentAgentWorkingDirectory(useAgentStore.getState()); + return agentWorkingDir ?? '(not specified, use user Desktop directory as default)'; + }, } as Record string>; /** diff --git a/src/locales/default/plugin.ts b/src/locales/default/plugin.ts index ef6555e272..19f6472312 100644 --- a/src/locales/default/plugin.ts +++ b/src/locales/default/plugin.ts @@ -317,6 +317,18 @@ export default { 'list.item.local.title': 'Custom', 'loading.content': 'Calling Skill…', 'loading.plugin': 'Skill running…', + 'localSystem.workingDirectory.agentDescription': + 'Default working directory for all conversations with this Agent', + 'localSystem.workingDirectory.agentLevel': 'Agent Working Directory', + 'localSystem.workingDirectory.current': 'Current working directory', + 'localSystem.workingDirectory.notSet': 'Click to set working directory', + 'localSystem.workingDirectory.placeholder': 'Enter directory path, e.g. /Users/name/projects', + 'localSystem.workingDirectory.selectFolder': 'Select folder', + 'localSystem.workingDirectory.title': 'Working Directory', + 'localSystem.workingDirectory.topicDescription': + 'Override Agent default for this conversation only', + 'localSystem.workingDirectory.topicLevel': 'Conversation override', + 'localSystem.workingDirectory.topicOverride': 'Override for this conversation', 'mcpEmpty.deployment': 'No deployment options', 'mcpEmpty.prompts': 'No prompts', 'mcpEmpty.resources': 'No resources', diff --git a/src/server/routers/lambda/topic.ts b/src/server/routers/lambda/topic.ts index 4b88532bb6..fadbbac181 100644 --- a/src/server/routers/lambda/topic.ts +++ b/src/server/routers/lambda/topic.ts @@ -1,4 +1,8 @@ -import { type RecentTopic, type RecentTopicGroup, type RecentTopicGroupMember } from '@lobechat/types'; +import { + type RecentTopic, + type RecentTopicGroup, + type RecentTopicGroupMember, +} from '@lobechat/types'; import { eq, inArray } from 'drizzle-orm'; import { after } from 'next/server'; import { z } from 'zod'; @@ -435,6 +439,21 @@ export const topicRouter = router({ return ctx.topicModel.update(input.id, { ...restValue, sessionId: resolvedSessionId }); }), + + updateTopicMetadata: topicProcedure + .input( + z.object({ + id: z.string(), + metadata: z.object({ + model: z.string().optional(), + provider: z.string().optional(), + workingDirectory: z.string().optional(), + }), + }), + ) + .mutation(async ({ input, ctx }) => { + return ctx.topicModel.updateMetadata(input.id, input.metadata); + }), }); export type TopicRouter = typeof topicRouter; diff --git a/src/services/chat/mecha/contextEngineering.test.ts b/src/services/chat/mecha/contextEngineering.test.ts index 35da13cacd..fb1c1249db 100644 --- a/src/services/chat/mecha/contextEngineering.test.ts +++ b/src/services/chat/mecha/contextEngineering.test.ts @@ -8,7 +8,7 @@ import { contextEngineering } from './contextEngineering'; import * as memoryManager from './memoryManager'; // Mock VARIABLE_GENERATORS -vi.mock('@/utils/client/parserPlaceholder', () => ({ +vi.mock('@/helpers/parserPlaceholder', () => ({ VARIABLE_GENERATORS: { date: () => '2023-12-25', time: () => '14:30:45', diff --git a/src/services/chat/mecha/contextEngineering.ts b/src/services/chat/mecha/contextEngineering.ts index dc876a26a6..6b06aa4c07 100644 --- a/src/services/chat/mecha/contextEngineering.ts +++ b/src/services/chat/mecha/contextEngineering.ts @@ -18,10 +18,10 @@ import { type RuntimeStepContext, type UIChatMessage, } from '@lobechat/types'; -import { VARIABLE_GENERATORS } from '@lobechat/utils/client'; import debug from 'debug'; import { isCanUseFC } from '@/helpers/isCanUseFC'; +import { VARIABLE_GENERATORS } from '@/helpers/parserPlaceholder'; import { notebookService } from '@/services/notebook'; import { getAgentStoreState } from '@/store/agent'; import { agentSelectors } from '@/store/agent/selectors'; diff --git a/src/services/electron/system.ts b/src/services/electron/system.ts index e4f729ba6c..a4ce5b65ed 100644 --- a/src/services/electron/system.ts +++ b/src/services/electron/system.ts @@ -10,6 +10,10 @@ import { ensureElectronIpc } from '@/utils/electron/ipc'; * Service class for interacting with Electron's system-level information and actions. */ class ElectronSystemService { + private get ipc() { + return ensureElectronIpc(); + } + /** * Fetches the application state from the Electron main process. * This includes system information (platform, arch) and user-specific paths. @@ -17,36 +21,46 @@ class ElectronSystemService { */ async getAppState(): Promise { // Calls the underlying IPC function to get data from the main process - return ensureElectronIpc().system.getAppState(); + return this.ipc.system.getAppState(); } async closeWindow(): Promise { - return ensureElectronIpc().windows.closeWindow(); + return this.ipc.windows.closeWindow(); } async maximizeWindow(): Promise { - return ensureElectronIpc().windows.maximizeWindow(); + return this.ipc.windows.maximizeWindow(); } async minimizeWindow(): Promise { - return ensureElectronIpc().windows.minimizeWindow(); + return this.ipc.windows.minimizeWindow(); } async setWindowResizable(params: WindowResizableParams): Promise { - return ensureElectronIpc().windows.setWindowResizable(params); + return this.ipc.windows.setWindowResizable(params); } async setWindowSize(params: WindowSizeParams): Promise { - return ensureElectronIpc().windows.setWindowSize(params); + return this.ipc.windows.setWindowSize(params); } async openExternalLink(url: string): Promise { - return ensureElectronIpc().system.openExternalLink(url); + return this.ipc.system.openExternalLink(url); } showContextMenu = async (type: string, data?: any) => { - return ensureElectronIpc().menu.showContextMenu({ data, type }); + return this.ipc.menu.showContextMenu({ data, type }); }; + + /** + * Open native folder picker dialog + */ + async selectFolder(params?: { + defaultPath?: string; + title?: string; + }): Promise { + return this.ipc.system.selectFolder(params); + } } // Export a singleton instance of the service diff --git a/src/services/topic/index.ts b/src/services/topic/index.ts index 46e688140a..7c1035c756 100644 --- a/src/services/topic/index.ts +++ b/src/services/topic/index.ts @@ -77,6 +77,13 @@ export class TopicService { return lambdaClient.topic.updateTopic.mutate({ id, value: data }); }; + updateTopicMetadata = ( + id: string, + metadata: { model?: string; provider?: string; workingDirectory?: string }, + ) => { + return lambdaClient.topic.updateTopicMetadata.mutate({ id, metadata }); + }; + removeTopic = (id: string) => { return lambdaClient.topic.removeTopic.mutate({ id }); }; diff --git a/src/store/agent/selectors/agentByIdSelectors.ts b/src/store/agent/selectors/agentByIdSelectors.ts index cff8acafb7..8b915ab856 100644 --- a/src/store/agent/selectors/agentByIdSelectors.ts +++ b/src/store/agent/selectors/agentByIdSelectors.ts @@ -1,7 +1,7 @@ import { DEFAULT_PROVIDER } from '@lobechat/business-const'; import { DEFAULT_MODEL, DEFAUTT_AGENT_TTS_CONFIG } from '@lobechat/const'; import type { AgentBuilderContext } from '@lobechat/context-engine'; -import { type LobeAgentTTSConfig } from '@lobechat/types'; +import { type AgentMode, type LobeAgentTTSConfig, type LocalSystemConfig } from '@lobechat/types'; import type { AgentStoreState } from '../initialState'; import { agentSelectors } from './selectors'; @@ -45,10 +45,50 @@ const getAgentKnowledgeBasesById = (agentId: string) => (s: AgentStoreState) => const isAgentConfigLoadingById = (agentId: string) => (s: AgentStoreState) => !agentId || !s.agentMap[agentId]; +/** + * Get agent mode by agentId + * Now reads from chatConfig.agentMode and chatConfig.enableAgentMode + */ +const getAgentModeById = + (agentId: string) => + (s: AgentStoreState): AgentMode | undefined => { + const config = agentSelectors.getAgentConfigById(agentId)(s); + + // Fallback: convert enableAgentMode to mode + if (config?.enableAgentMode) { + return 'auto'; + } + + return undefined; + }; + +/** + * Check if agent mode is enabled by agentId + * Supports backward compatibility with deprecated enableAgentMode field + */ const getAgentEnableModeById = (agentId: string) => - (s: AgentStoreState): boolean => - agentSelectors.getAgentConfigById(agentId)(s)?.enableAgentMode || false; + (s: AgentStoreState): boolean => { + const mode = getAgentModeById(agentId)(s); + return mode !== undefined; + }; + +/** + * Get local system config by agentId + * Now reads from chatConfig.localSystem + */ +const getAgentLocalSystemConfigById = + (agentId: string) => + (s: AgentStoreState): LocalSystemConfig | undefined => + agentSelectors.getAgentConfigById(agentId)(s)?.chatConfig?.localSystem; + +/** + * Get working directory by agentId + */ +const getAgentWorkingDirectoryById = + (agentId: string) => + (s: AgentStoreState): string | undefined => + getAgentLocalSystemConfigById(agentId)(s)?.workingDirectory; /** * Get agent builder context by agentId @@ -81,10 +121,13 @@ export const agentByIdSelectors = { getAgentEnableModeById, getAgentFilesById, getAgentKnowledgeBasesById, + getAgentLocalSystemConfigById, + getAgentModeById, getAgentModelById, getAgentModelProviderById, getAgentPluginsById, getAgentSystemRoleById, getAgentTTSById, + getAgentWorkingDirectoryById, isAgentConfigLoadingById, }; diff --git a/src/store/agent/selectors/selectors.ts b/src/store/agent/selectors/selectors.ts index e3ab878c6e..fb96c0eaa9 100644 --- a/src/store/agent/selectors/selectors.ts +++ b/src/store/agent/selectors/selectors.ts @@ -7,10 +7,12 @@ import { DEFAUTT_AGENT_TTS_CONFIG, } from '@lobechat/const'; import { + type AgentMode, type KnowledgeItem, KnowledgeType, type LobeAgentConfig, type LobeAgentTTSConfig, + type LocalSystemConfig, type MetaData, } from '@lobechat/types'; import { VoiceList } from '@lobehub/tts'; @@ -223,6 +225,41 @@ const openingQuestions = (s: AgentStoreState) => currentAgentConfig(s)?.openingQuestions || DEFAULT_OPENING_QUESTIONS; const openingMessage = (s: AgentStoreState) => currentAgentConfig(s)?.openingMessage || ''; +// ========== Agent Mode Config ============== // + +/** + * Get current agent's mode + * Now reads from chatConfig.agentMode and chatConfig.enableAgentMode + */ +const currentAgentMode = (s: AgentStoreState): AgentMode | undefined => { + const config = currentAgentConfig(s); + + // Fallback: convert enableAgentMode to mode + if (config?.enableAgentMode) { + return 'auto'; + } + + return undefined; +}; + +/** + * Check if current agent mode is enabled + */ +const isAgentModeEnabled = (s: AgentStoreState): boolean => currentAgentMode(s) !== undefined; + +/** + * Get current agent's local system config + * Now reads from chatConfig.localSystem + */ +const currentAgentLocalSystemConfig = (s: AgentStoreState): LocalSystemConfig | undefined => + currentAgentConfig(s)?.chatConfig?.localSystem; + +/** + * Get current agent's working directory + */ +const currentAgentWorkingDirectory = (s: AgentStoreState): string | undefined => + currentAgentLocalSystemConfig(s)?.workingDirectory; + export const agentSelectors = { currentAgentAvatar, currentAgentBackgroundColor, @@ -230,7 +267,9 @@ export const agentSelectors = { currentAgentDescription, currentAgentFiles, currentAgentKnowledgeBases, + currentAgentLocalSystemConfig, currentAgentMeta, + currentAgentMode, currentAgentModel, currentAgentModelProvider, currentAgentPlugins, @@ -239,6 +278,7 @@ export const agentSelectors = { currentAgentTTSVoice, currentAgentTags, currentAgentTitle, + currentAgentWorkingDirectory, currentEnabledKnowledge, currentKnowledgeIds, displayableAgentPlugins, @@ -252,6 +292,7 @@ export const agentSelectors = { inboxAgentConfig, inboxAgentModel, isAgentConfigLoading, + isAgentModeEnabled, openingMessage, openingQuestions, }; diff --git a/src/store/agent/slices/agent/action.ts b/src/store/agent/slices/agent/action.ts index 471903720e..3f0fd7cd34 100644 --- a/src/store/agent/slices/agent/action.ts +++ b/src/store/agent/slices/agent/action.ts @@ -10,7 +10,11 @@ import { mutate, useClientDataSWR } from '@/libs/swr'; import { type CreateAgentParams, type CreateAgentResult, agentService } from '@/services/agent'; import { getUserStoreState } from '@/store/user'; import { userProfileSelectors } from '@/store/user/selectors'; -import { type LobeAgentChatConfig, type LobeAgentConfig } from '@/types/agent'; +import { + type LobeAgentChatConfig, + type LobeAgentConfig, + type LocalSystemConfig, +} from '@/types/agent'; import { type MetaData } from '@/types/meta'; import { merge } from '@/utils/merge'; @@ -79,6 +83,10 @@ export interface AgentSliceAction { ) => Promise; updateAgentConfig: (config: PartialDeep) => Promise; updateAgentConfigById: (agentId: string, config: PartialDeep) => Promise; + updateAgentLocalSystemConfigById: ( + agentId: string, + config: Partial, + ) => Promise; updateAgentMeta: (meta: Partial) => Promise; /** * Update loading state for meta fields (used during autocomplete) @@ -238,6 +246,12 @@ export const createAgentSlice: StateCreator< await get().optimisticUpdateAgentConfig(agentId, config, controller.signal); }, + updateAgentLocalSystemConfigById: async (agentId, config) => { + if (!agentId) return; + + await get().updateAgentChatConfigById(agentId, { localSystem: config }); + }, + updateAgentMeta: async (meta) => { const { activeAgentId } = get(); diff --git a/src/store/chat/slices/topic/action.ts b/src/store/chat/slices/topic/action.ts index cdbeb2f30b..f827180dee 100644 --- a/src/store/chat/slices/topic/action.ts +++ b/src/store/chat/slices/topic/action.ts @@ -2,7 +2,12 @@ // Note: To make the code more logic and readable, we just disable the auto sort key eslint rule // DON'T REMOVE THE FIRST LINE import { chainSummaryTitle } from '@lobechat/prompts'; -import { type MessageMapScope, TraceNameMap, type UIChatMessage } from '@lobechat/types'; +import { + type ChatTopicMetadata, + type MessageMapScope, + TraceNameMap, + type UIChatMessage, +} from '@lobechat/types'; import isEqual from 'fast-deep-equal'; import { t } from 'i18next'; import useSWR, { type SWRResponse } from 'swr'; @@ -75,6 +80,12 @@ export interface ChatTopicAction { * @param options - Options object or boolean for backward compatibility (skipRefreshMessage) */ switchTopic: (id?: string, options?: boolean | SwitchTopicOptions) => Promise; + /** + * Update topic metadata + * @param id - Topic ID to update + * @param metadata - Partial metadata to merge with existing metadata + */ + updateTopicMetadata: (id: string, metadata: Partial) => Promise; updateTopicTitle: (id: string, title: string) => Promise; useFetchTopics: ( enable: boolean, @@ -274,6 +285,20 @@ export const chatTopic: StateCreator< await get().internal_updateTopic(id, { favorite }); }, + updateTopicMetadata: async (id, metadata) => { + const topic = topicSelectors.getTopicById(id)(get()); + if (!topic) return; + + // Optimistic update with merged metadata + const mergedMetadata = { ...topic.metadata, ...metadata }; + get().internal_dispatchTopic({ type: 'updateTopic', id, value: { metadata: mergedMetadata } }); + + get().internal_updateTopicLoading(id, true); + await topicService.updateTopicMetadata(id, metadata); + await get().refreshTopic(); + get().internal_updateTopicLoading(id, false); + }, + updateTopicTitle: async (id, title) => { await get().internal_updateTopic(id, { title }); }, diff --git a/src/store/chat/slices/topic/selectors.ts b/src/store/chat/slices/topic/selectors.ts index 2a91d261a3..d0dab94d0f 100644 --- a/src/store/chat/slices/topic/selectors.ts +++ b/src/store/chat/slices/topic/selectors.ts @@ -61,6 +61,15 @@ const currentActiveTopicSummary = (s: ChatStoreState): ChatTopicSummary | undefi }; }; +/** + * Get current active topic's working directory + * Returns undefined if no topic is active or no working directory is set + */ +const currentTopicWorkingDirectory = (s: ChatStoreState): string | undefined => { + const activeTopic = currentActiveTopic(s); + return activeTopic?.metadata?.workingDirectory; +}; + const isCreatingTopic = (s: ChatStoreState) => s.creatingTopic; const isUndefinedTopics = (s: ChatStoreState) => !currentTopics(s); const isInSearchMode = (s: ChatStoreState) => s.inSearchingMode; @@ -132,6 +141,7 @@ export const topicSelectors = { currentTopicCount, currentTopicData, currentTopicLength, + currentTopicWorkingDirectory, currentTopics, currentUnFavTopics, displayTopics, diff --git a/src/store/electron/actions/app.ts b/src/store/electron/actions/app.ts index 97ab34be31..92ecb59110 100644 --- a/src/store/electron/actions/app.ts +++ b/src/store/electron/actions/app.ts @@ -2,10 +2,10 @@ import { type ElectronAppState } from '@lobechat/electron-client-ipc'; import { type SWRResponse } from 'swr'; import { type StateCreator } from 'zustand/vanilla'; +import { globalAgentContextManager } from '@/helpers/GlobalAgentContextManager'; import { useOnlyFetchOnceSWR } from '@/libs/swr'; // Import for type usage import { electronSystemService } from '@/services/electron/system'; -import { globalAgentContextManager } from '@/utils/client/GlobalAgentContextManager'; import { merge } from '@/utils/merge'; import type { ElectronStore } from '../store';