Sync main branch to canary branch (#12267)

* 🔧 chore(release): bump version to v2.1.27 [skip ci]

* chore: update sync main to canary workflow

* 🐛 fix: update @lobehub/ui version and refactor dynamic import handling (#12260)

*  feat: add hotfix workflow and script for automated hotfix management

Signed-off-by: Innei <tukon479@gmail.com>

* 🔧 fix: refactor PR creation command to use execFileSync for improved reliability

Signed-off-by: Innei <tukon479@gmail.com>

* 🔧 chore: update @lobehub/ui version and refactor dynamic import handling

- Bump @lobehub/ui dependency from ^4.35.0 to ^4.36.2 in package.json.
- Refactor settingsContentToStatic.mts to simplify dynamic import processing by removing business feature checks.
- Add initialize.ts to enable immer's map set functionality.
- Correct import path in layout.tsx from 'initiallize' to 'initialize'.

Signed-off-by: Innei <tukon479@gmail.com>

* 🔧 chore: update @types/react version in package.json

- Bump @types/react dependency from ^19.2.9 to 19.2.14.
- Add @types/react version to overrides section for consistency.

Signed-off-by: Innei <tukon479@gmail.com>

* 🔧 chore: enhance auto-tag-release workflow for strict semver validation

- Updated regex to match strict semantic versioning format, allowing for optional prerelease and build metadata.
- Added validation step to ensure the version is a valid semver before proceeding with the release process.

Signed-off-by: Innei <tukon479@gmail.com>

* 🗑️ chore: remove defaultSecurityBlacklist test file

- Deleted the test file for DEFAULT_SECURITY_BLACKLIST as it is no longer needed.
- This cleanup helps maintain a more streamlined test suite.

Signed-off-by: Innei <tukon479@gmail.com>

* 🔧 chore: update localization files for multiple languages

- Improved translations in Arabic, Bulgarian, German, English, and Spanish for chat and tool-related strings.
- Enhanced descriptions for various parameters and added new keys for file handling and security warnings.
- Adjusted phrasing for clarity and consistency across languages.

Signed-off-by: Innei <tukon479@gmail.com>

* 🔧 chore: update PR comment script to include Actions Artifacts link

- Modified the PR comment generation script to accept an additional artifactsUrl parameter.
- Updated the comment format to include both Release download and Actions Artifacts links for better accessibility.

Signed-off-by: Innei <tukon479@gmail.com>

---------

Signed-off-by: Innei <tukon479@gmail.com>

* 🐛 chore(hotfix): bump version to v2.1.28 [skip ci]

* chore: update secrets token

---------

Signed-off-by: Innei <tukon479@gmail.com>
Co-authored-by: rdmclin2 <rdmclin2@gmail.com>
Co-authored-by: Arvin Xu <arvinx@foxmail.com>
Co-authored-by: Innei <i@innei.in>
This commit is contained in:
LobeHub Bot 2026-02-11 23:51:35 +08:00 committed by GitHub
parent 6eee83ab4c
commit 823aa29c67
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
67 changed files with 1453 additions and 1061 deletions

View file

@ -2,8 +2,7 @@
* Generate PR comment with download links for desktop builds
* and handle comment creation/update logic
*/
module.exports = async ({ github, context, releaseUrl, version, tag }) => {
// 用于识别构建评论的标识符
const prComment = async ({ github, context, releaseUrl, artifactsUrl, version, tag }) => {
const COMMENT_IDENTIFIER = '<!-- DESKTOP-BUILD-COMMENT -->';
/**
@ -69,7 +68,7 @@ module.exports = async ({ github, context, releaseUrl, version, tag }) => {
**Version**: \`${version}\`
**Build Time**: \`${new Date().toISOString()}\`
📦 [View All Build Artifacts](${releaseUrl})
📦 [Release Download](${releaseUrl}) · 📥 [Actions Artifacts](${artifactsUrl || `https://github.com/${context.repo.owner}/${context.repo.repo}/actions/runs/${context.runId}`})
## Build Artifacts
@ -88,7 +87,7 @@ ${assetTable}
**Version**: \`${version}\`
**Build Time**: \`${new Date().toISOString()}\`
## 📦 [View All Build Artifacts](${releaseUrl})
📦 [Release Download](${releaseUrl}) · 📥 [Actions Artifacts](${artifactsUrl || `https://github.com/${context.repo.owner}/${context.repo.repo}/actions/runs/${context.runId}`})
> Note: This is a temporary build for testing purposes only.
`;
@ -96,45 +95,41 @@ ${assetTable}
};
/**
* 查找并更新或创建PR评论
* Find and update or create the PR comment
*/
const updateOrCreateComment = async () => {
// 生成评论内容
const body = await generateCommentBody();
// 查找我们之前可能创建的评论
const { data: comments } = await github.rest.issues.listComments({
issue_number: context.issue.number,
owner: context.repo.owner,
repo: context.repo.repo,
});
// 查找包含我们标识符的评论
const buildComment = comments.find((comment) => comment.body.includes(COMMENT_IDENTIFIER));
if (buildComment) {
// 如果找到现有评论,则更新它
await github.rest.issues.updateComment({
comment_id: buildComment.id,
owner: context.repo.owner,
repo: context.repo.repo,
body: body,
});
console.log(`已更新现有评论 ID: ${buildComment.id}`);
console.log(`Updated existing comment ID: ${buildComment.id}`);
return { updated: true, id: buildComment.id };
} else {
// 如果没有找到现有评论,则创建新评论
const result = await github.rest.issues.createComment({
issue_number: context.issue.number,
owner: context.repo.owner,
repo: context.repo.repo,
body: body,
});
console.log(`已创建新评论 ID: ${result.data.id}`);
console.log(`Created new comment ID: ${result.data.id}`);
return { updated: false, id: result.data.id };
}
};
// 执行评论更新或创建
return await updateOrCreateComment();
};
module.exports = prComment;

View file

@ -24,28 +24,81 @@ jobs:
# Fetch full history for proper tagging
fetch-depth: 0
- name: Check and extract version from PR title
id: extract-version
- name: Detect release PR (version from title)
id: release
run: |
PR_TITLE="${{ github.event.pull_request.title }}"
echo "PR Title: $PR_TITLE"
# Match "🚀 release: v{x.x.x}" format
if [[ "$PR_TITLE" =~ ^🚀[[:space:]]+release:[[:space:]]*v([0-9]+\.[0-9]+\.[0-9]+.*)$ ]]; then
# Match "🚀 release: v{x.x.x}" format (strict semver: x.y.z with optional -prerelease or +build)
if [[ "$PR_TITLE" =~ ^🚀[[:space:]]+release:[[:space:]]*v([0-9]+\.[0-9]+\.[0-9]+(-[a-zA-Z0-9.-]+)?(\+[a-zA-Z0-9.-]+)?)$ ]]; then
VERSION="${BASH_REMATCH[1]}"
echo "version=$VERSION" >> $GITHUB_OUTPUT
echo "should_tag=true" >> $GITHUB_OUTPUT
echo "✅ Detected release PR, version: v$VERSION"
else
echo "should_tag=false" >> $GITHUB_OUTPUT
echo "⏭️ Not a release PR, skipping tag creation"
echo "⏭️ Not a release PR"
fi
- name: Detect hotfix PR (branch prefix)
id: hotfix
if: steps.release.outputs.should_tag != 'true'
run: |
HEAD_REF="${{ github.event.pull_request.head.ref }}"
echo "Head ref: $HEAD_REF"
if [[ "$HEAD_REF" == hotfix/* ]]; then
echo "should_tag=true" >> $GITHUB_OUTPUT
echo "✅ Detected hotfix PR"
else
echo "should_tag=false" >> $GITHUB_OUTPUT
echo "⏭️ Not a hotfix PR"
fi
- name: Prepare main branch
if: steps.release.outputs.should_tag == 'true' || steps.hotfix.outputs.should_tag == 'true'
run: |
git checkout main
git pull --rebase origin main
- name: Resolve hotfix version (patch bump)
id: hotfix-version
if: steps.hotfix.outputs.should_tag == 'true'
run: |
CURRENT_VERSION="$(node -p "require('./package.json').version")"
echo "Current version: ${CURRENT_VERSION}"
# Coerce to stable base (e.g. 2.0.0-beta.1 -> 2.0.0), then bump patch (-> 2.0.1)
BASE_VERSION="$(npx -y semver@7 "${CURRENT_VERSION}" -c)"
if [ -z "${BASE_VERSION}" ]; then
echo "❌ Invalid version in package.json: ${CURRENT_VERSION}"
exit 1
fi
NEXT_VERSION="$(npx -y semver@7 -i patch "${BASE_VERSION}")"
echo "📦 Hotfix version: ${NEXT_VERSION}"
echo "version=${NEXT_VERSION}" >> "$GITHUB_OUTPUT"
- name: Set context (release)
if: steps.release.outputs.should_tag == 'true'
run: |
echo "SHOULD_TAG=true" >> $GITHUB_ENV
echo "KIND=release" >> $GITHUB_ENV
echo "VERSION=${{ steps.release.outputs.version }}" >> $GITHUB_ENV
- name: Set context (hotfix)
if: steps.hotfix.outputs.should_tag == 'true'
run: |
echo "SHOULD_TAG=true" >> $GITHUB_ENV
echo "KIND=hotfix" >> $GITHUB_ENV
echo "VERSION=${{ steps.hotfix-version.outputs.version }}" >> $GITHUB_ENV
- name: Check if tag already exists
if: steps.extract-version.outputs.should_tag == 'true'
if: env.SHOULD_TAG == 'true'
id: check-tag
run: |
VERSION="${{ steps.extract-version.outputs.version }}"
VERSION="${{ env.VERSION }}"
if git rev-parse "v$VERSION" >/dev/null 2>&1; then
echo "exists=true" >> $GITHUB_OUTPUT
echo "⚠️ Tag v$VERSION already exists"
@ -54,35 +107,83 @@ jobs:
echo "✅ Tag v$VERSION does not exist, can create"
fi
- name: Create Tag
if: steps.extract-version.outputs.should_tag == 'true' && steps.check-tag.outputs.exists == 'false'
- name: Bump package.json version (before tagging)
if: env.SHOULD_TAG == 'true' && steps.check-tag.outputs.exists == 'false'
id: bump-version
run: |
VERSION="${{ steps.extract-version.outputs.version }}"
echo "🏷️ Creating tag: v$VERSION"
VERSION="${{ env.VERSION }}"
KIND="${{ env.KIND }}"
echo "📝 Bumping package.json version to: $VERSION"
# Validate VERSION is strict semver before writing
if ! npx -y semver@7 "$VERSION" >/dev/null 2>&1; then
echo "❌ Invalid semver version: $VERSION"
exit 1
fi
# Configure git
git config --global user.name "github-actions[bot]"
git config --global user.email "github-actions[bot]@users.noreply.github.com"
git config --global user.name "lobehubbot"
git config --global user.email "i@lobehub.com"
# Get PR merge commit SHA
MERGE_SHA="${{ github.event.pull_request.merge_commit_sha }}"
# Update package.json using Node.js
node -e "
const fs = require('fs');
const pkg = JSON.parse(fs.readFileSync('./package.json', 'utf8'));
const target = '$VERSION';
if (pkg.version === target) {
console.log('✅ package.json already at version', target);
process.exit(0);
}
pkg.version = target;
fs.writeFileSync('./package.json', JSON.stringify(pkg, null, 2) + '\n');
console.log('✅ package.json updated to', target);
"
# Commit changes (if any) and push
git add package.json
if [ "$KIND" == "hotfix" ]; then
COMMIT_MSG="🐛 chore(hotfix): bump version to v$VERSION [skip ci]"
else
COMMIT_MSG="🔧 chore(release): bump version to v$VERSION [skip ci]"
fi
git commit -m "$COMMIT_MSG" || echo "Nothing to commit"
git push origin HEAD:main
# Output the SHA we will tag
echo "tag_sha=$(git rev-parse HEAD)" >> $GITHUB_OUTPUT
- name: Create Tag
if: env.SHOULD_TAG == 'true' && steps.check-tag.outputs.exists == 'false'
run: |
VERSION="${{ env.VERSION }}"
KIND="${{ env.KIND }}"
echo "🏷️ Creating tag: v$VERSION"
# Tag the bumped version commit SHA (not the PR merge commit SHA)
TAG_SHA="${{ steps.bump-version.outputs.tag_sha }}"
if [ "$KIND" == "hotfix" ]; then
PREFIX="🐛 hotfix"
else
PREFIX="🚀 release"
fi
# Create annotated tag with single line message
git tag -a "v$VERSION" "$MERGE_SHA" -m "🚀 release: v$VERSION | PR #${{ github.event.pull_request.number }} | Author: ${{ github.event.pull_request.user.login }}"
git tag -a "v$VERSION" "$TAG_SHA" -m "$PREFIX: v$VERSION | PR #${{ github.event.pull_request.number }} | Author: ${{ github.event.pull_request.user.login }}"
# Push tag
git push origin "v$VERSION"
echo "✅ Tag v$VERSION created successfully!"
- name: Create GitHub Release
if: steps.extract-version.outputs.should_tag == 'true' && steps.check-tag.outputs.exists == 'false'
- name: Create GitHub Release (release)
if: env.SHOULD_TAG == 'true' && env.KIND == 'release' && steps.check-tag.outputs.exists == 'false'
uses: softprops/action-gh-release@v1
with:
tag_name: v${{ steps.extract-version.outputs.version }}
name: 🚀 Release v${{ steps.extract-version.outputs.version }}
tag_name: v${{ env.VERSION }}
name: 🚀 Release v${{ env.VERSION }}
body: |
## 📦 Release v${{ steps.extract-version.outputs.version }}
## 📦 Release v${{ env.VERSION }}
This release was automatically published from PR #${{ github.event.pull_request.number }}.
@ -95,14 +196,34 @@ jobs:
env:
GITHUB_TOKEN: ${{ secrets.GH_TOKEN }}
- name: Create GitHub Release (hotfix)
if: env.SHOULD_TAG == 'true' && env.KIND == 'hotfix' && steps.check-tag.outputs.exists == 'false'
uses: softprops/action-gh-release@v1
with:
tag_name: v${{ env.VERSION }}
name: 🩹 Hotfix v${{ env.VERSION }}
body: |
## 📦 Hotfix v${{ env.VERSION }}
This hotfix was automatically published from PR #${{ github.event.pull_request.number }}.
### Changes
See PR description: ${{ github.event.pull_request.html_url }}
### Commit Message
${{ github.event.pull_request.body }}
draft: false
env:
GITHUB_TOKEN: ${{ secrets.GH_TOKEN }}
- name: Output result
run: |
if [ "${{ steps.extract-version.outputs.should_tag }}" == "true" ]; then
if [ "${{ env.SHOULD_TAG }}" == "true" ]; then
if [ "${{ steps.check-tag.outputs.exists }}" == "true" ]; then
echo "⚠️ Result: Tag v${{ steps.extract-version.outputs.version }} already exists, skipping creation"
echo "⚠️ Result: Tag v${{ env.VERSION }} already exists, skipping creation"
else
echo "✅ Result: Tag v${{ steps.extract-version.outputs.version }} created successfully!"
echo "✅ Result: Tag v${{ env.VERSION }} created successfully!"
fi
else
echo " Result: Not a release PR, no tag created"
echo " Result: Not a release/hotfix PR, no tag created"
fi

View file

@ -340,21 +340,23 @@ jobs:
env:
GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }}
# 在 PR 上添加评论,包含构建信息和下载链接
# Post comment on PR with build info, release download link, and Actions artifacts link
- name: Comment on PR
uses: actions/github-script@v8
with:
github-token: ${{ secrets.GITHUB_TOKEN }}
script: |
const releaseUrl = "${{ steps.create_release.outputs.url }}";
const artifactsUrl = "https://github.com/${{ github.repository }}/actions/runs/${{ github.run_id }}";
const prCommentGenerator = require('${{ github.workspace }}/.github/scripts/pr-comment.js');
const result = await prCommentGenerator({
github,
context,
releaseUrl,
artifactsUrl,
version: "${{ needs.version.outputs.version }}",
tag: "v${{ needs.version.outputs.version }}"
});
console.log(`评论状态: ${result.updated ? '已更新' : '已创建'}, ID: ${result.id}`);
console.log(`Comment ${result.updated ? 'updated' : 'created'}, ID: ${result.id}`);

View file

@ -73,28 +73,22 @@ jobs:
echo "version=$VERSION" >> $GITHUB_OUTPUT
echo "📦 Release version: v$VERSION"
- name: Update package.json version
- name: Verify package.json version matches tag
run: |
VERSION="${{ steps.get-version.outputs.version }}"
echo "📝 Updating package.json version to: $VERSION"
# Update package.json using Node.js
echo "🔎 Checking package.json version equals tag: $VERSION"
node -e "
const fs = require('fs');
const pkg = JSON.parse(fs.readFileSync('./package.json', 'utf8'));
pkg.version = '$VERSION';
fs.writeFileSync('./package.json', JSON.stringify(pkg, null, 2) + '\\n');
console.log('✅ package.json updated');
const expected = '$VERSION';
const actual = pkg.version;
if (actual !== expected) {
console.error('❌ Version mismatch: package.json=' + actual + ' tag=' + expected);
process.exit(1);
}
console.log('✅ Version OK:', actual);
"
# Commit changes
git config --global user.name "lobehubbot"
git config --global user.email "i@lobehub.com"
git add package.json
git commit -m "🔧 chore(release): bump version to v$VERSION [skip ci]" || echo "Nothing to commit"
git push origin HEAD:main
env:
GH_TOKEN: ${{ secrets.GH_TOKEN }}
- name: Release
run: bun run release
env:

View file

@ -0,0 +1,46 @@
name: 🔄 Branch Synchronization
on:
push:
branches:
- main
permissions:
contents: write
pull-requests: write
jobs:
sync-branches:
runs-on: ubuntu-latest
steps:
- name: Checkout repository
uses: actions/checkout@v6
with:
fetch-depth: 0
- name: Set up Git
run: |
git config --global user.name 'lobehubbot'
git config --global user.email 'i@lobehub.com'
- name: Prepare sync branch
id: branch
run: |
echo "SYNC_BRANCH_MAIN_CANARY=sync/main-to-canary-$(date +'%Y%m%d')" >> $GITHUB_ENV
- name: Sync main to canary
if: github.ref == 'refs/heads/main'
run: |
# Sync main to canary
git checkout main
SYNC_BRANCH_CANARY=${{ env.SYNC_BRANCH_MAIN_CANARY }}
git checkout -B $SYNC_BRANCH_CANARY
DIFF=$(git diff origin/canary...)
if [ -z "$DIFF" ]; then
echo "No changes to sync"
exit 0
fi
git push origin $SYNC_BRANCH_CANARY -f
gh pr create --base canary --head $SYNC_BRANCH_CANARY --title "Sync main branch to canary branch" --body "Automatic sync" || exit 0
env:
GH_TOKEN: ${{ secrets.GH_TOKEN }}

View file

@ -1,42 +0,0 @@
name: 🔄 Branch Synchronization
on:
push:
branches:
- main
jobs:
sync-branches:
runs-on: ubuntu-latest
steps:
- name: Checkout repository
uses: actions/checkout@v6
with:
fetch-depth: 0
- name: Set up Git
run: |
git config --global user.name 'GitHub Actions'
git config --global user.email 'actions@github.com'
- name: Prepare sync branch
id: branch
run: |
echo "SYNC_BRANCH_MAIN_DEV=sync/main-to-dev-$(date +'%Y%m%d')" >> $GITHUB_ENV
- name: Sync main to dev
if: github.ref == 'refs/heads/main'
run: |
# Sync main to dev
git checkout main
SYNC_BRANCH_DEV=${{ env.SYNC_BRANCH_MAIN_DEV }}
git checkout -B $SYNC_BRANCH_DEV
DIFF=$(git diff origin/dev...)
if [ -z "$DIFF" ]; then
echo "No changes to sync"
exit 0
fi
git push origin $SYNC_BRANCH_DEV -f
gh pr create --base dev --head $SYNC_BRANCH_DEV --title "Sync main branch to dev branch" --body "Automatic sync" || exit 0
env:
GH_TOKEN: ${{ github.token }}

View file

@ -58,13 +58,13 @@
"duplicateTitle": "نسخة {{title}}",
"emptyAgent": "لا يوجد وكلاء بعد. ابدأ بأول وكيل لك — وابنِ نظامك بمرور الوقت.",
"emptyAgentAction": "إنشاء وكيل",
"extendParams.disableContextCaching.desc": "يقلل ما يصل إلى 90٪ من تكلفة توليد محادثة واحدة ويوفر سرعة تصل إلى 4 أضعاف. تفعيل هذا سيقوم تلقائيًا بإلغاء الحد على عدد الرسائل التاريخية. <1>اعرف المزيد</1>",
"extendParams.disableContextCaching.desc": "قلل تكلفة إنشاء محادثة واحدة بنسبة تصل إلى 90٪ وزد السرعة حتى 4 أضعاف. <1>اعرف المزيد</1>",
"extendParams.disableContextCaching.title": "تفعيل تخزين السياق المؤقت",
"extendParams.effort.desc": "تحكم في عدد الرموز التي يستخدمها كلود عند الرد باستخدام معلمة الجهد.",
"extendParams.effort.title": "الجهد",
"extendParams.enableAdaptiveThinking.desc": "اسمح لكلود باتخاذ قرارات ديناميكية حول متى وكم يفكر باستخدام وضع التفكير التكيفي.",
"extendParams.enableAdaptiveThinking.title": "تفعيل التفكير التكيفي",
"extendParams.enableReasoning.desc": "استنادًا إلى آلية التفكير في Claude، فإن تفعيل هذا سيقوم تلقائيًا بإلغاء الحد على عدد الرسائل التاريخية. <1>اعرف المزيد</1>",
"extendParams.enableReasoning.desc": "استنادًا إلى حد آلية التفكير في Claude. <1>اعرف المزيد</1>",
"extendParams.enableReasoning.title": "تفعيل التفكير العميق",
"extendParams.imageAspectRatio.title": "نسبة أبعاد الصورة",
"extendParams.imageResolution.title": "دقة الصورة",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "حذف وإعادة التوليد",
"messageAction.deleteDisabledByThreads": "لا يمكن حذف هذه الرسالة لأنها تحتوي على موضوع فرعي",
"messageAction.expand": "توسيع الرسالة",
"messageAction.reaction": "إضافة تفاعل",
"messageAction.regenerate": "إعادة التوليد",
"messages.dm.sentTo": "مرئي فقط لـ {{name}}",
"messages.dm.title": "رسالة خاصة",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
"claude-3.5-sonnet.description": "يتميز Claude 3.5 Sonnet بقدرات عالية في البرمجة والكتابة والتفكير المعقد.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet مزود بقدرات تفكير موسعة للمهام التي تتطلب استدلالًا معقدًا.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet هو إصدار مطور يتمتع بسياق موسع وقدرات محسّنة.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرة على الاستدلال الموسع.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 نموذج سريع وفعّال لمجموعة متنوعة من المهام.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي والذكاء والطلاقة والفهم العميق.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء والذكاء والطلاقة والاستيعاب.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير متسلسل خطوة بخطوة مع عرض واضح للعملية.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج قدمته Anthropic حتى الآن.",
"claude-sonnet-4.description": "Claude Sonnet 4 هو الجيل الأحدث مع أداء محسّن في جميع المهام.",
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
"codegemma.description": "CodeGemma هو نموذج خفيف الوزن لمهام البرمجة المتنوعة، يتيح التكرار السريع والتكامل السلس.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "نموذج تضمين نصي يركز على اللغة الإنجليزية، محسّن لمهام البرمجة واللغة الإنجليزية.",
"google/text-multilingual-embedding-002.description": "نموذج تضمين نصي متعدد اللغات محسّن للمهام عبر اللغات المختلفة.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo لتوليد النصوص وفهمها؛ يشير حاليًا إلى gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo نموذج سريع وفعّال لمهام متعددة.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo لتوليد النصوص وفهمها؛ يشير حاليًا إلى gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo لمهام توليد النصوص والفهم، محسّن لاتباع التعليمات.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo لتوليد النصوص وفهمها؛ يشير حاليًا إلى gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-32k-0613.description": "يوفر GPT-4 نافذة سياق أكبر للتعامل مع مدخلات أطول في السيناريوهات التي تتطلب دمج معلومات واسع وتحليل بيانات.",
"gpt-4-32k.description": "يوفر GPT-4 نافذة سياق أكبر للتعامل مع مدخلات أطول في السيناريوهات التي تتطلب دمج معلومات واسع وتحليل بيانات.",
"gpt-4-o-preview.description": "GPT-4o هو النموذج متعدد الوسائط الأكثر تقدمًا، يدعم إدخال النصوص والصور.",
"gpt-4-turbo-2024-04-09.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-turbo-preview.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-turbo.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-vision-preview.description": "معاينة GPT-4 Vision، مصمم لمهام تحليل ومعالجة الصور.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 هو النموذج الرائد للمهام المعقدة، مثالي لحل المشكلات متعددة المجالات.",
"gpt-4.1-mini.description": "GPT-4.1 mini يوازن بين الذكاء والسرعة والتكلفة، مما يجعله جذابًا للعديد من الاستخدامات.",
"gpt-4.1-nano.description": "GPT-4.1 nano هو الأسرع والأكثر فعالية من حيث التكلفة بين نماذج GPT-4.1.",
"gpt-4.1.description": "GPT-4.1 هو نموذجنا الرائد للمهام المعقدة وحل المشكلات عبر المجالات.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والمساعدة التقنية.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والدعم الفني.",
"gpt-4o-audio-preview.description": "نموذج معاينة GPT-4o Audio مع إدخال وإخراج صوتي.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini هو حل اقتصادي لمجموعة واسعة من مهام النصوص والصور.",
"gpt-4o-mini-audio-preview.description": "نموذج GPT-4o mini Audio مع إدخال وإخراج صوتي.",
"gpt-4o-mini-realtime-preview.description": "إصدار GPT-4o-mini الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview مدرب على فهم وتنفيذ استعلامات البحث عبر الإنترنت من خلال واجهة Chat Completions API. يتم احتساب تكلفة البحث عبر الإنترنت لكل استخدام أداة بالإضافة إلى تكلفة الرموز.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "إصدار محسّن عالي الأداء من نموذج تضمين ada.",
"openai/text-embedding-ada-002.description": "نموذج تضمين النصوص القديم من OpenAI.",
"openrouter/auto.description": "استنادًا إلى طول السياق والموضوع والتعقيد، يتم توجيه طلبك إلى Llama 3 70B Instruct أو Claude 3.5 Sonnet (بمراقبة ذاتية) أو GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.",
"oswe-vscode-secondary.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.",
"perplexity/sonar-pro.description": "المنتج الرائد من Perplexity مع دعم البحث، يدعم الاستفسارات المتقدمة والمتابعة.",
"perplexity/sonar-reasoning-pro.description": "نموذج متقدم يركز على التفكير، ينتج سلسلة تفكير (CoT) مع بحث محسّن، بما في ذلك استعلامات بحث متعددة لكل طلب.",
"perplexity/sonar-reasoning.description": "نموذج يركز على التفكير، ينتج سلسلة تفكير (CoT) مع شروحات مفصلة مدعومة بالبحث.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct يستخدم 80 مليار معلمة إجمالية مع 13 مليار نشطة لمضاهاة النماذج الأكبر. يدعم الاستدلال الهجين السريع/البطيء، وفهم النصوص الطويلة بثبات، وقدرات وكيل رائدة على BFCL-v3 وτ-Bench. تدعم تنسيقات GQA والتكميم المتعدد الاستدلال بكفاءة.",
"tencent/Hunyuan-MT-7B.description": "نموذج الترجمة Hunyuan يشمل Hunyuan-MT-7B وHunyuan-MT-Chimera. Hunyuan-MT-7B هو نموذج ترجمة خفيف بسعة 7B يدعم 33 لغة بالإضافة إلى 5 لغات صينية محلية. حصل على المركز الأول في 30 من أصل 31 زوج لغوي في WMT25. يستخدم Hunyuan من Tencent سلسلة تدريب كاملة من التدريب المسبق إلى SFT إلى الترجمة بالتعلم المعزز، محققًا أداءً رائدًا بحجمه وسهولة في النشر.",
"text-embedding-3-large.description": "أقوى نموذج تضمين للمهام باللغة الإنجليزية وغير الإنجليزية.",
"text-embedding-3-small-inference.description": "نموذج Embedding V3 صغير (للاستدلال) لتضمين النصوص.",
"text-embedding-3-small.description": "نموذج تضمين من الجيل التالي فعال من حيث التكلفة ومناسب للاسترجاع وسيناريوهات RAG.",
"text-embedding-ada-002.description": "نموذج Embedding V2 Ada لتضمين النصوص.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 هو نموذج ثنائي اللغة (صيني/إنجليزي) بسعة 32B وأوزان مفتوحة، مُحسَّن لتوليد الشيفرات، واستدعاء الوظائف، ومهام الوكلاء. تم تدريبه مسبقًا على 15 تريليون رمز عالي الجودة ومليء بالاستدلال، وتم تحسينه بموازنة تفضيلات البشر، وأخذ العينات بالرفض، والتعلم المعزز. يتفوق في الاستدلال المعقد، وتوليد المخرجات المنظمة، ويصل إلى مستوى أداء GPT-4o وDeepSeek-V3-0324 في العديد من المعايير.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 هو نموذج ثنائي اللغة (صيني/إنجليزي) بسعة 32B وأوزان مفتوحة، مُحسَّن لتوليد الشيفرات، واستدعاء الوظائف، ومهام الوكلاء. تم تدريبه مسبقًا على 15 تريليون رمز عالي الجودة ومليء بالاستدلال، وتم تحسينه بموازنة تفضيلات البشر، وأخذ العينات بالرفض، والتعلم المعزز. يتفوق في الاستدلال المعقد، وتوليد المخرجات المنظمة، ويصل إلى مستوى أداء GPT-4o وDeepSeek-V3-0324 في العديد من المعايير.",
"thudm/glm-4-9b-chat.description": "الإصدار مفتوح المصدر من نموذج GLM-4 الأحدث من Zhipu AI.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "استبدال التكرار الأول فقط",
"localFiles.file": "ملف",
"localFiles.folder": "مجلد",
"localFiles.globFiles.pattern": "النمط",
"localFiles.grepContent.glob": "تصفية الملفات",
"localFiles.grepContent.pattern": "نمط البحث",
"localFiles.grepContent.type": "نوع الملف",
"localFiles.moveFiles.itemsMoved": "تم نقل {{count}} عنصر(عناصر):",
"localFiles.moveFiles.itemsMoved_one": "تم نقل عنصر واحد:",
"localFiles.moveFiles.itemsMoved_other": "تم نقل {{count}} عناصر:",
@ -95,11 +99,17 @@
"localFiles.open": "فتح",
"localFiles.openFile": "فتح ملف",
"localFiles.openFolder": "فتح مجلد",
"localFiles.outOfScope.requestedPaths": "المسارات المطلوبة",
"localFiles.outOfScope.warning": "تحذير: المسار(ات) التالية تقع خارج دليل العمل المُحدد. يرجى التأكيد إذا كنت ترغب في السماح بالوصول.",
"localFiles.outOfScope.workingDirectory": "دليل العمل",
"localFiles.read.more": "عرض المزيد",
"localFiles.readFile": "قراءة الملف",
"localFiles.readFile.lineRange": "الأسطر {{start}} - {{end}}",
"localFiles.readFileError": "فشل في قراءة الملف، يرجى التحقق من صحة المسار",
"localFiles.readFiles": "قراءة الملفات",
"localFiles.readFilesError": "فشل في قراءة الملفات، يرجى التحقق من صحة المسار",
"localFiles.searchFiles.keywords": "الكلمات المفتاحية",
"localFiles.securityBlacklist.warning": "تنبيه أمني: تم تمييز هذه العملية بواسطة قواعد الأمان وتتطلب موافقتك الصريحة.",
"localFiles.writeFile.characters": "أحرف",
"localFiles.writeFile.preview": "معاينة المحتوى",
"localFiles.writeFile.truncated": "مقتطع",
@ -136,6 +146,31 @@
"search.summary": "الملخص",
"search.summaryTooltip": "تلخيص المحتوى الحالي",
"search.viewMoreResults": "عرض {{results}} نتيجة إضافية",
"securityBlacklist.awsCredentials": "الوصول إلى بيانات اعتماد AWS قد يؤدي إلى تسريب مفاتيح الوصول السحابية",
"securityBlacklist.browserCredentials": "الوصول إلى تخزين بيانات اعتماد المتصفح قد يؤدي إلى تسريب كلمات المرور",
"securityBlacklist.chownSystemDirs": "تغيير ملكية مجلدات النظام أمر خطير",
"securityBlacklist.ddDiskWrite": "كتابة بيانات عشوائية على أجهزة التخزين قد يؤدي إلى تدمير البيانات",
"securityBlacklist.directMemoryAccess": "الوصول المباشر إلى الذاكرة أمر بالغ الخطورة",
"securityBlacklist.disableFirewall": "تعطيل جدار الحماية يعرض النظام للهجمات",
"securityBlacklist.dockerConfig": "قراءة إعدادات Docker قد تكشف بيانات اعتماد التسجيل",
"securityBlacklist.envFiles": "قراءة ملفات .env قد تؤدي إلى تسريب بيانات اعتماد حساسة ومفاتيح API",
"securityBlacklist.etcPasswd": "تعديل /etc/passwd قد يؤدي إلى فقدان الوصول إلى النظام",
"securityBlacklist.forkBomb": "قنبلة fork قد تتسبب في انهيار النظام",
"securityBlacklist.formatPartition": "تهيئة أقسام النظام ستؤدي إلى تدمير البيانات",
"securityBlacklist.gcpCredentials": "قراءة بيانات اعتماد GCP قد تؤدي إلى تسريب مفاتيح حسابات الخدمات السحابية",
"securityBlacklist.gitCredentials": "قراءة ملف بيانات اعتماد Git قد يؤدي إلى تسريب رموز الوصول",
"securityBlacklist.historyFiles": "قراءة ملفات السجل قد تكشف أوامر وبيانات اعتماد حساسة",
"securityBlacklist.kernelParams": "تعديل معلمات النواة بدون فهم قد يؤدي إلى انهيار النظام",
"securityBlacklist.kubeConfig": "قراءة إعدادات Kubernetes قد تكشف بيانات اعتماد الكتلة",
"securityBlacklist.npmrc": "قراءة ملف رمز npm قد يؤدي إلى تسريب بيانات اعتماد مستودع الحزم",
"securityBlacklist.removeSystemPackages": "إزالة حزم النظام الأساسية قد تؤدي إلى تعطل النظام",
"securityBlacklist.rmForceRecursive": "الحذف القسري التكراري بدون هدف محدد أمر بالغ الخطورة",
"securityBlacklist.rmHomeDir": "الحذف التكراري لمجلد المنزل أمر بالغ الخطورة",
"securityBlacklist.rmRootDir": "الحذف التكراري لمجلد الجذر سيؤدي إلى تدمير النظام",
"securityBlacklist.sshConfig": "تغيير إعدادات SSH قد يؤدي إلى فقدان الوصول",
"securityBlacklist.sshPrivateKeys": "قراءة مفاتيح SSH الخاصة قد تعرض أمان النظام للخطر",
"securityBlacklist.sudoers": "تعديل ملف sudoers بدون تحقق مناسب أمر خطير",
"securityBlacklist.suidShells": "تعيين SUID للأصداف أو المفسرات يمثل خطراً أمنياً",
"updateArgs.duplicateKeyError": "يجب أن يكون مفتاح الحقل فريدًا",
"updateArgs.form.add": "إضافة عنصر",
"updateArgs.form.key": "مفتاح الحقل",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} - Копие",
"emptyAgent": "Все още няма Агенти. Започнете с първия си Агент — изградете системата си с времето.",
"emptyAgentAction": "Създай Агент",
"extendParams.disableContextCaching.desc": "Намалява до 90% от разходите за генериране на един разговор и увеличава скоростта до 4 пъти. Активирането автоматично премахва ограничението за брой исторически съобщения. <1>Научете повече</1>",
"extendParams.disableContextCaching.desc": "Намалете до 90% от разходите за генериране на един разговор и постигнете до 4 пъти по-висока скорост. <1>Научете повече</1>",
"extendParams.disableContextCaching.title": "Активирай кеширане на контекста",
"extendParams.effort.desc": "Контролирайте колко токени използва Claude при отговор чрез параметъра за усилие.",
"extendParams.effort.title": "Усилие",
"extendParams.enableAdaptiveThinking.desc": "Позволете на Claude динамично да решава кога и колко да мисли с режима за адаптивно мислене.",
"extendParams.enableAdaptiveThinking.title": "Активирай адаптивно мислене",
"extendParams.enableReasoning.desc": "Въз основа на ограничението на механизма Claude Thinking, активирането автоматично премахва ограничението за брой исторически съобщения. <1>Научете повече</1>",
"extendParams.enableReasoning.desc": "Базирано на ограничението на механизма за мислене на Claude. <1>Научете повече</1>",
"extendParams.enableReasoning.title": "Активирай дълбоко мислене",
"extendParams.imageAspectRatio.title": "Съотношение на изображението",
"extendParams.imageResolution.title": "Резолюция на изображението",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Изтрий и генерирай отново",
"messageAction.deleteDisabledByThreads": "Това съобщение има подтема и не може да бъде изтрито",
"messageAction.expand": "Разгъни съобщението",
"messageAction.reaction": "Добави реакция",
"messageAction.regenerate": "Генерирай отново",
"messages.dm.sentTo": "Видимо само за {{name}}",
"messages.dm.title": "ЛС",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet се отличава в програмиране, писане и сложни разсъждения.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet с разширено мислене за задачи, изискващи сложни разсъждения.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet е надградена версия с разширен контекст и възможности.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 е бърз и ефективен модел за различни задачи.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"claude-sonnet-4.description": "Claude Sonnet 4 е най-новото поколение с подобрена производителност във всички задачи.",
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
"codegemma.description": "CodeGemma е лек модел за разнообразни програмни задачи, позволяващ бърза итерация и интеграция.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Модел за вграждане на текст, фокусиран върху английски език, оптимизиран за задачи с код и английски език.",
"google/text-multilingual-embedding-002.description": "Многоезичен модел за вграждане на текст, оптимизиран за задачи с кръстосан езиков обхват на много езици.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo е бърз и ефективен модел за различни задачи.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo за задачи с генериране и разбиране на текст, оптимизиран за следване на инструкции.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-32k-0613.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове в сценарии, изискващи интеграция на широка информация и анализ на данни.",
"gpt-4-32k.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове в сценарии, изискващи интеграция на широка информация и анализ на данни.",
"gpt-4-o-preview.description": "GPT-4o е най-усъвършенстваният мултимодален модел, който обработва текстови и визуални входове.",
"gpt-4-turbo-2024-04-09.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-turbo-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-turbo.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-vision-preview.description": "Предварителен преглед на GPT-4 Vision, създаден за задачи по анализ и обработка на изображения.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 е водещият модел за сложни задачи, идеален за междудисциплинарно решаване на проблеми.",
"gpt-4.1-mini.description": "GPT-4.1 mini балансира интелигентност, скорост и цена, което го прави привлекателен за множество приложения.",
"gpt-4.1-nano.description": "GPT-4.1 nano е най-бързият и най-рентабилен модел от серията GPT-4.1.",
"gpt-4.1.description": "GPT-4.1 е водещият ни модел за сложни задачи и решаване на проблеми в различни области.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време. Съчетава силно езиково разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"gpt-4o-audio-preview.description": "Предварителен преглед на GPT-4o Audio модел с аудио вход и изход.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini е икономично решение за широк спектър от текстови и визуални задачи.",
"gpt-4o-mini-audio-preview.description": "GPT-4o mini Audio модел с аудио вход и изход.",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini вариант в реално време с аудио и текстов вход/изход в реално време.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview е обучен да разбира и изпълнява заявки за уеб търсене чрез Chat Completions API. Уеб търсенето се таксува на извикване на инструмент в допълнение към разходите за токени.",
@ -779,6 +788,49 @@
"llava.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
"llava:13b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
"llava:34b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
"magistral-medium-latest.description": "Magistral Medium 1.2 е авангарден модел за разсъждение от Mistral AI (септември 2025) с поддръжка на визуални данни.",
"magistral-small-2509.description": "Magistral Small 1.2 е малък, с отворен код модел за разсъждение от Mistral AI (септември 2025) с поддръжка на визуални данни.",
"mathstral.description": "MathΣtral е създаден за научни изследвания и математическо разсъждение, с мощни изчислителни и обяснителни способности.",
"max-32k.description": "Spark Max 32K предлага обработка на голям контекст с по-добро разбиране и логическо разсъждение, поддържайки входове до 32K токена за четене на дълги документи и въпроси с частни знания.",
"megrez-3b-instruct.description": "Megrez 3B Instruct е малък, ефективен модел от Wuwen Xinqiong.",
"meituan/longcat-flash-chat.description": "Модел с отворен код от Meituan, оптимизиран за диалог и агентски задачи, силен в използването на инструменти и сложни многократни взаимодействия.",
"meta-llama-3-70b-instruct.description": "Мощен модел с 70 милиарда параметъра, който се отличава в разсъждение, програмиране и широк спектър от езикови задачи.",
"meta-llama-3-8b-instruct.description": "Универсален модел с 8 милиарда параметъра, оптимизиран за чат и генериране на текст.",
"meta-llama-3.1-405b-instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с високи резултати в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta-llama-3.1-70b-instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с високи резултати в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta-llama-3.1-8b-instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с високи резултати в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) предлага силна езикова обработка и стабилно чат изживяване.",
"meta-llama/Llama-2-70b-hf.description": "LLaMA-2 предлага силна езикова обработка и стабилно взаимодействие.",
"meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference е мощен чат модел за сложни диалози.",
"meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference предлага многоезична поддръжка и обширни познания в различни области.",
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 е многоезичен LLM с 70 милиарда параметъра (текстов вход/изход), предварително обучен и настроен с инструкции. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и превъзхожда много отворени и затворени модели в индустриалните бенчмаркове.",
"meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite е създаден за висока производителност с ниска латентност.",
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo предлага силно разбиране и генериране за най-взискателните натоварвания.",
"meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite балансира производителността за среди с ограничени ресурси.",
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo е високопроизводителен LLM за широк спектър от приложения.",
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "Моделът Llama 3.1 Turbo с 405 милиарда параметъра предлага огромен контекстов капацитет за обработка на големи данни и се отличава в мащабни AI приложения.",
"meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 е водещото семейство модели на Meta, достигащо до 405 милиарда параметъра за сложни диалози, многоезичен превод и анализ на данни.",
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B е фино настроен за приложения с високо натоварване; FP8 квантизацията осигурява ефективни изчисления и точност при сложни сценарии.",
"meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 е водещото семейство модели на Meta, достигащо до 405 милиарда параметъра за сложни диалози, многоезичен превод и анализ на данни.",
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B използва FP8 квантизация, поддържа до 131 072 токена контекст и е сред водещите отворени модели за сложни задачи според множество бенчмаркове.",
"meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct е оптимизиран за висококачествени диалози и показва отлични резултати в човешки оценки.",
"meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct е оптимизиран за висококачествени диалози, превъзхождайки много затворени модели.",
"meta-llama/llama-3.1-70b-instruct.description": "Най-новата серия Llama 3.1 на Meta, 70B вариант, обучен с инструкции, оптимизиран за висококачествени диалози. В индустриални оценки показва силна производителност спрямо водещи затворени модели. (Достъпен само за потвърдени бизнес потребители.)",
"meta-llama/llama-3.1-8b-instruct.description": "Най-новата серия Llama 3.1 на Meta, 8B вариант, обучен с инструкции, е особено бърз и ефективен. В индустриални оценки показва силна производителност, надминавайки много водещи затворени модели. (Достъпен само за потвърдени бизнес потребители.)",
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 предлага многоезична поддръжка и е сред водещите генеративни модели.",
"meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много ниска цена. Базиран е на Transformer архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и превъзхожда много отворени и затворени модели в индустриалните бенчмаркове. Край на знанията: декември 2023.",
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много ниска цена. Базиран е на Transformer архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и превъзхожда много отворени и затворени модели в индустриалните бенчмаркове. Край на знанията: декември 2023.",
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct е най-големият и най-мощен модел от серията Llama 3.1 Instruct изключително напреднал модел за диалогово разсъждение и генериране на синтетични данни, отлична основа за дообучение в специфични домейни. Многоезичните LLM модели Llama 3.1 са предварително обучени и настроени с инструкции в размери 8B, 70B и 405B (текстов вход/изход). Моделите, обучени с инструкции, са оптимизирани за многоезичен диалог и превъзхождат много отворени чат модели в индустриалните бенчмаркове. Llama 3.1 е предназначен за търговска и изследователска употреба на различни езици. Моделите, обучени с инструкции, са подходящи за чат в стил асистент, докато предварително обучените модели са подходящи за по-широки задачи по генериране на естествен език. Изходите от Llama 3.1 могат да се използват и за подобряване на други модели, включително чрез генериране и прецизиране на синтетични данни. Llama 3.1 е автогенеративен Transformer модел с оптимизирана архитектура. Настроените версии използват SFT и RLHF за съответствие с човешките предпочитания за полезност и безопасност.",
"meta.llama3-1-70b-instruct-v1:0.description": "Обновен Meta Llama 3.1 70B Instruct с разширен контекст до 128K токена, многоезична поддръжка и подобрено разсъждение. Многоезичните LLM модели Llama 3.1 са предварително обучени и настроени с инструкции в размери 8B, 70B и 405B (текстов вход/изход). Моделите, обучени с инструкции, са оптимизирани за многоезичен диалог и превъзхождат много отворени чат модели в индустриалните бенчмаркове. Llama 3.1 е предназначен за търговска и изследователска употреба на различни езици. Моделите, обучени с инструкции, са подходящи за чат в стил асистент, докато предварително обучените модели са подходящи за по-широки задачи по генериране на естествен език. Изходите от Llama 3.1 могат да се използват и за подобряване на други модели, включително чрез генериране и прецизиране на синтетични данни. Llama 3.1 е автогенеративен Transformer модел с оптимизирана архитектура. Настроените версии използват SFT и RLHF за съответствие с човешките предпочитания за полезност и безопасност.",
"meta.llama3-1-8b-instruct-v1:0.description": "Обновен Meta Llama 3.1 8B Instruct с контекст до 128K токена, многоезична поддръжка и подобрено разсъждение. Семейството Llama 3.1 включва 8B, 70B и 405B модели, обучени с инструкции, оптимизирани за многоезичен чат и висока производителност в бенчмаркове. Предназначен е за търговска и изследователска употреба на различни езици; моделите, обучени с инструкции, са подходящи за чат в стил асистент, а предварително обучените за по-широки задачи по генериране. Изходите от Llama 3.1 могат да се използват и за подобряване на други модели (напр. синтетични данни и прецизиране). Това е автогенеративен Transformer модел с SFT и RLHF за съответствие с човешките предпочитания за полезност и безопасност.",
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи в генеративния AI. Като част от основата за глобални иновации, той е подходящ за създаване на съдържание, разговорен AI, езиково разбиране, научноизследователска и развойна дейност и бизнес приложения.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@ -1046,6 +1098,7 @@
"qwen3-14b.description": "Qwen3 14B е среден по размер модел за многоезични въпроси и отговори и генериране на текст.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 е водещ модел с инструкции за широк спектър от задачи по генериране и разсъждение.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 е ултраголям модел за дълбоко разсъждение.",
"qwen3-235b-a22b.description": "Qwen3 е следващо поколение модел Tongyi Qwen с големи подобрения в разсъждението, общите способности, агентските възможности и многоезичната производителност, с поддръжка на превключване между мисловни режими.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 е средно-голям модел с инструкции за висококачествено генериране и въпроси и отговори.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 е средно-голям модел за разсъждение, балансиращ точност и разходи.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B е средно-голям универсален модел, балансиращ между цена и качество.",
@ -1057,6 +1110,7 @@
"qwen3-coder-flash.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder-plus.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder:480b.description": "Високопроизводителен модел на Alibaba с дълъг контекст за задачи с агенти и програмиране.",
"qwen3-max-2026-01-23.description": "Моделите Qwen3 Max предлагат значителни подобрения спрямо серията 2.5 в общите способности, разбиране на китайски/английски, следване на сложни инструкции, субективни отворени задачи, многоезичност и използване на инструменти, с по-малко халюцинации. Най-новият qwen3-max подобрява агентското програмиране и използването на инструменти спрямо qwen3-max-preview. Това издание достига върхови резултати в областта и е насочено към по-сложни нужди на агентите.",
"qwen3-max-preview.description": "Най-добре представящият се модел Qwen за сложни, многоетапни задачи. Прегледната версия поддържа разсъждение.",
"qwen3-max.description": "Моделите Qwen3 Max предлагат значителни подобрения спрямо серията 2.5 в общите способности, разбиране на китайски/английски, следване на сложни инструкции, субективни отворени задачи, многоезичност и използване на инструменти, с по-малко халюцинации. Най-новият qwen3-max подобрява програмирането чрез агенти и използването на инструменти спрямо qwen3-max-preview. Тази версия достига водещи резултати в индустрията и е насочена към по-сложни нужди на агентите.",
"qwen3-next-80b-a3b-instruct.description": "Следващо поколение отворен модел Qwen3 без мисловни способности. В сравнение с предишната версия (Qwen3-235B-A22B-Instruct-2507), предлага по-добро разбиране на китайски, по-силна логическа аргументация и подобрено генериране на текст.",
@ -1135,6 +1189,7 @@
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поставя нов стандарт в индустрията, надминавайки конкурентите и Claude 3 Opus в широки оценки, като запазва средна скорост и цена.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, подобрява всички умения и надминава предишния флагман Claude 3 Opus в много интелектуални бенчмаркове.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 е най-бързият и интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и програмиране.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"v0-1.0-md.description": "v0-1.0-md е наследен модел, достъпен чрез v0 API.",
"v0-1.5-lg.description": "v0-1.5-lg е подходящ за напреднали мисловни или логически задачи.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Замени само първото срещане",
"localFiles.file": "Файл",
"localFiles.folder": "Папка",
"localFiles.globFiles.pattern": "Шаблон",
"localFiles.grepContent.glob": "Филтър за файлове",
"localFiles.grepContent.pattern": "Шаблон за търсене",
"localFiles.grepContent.type": "Тип файл",
"localFiles.moveFiles.itemsMoved": "{{count}} елемент(а) преместени:",
"localFiles.moveFiles.itemsMoved_one": "{{count}} елемент преместен:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} елемента преместени:",
@ -95,11 +99,17 @@
"localFiles.open": "Отвори",
"localFiles.openFile": "Отвори файл",
"localFiles.openFolder": "Отвори папка",
"localFiles.outOfScope.requestedPaths": "Заявени пътища",
"localFiles.outOfScope.warning": "Предупреждение: Следните пътища са извън конфигурираната работна директория. Моля, потвърдете, че желаете да разрешите достъп.",
"localFiles.outOfScope.workingDirectory": "Работна директория",
"localFiles.read.more": "Виж повече",
"localFiles.readFile": "Прочети файл",
"localFiles.readFile.lineRange": "Редове {{start}} - {{end}}",
"localFiles.readFileError": "Неуспешно четене на файл, моля проверете дали пътят е правилен",
"localFiles.readFiles": "Прочети файлове",
"localFiles.readFilesError": "Неуспешно четене на файлове, моля проверете дали пътят е правилен",
"localFiles.searchFiles.keywords": "Ключови думи",
"localFiles.securityBlacklist.warning": "Сигнал за сигурност: Тази операция е маркирана от правилата за сигурност и изисква вашето изрично одобрение.",
"localFiles.writeFile.characters": "знаци",
"localFiles.writeFile.preview": "Преглед на съдържанието",
"localFiles.writeFile.truncated": "съкратено",
@ -136,6 +146,31 @@
"search.summary": "Обобщение",
"search.summaryTooltip": "Обобщи текущото съдържание",
"search.viewMoreResults": "Виж още {{results}} резултата",
"securityBlacklist.awsCredentials": "Достъпът до AWS идентификационни данни може да изтече ключове за достъп до облака",
"securityBlacklist.browserCredentials": "Достъпът до съхранени в браузъра идентификационни данни може да разкрие пароли",
"securityBlacklist.chownSystemDirs": "Промяната на собствеността на системни директории е опасна",
"securityBlacklist.ddDiskWrite": "Записването на произволни данни върху дискови устройства може да унищожи данни",
"securityBlacklist.directMemoryAccess": "Директният достъп до паметта е изключително опасен",
"securityBlacklist.disableFirewall": "Изключването на защитната стена излага системата на атаки",
"securityBlacklist.dockerConfig": "Четенето на Docker конфигурация може да разкрие идентификационни данни за регистъра",
"securityBlacklist.envFiles": "Четенето на .env файлове може да разкрие чувствителни идентификационни данни и API ключове",
"securityBlacklist.etcPasswd": "Промяната на /etc/passwd може да ви заключи извън системата",
"securityBlacklist.forkBomb": "Fork бомба може да срине системата",
"securityBlacklist.formatPartition": "Форматирането на системни дялове ще унищожи данни",
"securityBlacklist.gcpCredentials": "Четенето на GCP идентификационни данни може да разкрие ключове за достъп до облачни услуги",
"securityBlacklist.gitCredentials": "Четенето на Git файл с идентификационни данни може да разкрие токени за достъп",
"securityBlacklist.historyFiles": "Четенето на файлове с история може да разкрие чувствителни команди и идентификационни данни",
"securityBlacklist.kernelParams": "Промяната на параметри на ядрото без разбиране може да срине системата",
"securityBlacklist.kubeConfig": "Четенето на Kubernetes конфигурация може да разкрие идентификационни данни за клъстера",
"securityBlacklist.npmrc": "Четенето на npm токен файл може да разкрие идентификационни данни за регистъра на пакети",
"securityBlacklist.removeSystemPackages": "Премахването на основни системни пакети може да повреди системата",
"securityBlacklist.rmForceRecursive": "Принудително рекурсивно изтриване без конкретна цел е твърде опасно",
"securityBlacklist.rmHomeDir": "Рекурсивното изтриване на домашната директория е изключително опасно",
"securityBlacklist.rmRootDir": "Рекурсивното изтриване на root директорията ще унищожи системата",
"securityBlacklist.sshConfig": "Промяната на SSH конфигурацията може да ви заключи извън системата",
"securityBlacklist.sshPrivateKeys": "Четенето на SSH частни ключове може да компрометира сигурността на системата",
"securityBlacklist.sudoers": "Промяната на файла sudoers без подходяща проверка е опасна",
"securityBlacklist.suidShells": "Задаването на SUID на shell-ове или интерпретатори е риск за сигурността",
"updateArgs.duplicateKeyError": "Ключът на полето трябва да е уникален",
"updateArgs.form.add": "Добави елемент",
"updateArgs.form.key": "Ключ на полето",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} Kopie",
"emptyAgent": "Noch keine Agenten. Beginnen Sie mit Ihrem ersten Agenten bauen Sie Ihr System nach und nach auf.",
"emptyAgentAction": "Agent erstellen",
"extendParams.disableContextCaching.desc": "Reduziert die Kosten pro Gespräch um bis zu 90 % und erhöht die Geschwindigkeit um bis zu das 4-Fache. Aktivieren Sie dies, um die Begrenzung der historischen Nachrichten automatisch zu deaktivieren. <1>Mehr erfahren</1>",
"extendParams.disableContextCaching.desc": "Reduzieren Sie die Kosten für die Generierung eines einzelnen Gesprächs um bis zu 90 % und erreichen Sie eine bis zu 4-fache Geschwindigkeit. <1>Mehr erfahren</1>",
"extendParams.disableContextCaching.title": "Kontext-Caching aktivieren",
"extendParams.effort.desc": "Steuern Sie mit dem Parameter 'Aufwand', wie viele Tokens Claude bei der Antwort verwendet.",
"extendParams.effort.title": "Aufwand",
"extendParams.enableAdaptiveThinking.desc": "Ermöglicht Claude im adaptiven Denkmodus dynamisch zu entscheiden, wann und wie intensiv gedacht wird.",
"extendParams.enableAdaptiveThinking.title": "Adaptives Denken aktivieren",
"extendParams.enableReasoning.desc": "Basierend auf der Begrenzung des Claude-Denkmechanismus deaktiviert diese Option automatisch die Begrenzung der historischen Nachrichten. <1>Mehr erfahren</1>",
"extendParams.enableReasoning.desc": "Basierend auf der Begrenzung des Claude-Denkmechanismus. <1>Mehr erfahren</1>",
"extendParams.enableReasoning.title": "Tiefes Denken aktivieren",
"extendParams.imageAspectRatio.title": "Bildseitenverhältnis",
"extendParams.imageResolution.title": "Bildauflösung",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Löschen und neu generieren",
"messageAction.deleteDisabledByThreads": "Diese Nachricht hat ein Unterthema und kann nicht gelöscht werden",
"messageAction.expand": "Nachricht ausklappen",
"messageAction.reaction": "Reaktion hinzufügen",
"messageAction.regenerate": "Neu generieren",
"messages.dm.sentTo": "Nur sichtbar für {{name}}",
"messages.dm.title": "Direktnachricht",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet überzeugt durch herausragende Leistungen in den Bereichen Programmierung, Schreiben und komplexes Denken.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet mit erweitertem Denkvermögen für anspruchsvolle Aufgaben im Bereich komplexes Schlussfolgern.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet ist eine verbesserte Version mit erweitertem Kontext und erweiterten Fähigkeiten.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 ist ein schnelles und effizientes Modell für vielfältige Aufgaben.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und zeichnet sich durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis aus.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten liefern oder schrittweise Denkprozesse mit sichtbarem Ablauf darstellen.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 ist die neueste Generation mit verbesserter Leistung in allen Aufgabenbereichen.",
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
"codegemma.description": "CodeGemma ist ein leichtgewichtiges Modell für verschiedene Programmieraufgaben, das schnelle Iteration und Integration ermöglicht.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Ein auf Englisch fokussiertes Text-Embedding-Modell, optimiert für Code- und Sprachaufgaben.",
"google/text-multilingual-embedding-002.description": "Ein mehrsprachiges Text-Embedding-Modell, optimiert für sprachübergreifende Aufgaben in vielen Sprachen.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo ist ein schnelles und effizientes Modell für vielfältige Aufgaben.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis, optimiert für die Befolgung von Anweisungen.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
"gpt-4-32k-0613.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben ideal für umfassende Informationssynthese und Datenanalyse.",
"gpt-4-32k.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben ideal für umfassende Informationssynthese und Datenanalyse.",
"gpt-4-o-preview.description": "GPT-4o ist das fortschrittlichste multimodale Modell und verarbeitet sowohl Text- als auch Bildeingaben.",
"gpt-4-turbo-2024-04-09.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
"gpt-4-turbo-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
"gpt-4-turbo.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
"gpt-4-vision-preview.description": "Vorschau von GPT-4 Vision, entwickelt für Aufgaben der Bildanalyse und -verarbeitung.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 ist das Spitzenmodell für komplexe Aufgaben und ideal für interdisziplinäre Problemlösungen.",
"gpt-4.1-mini.description": "GPT-4.1 mini vereint Intelligenz, Geschwindigkeit und Kostenersparnis ideal für viele Anwendungsfälle.",
"gpt-4.1-nano.description": "GPT-4.1 nano ist das schnellste und kostengünstigste Modell der GPT-4.1-Reihe.",
"gpt-4.1.description": "GPT-4.1 ist unser Flaggschiffmodell für komplexe Aufgaben und domänenübergreifende Problemlösungen.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird. Es kombiniert ein starkes Sprachverständnis mit leistungsfähiger Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Unterstützung.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Sprachverständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Hilfe vereint.",
"gpt-4o-audio-preview.description": "GPT-4o Audio-Vorschau-Modell mit Audioeingabe und -ausgabe.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini ist eine kosteneffiziente Lösung für ein breites Spektrum an Text- und Bildaufgaben.",
"gpt-4o-mini-audio-preview.description": "GPT-4o Mini Audio-Modell mit Audioeingabe und -ausgabe.",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini-Echtzeitvariante mit Audio- und Textein-/ausgabe in Echtzeit.",
"gpt-4o-mini-search-preview.description": "GPT-4o Mini Search Preview ist darauf trainiert, Websuchanfragen über die Chat Completions API zu verstehen und auszuführen. Websuchen werden zusätzlich zu den Tokenkosten pro Tool-Aufruf abgerechnet.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "OpenAIs verbesserte, leistungsstärkere Variante des ada-Embedding-Modells.",
"openai/text-embedding-ada-002.description": "OpenAIs älteres Text-Embedding-Modell.",
"openrouter/auto.description": "Basierend auf Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstmoderiert) oder GPT-4o weitergeleitet.",
"oswe-vscode-prime.description": "Raptor mini ist ein Vorschau-Modell, das für Aufgaben rund ums Programmieren optimiert wurde.",
"oswe-vscode-secondary.description": "Raptor mini ist ein Vorschau-Modell, das für Aufgaben rund ums Programmieren optimiert wurde.",
"perplexity/sonar-pro.description": "Perplexitys Flaggschiffprodukt mit Suchverankerung, unterstützt komplexe Anfragen und Folgefragen.",
"perplexity/sonar-reasoning-pro.description": "Ein fortschrittliches Modell mit Fokus auf logisches Denken, das CoT mit erweiterter Suche ausgibt, einschließlich mehrerer Suchanfragen pro Anfrage.",
"perplexity/sonar-reasoning.description": "Ein Modell mit Fokus auf logisches Denken, das Chain-of-Thought (CoT) mit detaillierten, suchbasierten Erklärungen liefert.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct nutzt insgesamt 80B Parameter, davon 13B aktiv, um mit größeren Modellen zu konkurrieren. Es unterstützt hybrides schnelles/langsames Denken, stabiles Langtextverständnis und führende Agentenfähigkeiten auf BFCL-v3 und τ-Bench. GQA- und Multi-Quant-Formate ermöglichen effiziente Inferenz.",
"tencent/Hunyuan-MT-7B.description": "Das Hunyuan-Übersetzungsmodell umfasst Hunyuan-MT-7B und das Ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B ist ein leichtgewichtiges 7B-Modell, das 33 Sprachen sowie 5 chinesische Minderheitensprachen unterstützt. Bei WMT25 erzielte es 30 erste Plätze in 31 Sprachpaaren. Tencent Hunyuan verwendet eine vollständige Trainingspipeline von Pretraining über SFT bis hin zu RL für Übersetzung und Ensemble, und erreicht führende Leistung bei einfacher, effizienter Bereitstellung.",
"text-embedding-3-large.description": "Das leistungsfähigste Embedding-Modell für englische und nicht-englische Aufgaben.",
"text-embedding-3-small-inference.description": "Embedding V3 Small (Inference) Modell für Text-Einbettungen.",
"text-embedding-3-small.description": "Ein effizientes, kostengünstiges Next-Gen-Embedding-Modell für Retrieval- und RAG-Szenarien.",
"text-embedding-ada-002.description": "Embedding V2 Ada Modell für Text-Einbettungen.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 ist ein 32B zweisprachiges (Chinesisch/Englisch) Open-Weights-Modell, optimiert für Codegenerierung, Funktionsaufrufe und Agentenaufgaben. Es wurde mit 15T hochwertigen, reasoning-intensiven Daten vortrainiert und durch menschliche Präferenzanpassung, Rejection Sampling und RL weiter verfeinert. Es überzeugt bei komplexem Denken, Artefakterstellung und strukturierten Ausgaben und erreicht GPT-4o- und DeepSeek-V3-0324-Niveau in mehreren Benchmarks.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 ist ein 32B zweisprachiges (Chinesisch/Englisch) Open-Weights-Modell, optimiert für Codegenerierung, Funktionsaufrufe und Agentenaufgaben. Es wurde mit 15T hochwertigen, reasoning-intensiven Daten vortrainiert und durch menschliche Präferenzanpassung, Rejection Sampling und RL weiter verfeinert. Es überzeugt bei komplexem Denken, Artefakterstellung und strukturierten Ausgaben und erreicht GPT-4o- und DeepSeek-V3-0324-Niveau in mehreren Benchmarks.",
"thudm/glm-4-9b-chat.description": "Die Open-Source-Version des neuesten GLM-4-Pretraining-Modells von Zhipu AI.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Nur erstes Vorkommen ersetzen",
"localFiles.file": "Datei",
"localFiles.folder": "Ordner",
"localFiles.globFiles.pattern": "Muster",
"localFiles.grepContent.glob": "Dateifilter",
"localFiles.grepContent.pattern": "Suchmuster",
"localFiles.grepContent.type": "Dateityp",
"localFiles.moveFiles.itemsMoved": "{{count}} Element(e) verschoben:",
"localFiles.moveFiles.itemsMoved_one": "{{count}} Element verschoben:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} Elemente verschoben:",
@ -95,11 +99,17 @@
"localFiles.open": "Öffnen",
"localFiles.openFile": "Datei öffnen",
"localFiles.openFolder": "Ordner öffnen",
"localFiles.outOfScope.requestedPaths": "Angeforderte Pfade",
"localFiles.outOfScope.warning": "Warnung: Die folgenden Pfade liegen außerhalb des konfigurierten Arbeitsverzeichnisses. Bitte bestätigen Sie, dass Sie den Zugriff erlauben möchten.",
"localFiles.outOfScope.workingDirectory": "Arbeitsverzeichnis",
"localFiles.read.more": "Mehr anzeigen",
"localFiles.readFile": "Datei lesen",
"localFiles.readFile.lineRange": "Zeilen {{start}} - {{end}}",
"localFiles.readFileError": "Datei konnte nicht gelesen werden. Bitte überprüfen Sie den Dateipfad.",
"localFiles.readFiles": "Dateien lesen",
"localFiles.readFilesError": "Dateien konnten nicht gelesen werden. Bitte überprüfen Sie den Dateipfad.",
"localFiles.searchFiles.keywords": "Stichwörter",
"localFiles.securityBlacklist.warning": "Sicherheitswarnung: Diese Aktion wurde durch Sicherheitsregeln markiert und erfordert Ihre ausdrückliche Zustimmung.",
"localFiles.writeFile.characters": "Zeichen",
"localFiles.writeFile.preview": "Inhaltsvorschau",
"localFiles.writeFile.truncated": "gekürzt",
@ -136,6 +146,31 @@
"search.summary": "Zusammenfassung",
"search.summaryTooltip": "Aktuellen Inhalt zusammenfassen",
"search.viewMoreResults": "{{results}} weitere Ergebnisse anzeigen",
"securityBlacklist.awsCredentials": "Der Zugriff auf AWS-Zugangsdaten kann Cloud-Zugriffsschlüssel offenlegen",
"securityBlacklist.browserCredentials": "Der Zugriff auf gespeicherte Browser-Zugangsdaten kann Passwörter offenlegen",
"securityBlacklist.chownSystemDirs": "Das Ändern des Besitzes von Systemverzeichnissen ist gefährlich",
"securityBlacklist.ddDiskWrite": "Das Schreiben zufälliger Daten auf Datenträger kann Daten zerstören",
"securityBlacklist.directMemoryAccess": "Direkter Speicherzugriff ist äußerst gefährlich",
"securityBlacklist.disableFirewall": "Das Deaktivieren der Firewall setzt das System Angriffen aus",
"securityBlacklist.dockerConfig": "Das Lesen der Docker-Konfiguration kann Registry-Zugangsdaten offenlegen",
"securityBlacklist.envFiles": "Das Lesen von .env-Dateien kann sensible Zugangsdaten und API-Schlüssel offenlegen",
"securityBlacklist.etcPasswd": "Das Ändern von /etc/passwd kann den Systemzugang sperren",
"securityBlacklist.forkBomb": "Eine Fork-Bombe kann das System zum Absturz bringen",
"securityBlacklist.formatPartition": "Das Formatieren von Systempartitionen zerstört Daten",
"securityBlacklist.gcpCredentials": "Das Lesen von GCP-Zugangsdaten kann Cloud-Service-Konten kompromittieren",
"securityBlacklist.gitCredentials": "Das Lesen der Git-Zugangsdaten kann Zugriffstoken offenlegen",
"securityBlacklist.historyFiles": "Das Lesen von Verlaufdateien kann sensible Befehle und Zugangsdaten offenlegen",
"securityBlacklist.kernelParams": "Das Ändern von Kernel-Parametern ohne Fachwissen kann das System zum Absturz bringen",
"securityBlacklist.kubeConfig": "Das Lesen der Kubernetes-Konfiguration kann Cluster-Zugangsdaten offenlegen",
"securityBlacklist.npmrc": "Das Lesen der npm-Token-Datei kann Registry-Zugangsdaten offenlegen",
"securityBlacklist.removeSystemPackages": "Das Entfernen essenzieller Systempakete kann das System beschädigen",
"securityBlacklist.rmForceRecursive": "Erzwingtes rekursives Löschen ohne konkretes Ziel ist zu gefährlich",
"securityBlacklist.rmHomeDir": "Rekursives Löschen des Home-Verzeichnisses ist äußerst gefährlich",
"securityBlacklist.rmRootDir": "Rekursives Löschen des Root-Verzeichnisses zerstört das System",
"securityBlacklist.sshConfig": "Das Ändern der SSH-Konfiguration kann den Zugang zum System sperren",
"securityBlacklist.sshPrivateKeys": "Das Lesen privater SSH-Schlüssel kann die Systemsicherheit gefährden",
"securityBlacklist.sudoers": "Das Ändern der sudoers-Datei ohne Validierung ist gefährlich",
"securityBlacklist.suidShells": "Das Setzen von SUID auf Shells oder Interpreter stellt ein Sicherheitsrisiko dar",
"updateArgs.duplicateKeyError": "Feldschlüssel muss eindeutig sein",
"updateArgs.form.add": "Eintrag hinzufügen",
"updateArgs.form.key": "Feldschlüssel",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} Copy",
"emptyAgent": "No Agents yet. Start with your first Agent—build your system over time.",
"emptyAgentAction": "Create Agent",
"extendParams.disableContextCaching.desc": "Reduce by up to 90% of the cost of generating a single conversation and bring a max of 4x speed. Enabling this will automatically disable the limit on the number of historical messages. <1>Learn more</1>",
"extendParams.disableContextCaching.desc": "Reduce by up to 90% of the cost of generating a single conversation and bring a max of 4x speed. <1>Learn more</1>",
"extendParams.disableContextCaching.title": "Enable Context Caching",
"extendParams.effort.desc": "Control how many tokens Claude uses when responding with the effort parameter.",
"extendParams.effort.title": "Effort",
"extendParams.enableAdaptiveThinking.desc": "Let Claude dynamically decide when and how much to think with adaptive thinking mode.",
"extendParams.enableAdaptiveThinking.title": "Enable Adaptive Thinking",
"extendParams.enableReasoning.desc": "Based on the Claude Thinking mechanism limit, enabling this will automatically disable the limit on the number of historical messages. <1>Learn more</1>",
"extendParams.enableReasoning.desc": "Based on the Claude Thinking mechanism limit. <1>Learn more</1>",
"extendParams.enableReasoning.title": "Enable Deep Thinking",
"extendParams.imageAspectRatio.title": "Image Aspect Ratio",
"extendParams.imageResolution.title": "Image Resolution",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Replace first occurrence only",
"localFiles.file": "File",
"localFiles.folder": "Folder",
"localFiles.globFiles.pattern": "Pattern",
"localFiles.grepContent.glob": "File filter",
"localFiles.grepContent.pattern": "Search pattern",
"localFiles.grepContent.type": "File type",
"localFiles.moveFiles.itemsMoved": "{{count}} item(s) moved:",
"localFiles.moveFiles.itemsMoved_one": "{{count}} item moved:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} items moved:",
@ -95,11 +99,16 @@
"localFiles.open": "Open",
"localFiles.openFile": "Open File",
"localFiles.openFolder": "Open Folder",
"localFiles.outOfScope.requestedPaths": "Requested Paths",
"localFiles.outOfScope.warning": "Warning: The following path(s) are outside the configured working directory. Please confirm you want to allow access.",
"localFiles.outOfScope.workingDirectory": "Working Directory",
"localFiles.read.more": "View More",
"localFiles.readFile": "Read File",
"localFiles.readFile.lineRange": "Lines {{start}} - {{end}}",
"localFiles.readFileError": "Failed to read file, please check if the file path is correct",
"localFiles.readFiles": "Read Files",
"localFiles.readFilesError": "Failed to read files, please check if the file path is correct",
"localFiles.searchFiles.keywords": "Keywords",
"localFiles.securityBlacklist.warning": "Security Alert: This operation has been flagged by security rules and requires your explicit approval.",
"localFiles.writeFile.characters": "characters",
"localFiles.writeFile.preview": "Content Preview",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "Copia de {{title}}",
"emptyAgent": "Aún no hay Agentes. Comienza con tu primer Agente—construye tu sistema con el tiempo.",
"emptyAgentAction": "Crear Agente",
"extendParams.disableContextCaching.desc": "Reduce hasta un 90% el costo de generar una conversación y aumenta hasta 4 veces la velocidad. Al habilitar esto, se desactiva automáticamente el límite de mensajes históricos. <1>Más información</1>",
"extendParams.disableContextCaching.desc": "Reduce hasta un 90% el costo de generar una sola conversación y alcanza una velocidad hasta 4 veces mayor. <1>Más información</1>",
"extendParams.disableContextCaching.title": "Habilitar Caché de Contexto",
"extendParams.effort.desc": "Controla cuántos tokens utiliza Claude al responder mediante el parámetro de esfuerzo.",
"extendParams.effort.title": "Esfuerzo",
"extendParams.enableAdaptiveThinking.desc": "Permite que Claude decida dinámicamente cuándo y cuánto pensar con el modo de pensamiento adaptativo.",
"extendParams.enableAdaptiveThinking.title": "Activar Pensamiento Adaptativo",
"extendParams.enableReasoning.desc": "Basado en el límite del mecanismo de Pensamiento de Claude, al habilitar esto se desactiva automáticamente el límite de mensajes históricos. <1>Más información</1>",
"extendParams.enableReasoning.desc": "Basado en el límite del mecanismo de razonamiento de Claude. <1>Más información</1>",
"extendParams.enableReasoning.title": "Habilitar Pensamiento Profundo",
"extendParams.imageAspectRatio.title": "Relación de aspecto de imagen",
"extendParams.imageResolution.title": "Resolución de imagen",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Eliminar y regenerar",
"messageAction.deleteDisabledByThreads": "Este mensaje tiene un subtema y no se puede eliminar",
"messageAction.expand": "Expandir mensaje",
"messageAction.reaction": "Agregar reacción",
"messageAction.regenerate": "Regenerar",
"messages.dm.sentTo": "Visible solo para {{name}}",
"messages.dm.title": "Mensaje directo",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet destaca en programación, redacción y razonamiento complejo.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet con pensamiento extendido para tareas de razonamiento complejo.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet es una versión mejorada con mayor contexto y capacidades ampliadas.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con una velocidad relámpago y razonamiento extendido.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 es un modelo rápido y eficiente para diversas tareas.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"claude-sonnet-4.description": "Claude Sonnet 4 es la última generación con un rendimiento mejorado en todas las tareas.",
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
"codegemma.description": "CodeGemma es un modelo ligero para tareas de programación variadas, que permite iteración rápida e integración sencilla.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Modelo de embedding de texto enfocado en inglés, optimizado para tareas de código y lenguaje en inglés.",
"google/text-multilingual-embedding-002.description": "Modelo de embedding de texto multilingüe optimizado para tareas interlingüísticas en muchos idiomas.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo para generación y comprensión de texto; actualmente apunta a gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo es un modelo rápido y eficiente para diversas tareas.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo para generación y comprensión de texto; actualmente apunta a gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo para tareas de generación y comprensión de texto, optimizado para seguir instrucciones.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo para generación y comprensión de texto; actualmente apunta a gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
"gpt-4-32k-0613.description": "GPT-4 ofrece una ventana de contexto más amplia para manejar entradas más largas en escenarios que requieren integración de información y análisis de datos.",
"gpt-4-32k.description": "GPT-4 ofrece una ventana de contexto más amplia para manejar entradas más largas en escenarios que requieren integración de información y análisis de datos.",
"gpt-4-o-preview.description": "GPT-4o es el modelo multimodal más avanzado, capaz de procesar texto e imágenes.",
"gpt-4-turbo-2024-04-09.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
"gpt-4-turbo-preview.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
"gpt-4-turbo.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
"gpt-4-vision-preview.description": "Vista previa de GPT-4 Vision, diseñado para tareas de análisis y procesamiento de imágenes.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 es el modelo insignia para tareas complejas, ideal para la resolución de problemas multidisciplinarios.",
"gpt-4.1-mini.description": "GPT-4.1 mini equilibra inteligencia, velocidad y costo, siendo atractivo para muchos casos de uso.",
"gpt-4.1-nano.description": "GPT-4.1 nano es el modelo GPT-4.1 más rápido y rentable.",
"gpt-4.1.description": "GPT-4.1 es nuestro modelo insignia para tareas complejas y resolución de problemas interdisciplinares.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real. Combina una sólida comprensión del lenguaje y generación para casos de uso a gran escala como atención al cliente, educación y asistencia técnica.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina una sólida comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
"gpt-4o-audio-preview.description": "Modelo de vista previa de audio de GPT-4o con entrada y salida de audio.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini es una solución rentable para una amplia gama de tareas de texto e imagen.",
"gpt-4o-mini-audio-preview.description": "Modelo de audio mini de GPT-4o con entrada y salida de audio.",
"gpt-4o-mini-realtime-preview.description": "Variante en tiempo real de GPT-4o-mini con entrada/salida de audio y texto en tiempo real.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview está entrenado para comprender y ejecutar consultas de búsqueda web a través de la API de Chat Completions. La búsqueda web se factura por cada llamada a herramienta además del costo por tokens.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "Variante mejorada del modelo ada de embedding, con mayor rendimiento.",
"openai/text-embedding-ada-002.description": "Modelo de embedding de texto heredado de OpenAI.",
"openrouter/auto.description": "Según la longitud del contexto, el tema y la complejidad, tu solicitud se enruta a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderado) o GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini es un modelo preliminar optimizado para tareas relacionadas con código.",
"oswe-vscode-secondary.description": "Raptor mini es un modelo preliminar optimizado para tareas relacionadas con código.",
"perplexity/sonar-pro.description": "Producto insignia de Perplexity con búsqueda fundamentada, compatible con consultas avanzadas y seguimientos.",
"perplexity/sonar-reasoning-pro.description": "Modelo avanzado centrado en razonamiento que genera cadenas de pensamiento (CoT) con búsqueda mejorada, incluyendo múltiples consultas por solicitud.",
"perplexity/sonar-reasoning.description": "Modelo centrado en razonamiento que genera cadenas de pensamiento (CoT) con explicaciones detalladas fundamentadas en búsqueda.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utiliza 80B parámetros totales con 13B activos para igualar modelos más grandes. Admite razonamiento híbrido rápido/lento, comprensión estable de textos largos y capacidad líder de agentes en BFCL-v3 y τ-Bench. GQA y formatos multi-cuánticos permiten inferencia eficiente.",
"tencent/Hunyuan-MT-7B.description": "El modelo de traducción Hunyuan incluye Hunyuan-MT-7B y el conjunto Hunyuan-MT-Chimera. Hunyuan-MT-7B es un modelo ligero de 7B que admite 33 idiomas y 5 lenguas minoritarias chinas. En WMT25 obtuvo 30 primeros lugares en 31 pares de idiomas. Tencent Hunyuan utiliza una canalización completa de entrenamiento desde preentrenamiento hasta SFT, RL de traducción y RL en conjunto, logrando un rendimiento líder en su tamaño con implementación eficiente y sencilla.",
"text-embedding-3-large.description": "El modelo de embedding más potente para tareas en inglés y otros idiomas.",
"text-embedding-3-small-inference.description": "Modelo Embedding V3 pequeño (Inferencia) para incrustaciones de texto.",
"text-embedding-3-small.description": "Modelo de embedding de próxima generación eficiente y rentable para recuperación y escenarios RAG.",
"text-embedding-ada-002.description": "Modelo Embedding V2 Ada para incrustaciones de texto.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 es un modelo bilingüe (chino/inglés) de 32B con pesos abiertos, optimizado para generación de código, llamadas a funciones y tareas de agentes. Preentrenado con 15T de datos de alta calidad y centrados en razonamiento, afinado con alineación de preferencias humanas, muestreo de rechazo y RL. Destaca en razonamiento complejo, generación de artefactos y salida estructurada, alcanzando el nivel de rendimiento de GPT-4o y DeepSeek-V3-0324 en múltiples benchmarks.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 es un modelo bilingüe (chino/inglés) de 32B con pesos abiertos, optimizado para generación de código, llamadas a funciones y tareas de agentes. Preentrenado con 15T de datos de alta calidad y centrados en razonamiento, afinado con alineación de preferencias humanas, muestreo de rechazo y RL. Destaca en razonamiento complejo, generación de artefactos y salida estructurada, alcanzando el nivel de rendimiento de GPT-4o y DeepSeek-V3-0324 en múltiples benchmarks.",
"thudm/glm-4-9b-chat.description": "Versión de código abierto del último modelo preentrenado GLM-4 de Zhipu AI.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Reemplazar solo la primera ocurrencia",
"localFiles.file": "Archivo",
"localFiles.folder": "Carpeta",
"localFiles.globFiles.pattern": "Patrón",
"localFiles.grepContent.glob": "Filtro de archivos",
"localFiles.grepContent.pattern": "Patrón de búsqueda",
"localFiles.grepContent.type": "Tipo de archivo",
"localFiles.moveFiles.itemsMoved": "{{count}} elemento(s) movido(s):",
"localFiles.moveFiles.itemsMoved_one": "{{count}} elemento movido:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} elementos movidos:",
@ -95,11 +99,17 @@
"localFiles.open": "Abrir",
"localFiles.openFile": "Abrir Archivo",
"localFiles.openFolder": "Abrir Carpeta",
"localFiles.outOfScope.requestedPaths": "Rutas solicitadas",
"localFiles.outOfScope.warning": "Advertencia: Las siguientes rutas están fuera del directorio de trabajo configurado. Por favor, confirma si deseas permitir el acceso.",
"localFiles.outOfScope.workingDirectory": "Directorio de trabajo",
"localFiles.read.more": "Ver Más",
"localFiles.readFile": "Leer Archivo",
"localFiles.readFile.lineRange": "Líneas {{start}} - {{end}}",
"localFiles.readFileError": "No se pudo leer el archivo, por favor verifica si la ruta es correcta",
"localFiles.readFiles": "Leer Archivos",
"localFiles.readFilesError": "No se pudieron leer los archivos, por favor verifica si la ruta es correcta",
"localFiles.searchFiles.keywords": "Palabras clave",
"localFiles.securityBlacklist.warning": "Alerta de seguridad: Esta operación ha sido marcada por las reglas de seguridad y requiere tu aprobación explícita.",
"localFiles.writeFile.characters": "caracteres",
"localFiles.writeFile.preview": "Vista Previa del Contenido",
"localFiles.writeFile.truncated": "truncado",
@ -136,6 +146,31 @@
"search.summary": "Resumen",
"search.summaryTooltip": "Resumir el contenido actual",
"search.viewMoreResults": "Ver {{results}} resultados más",
"securityBlacklist.awsCredentials": "Acceder a las credenciales de AWS puede filtrar claves de acceso a la nube",
"securityBlacklist.browserCredentials": "Acceder al almacenamiento de credenciales del navegador puede exponer contraseñas",
"securityBlacklist.chownSystemDirs": "Cambiar la propiedad de los directorios del sistema es peligroso",
"securityBlacklist.ddDiskWrite": "Escribir datos aleatorios en dispositivos de disco puede destruir información",
"securityBlacklist.directMemoryAccess": "El acceso directo a la memoria es extremadamente peligroso",
"securityBlacklist.disableFirewall": "Desactivar el cortafuegos expone el sistema a ataques",
"securityBlacklist.dockerConfig": "Leer la configuración de Docker puede exponer credenciales del registro",
"securityBlacklist.envFiles": "Leer archivos .env puede filtrar credenciales sensibles y claves de API",
"securityBlacklist.etcPasswd": "Modificar /etc/passwd podría bloquear el acceso al sistema",
"securityBlacklist.forkBomb": "Una bomba fork puede colapsar el sistema",
"securityBlacklist.formatPartition": "Formatear particiones del sistema destruirá los datos",
"securityBlacklist.gcpCredentials": "Leer credenciales de GCP puede filtrar claves de cuentas de servicios en la nube",
"securityBlacklist.gitCredentials": "Leer el archivo de credenciales de Git puede exponer tokens de acceso",
"securityBlacklist.historyFiles": "Leer archivos de historial puede revelar comandos sensibles y credenciales",
"securityBlacklist.kernelParams": "Modificar parámetros del kernel sin conocimiento puede colapsar el sistema",
"securityBlacklist.kubeConfig": "Leer la configuración de Kubernetes puede exponer credenciales del clúster",
"securityBlacklist.npmrc": "Leer el archivo de tokens de npm puede exponer credenciales del registro de paquetes",
"securityBlacklist.removeSystemPackages": "Eliminar paquetes esenciales del sistema puede dañarlo irreversiblemente",
"securityBlacklist.rmForceRecursive": "La eliminación forzada y recursiva sin un objetivo específico es demasiado peligrosa",
"securityBlacklist.rmHomeDir": "La eliminación recursiva del directorio personal es extremadamente peligrosa",
"securityBlacklist.rmRootDir": "La eliminación recursiva del directorio raíz destruirá el sistema",
"securityBlacklist.sshConfig": "Cambiar la configuración de SSH podría bloquear el acceso",
"securityBlacklist.sshPrivateKeys": "Leer claves privadas SSH puede comprometer la seguridad del sistema",
"securityBlacklist.sudoers": "Modificar el archivo sudoers sin validación adecuada es peligroso",
"securityBlacklist.suidShells": "Asignar SUID a shells o intérpretes representa un riesgo de seguridad",
"updateArgs.duplicateKeyError": "La clave del campo debe ser única",
"updateArgs.form.add": "Agregar un Elemento",
"updateArgs.form.key": "Clave del Campo",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "کپی {{title}}",
"emptyAgent": "هنوز عاملی وجود ندارد. با اولین عامل خود شروع کنید—سیستم خود را به مرور بسازید.",
"emptyAgentAction": "ایجاد عامل",
"extendParams.disableContextCaching.desc": "تا ۹۰٪ هزینه تولید یک گفتگو را کاهش داده و تا ۴ برابر سرعت را افزایش می‌دهد. فعال‌سازی این گزینه محدودیت تعداد پیام‌های تاریخی را به‌طور خودکار غیرفعال می‌کند. <1>بیشتر بدانید</1>",
"extendParams.disableContextCaching.desc": "تا ۹۰٪ از هزینه تولید یک مکالمه را کاهش دهید و حداکثر تا ۴ برابر سرعت را افزایش دهید. <1>بیشتر بدانید</1>",
"extendParams.disableContextCaching.title": "فعال‌سازی ذخیره‌سازی زمینه",
"extendParams.effort.desc": "با استفاده از پارامتر تلاش، میزان توکنی که کلود هنگام پاسخ‌گویی استفاده می‌کند را کنترل کنید.",
"extendParams.effort.title": "تلاش",
"extendParams.enableAdaptiveThinking.desc": "با فعال‌سازی حالت تفکر تطبیقی، به کلود اجازه دهید به‌صورت پویا تصمیم بگیرد چه زمانی و چقدر فکر کند.",
"extendParams.enableAdaptiveThinking.title": "فعال‌سازی تفکر تطبیقی",
"extendParams.enableReasoning.desc": "بر اساس محدودیت مکانیزم تفکر Claude، فعال‌سازی این گزینه محدودیت تعداد پیام‌های تاریخی را به‌طور خودکار غیرفعال می‌کند. <1>بیشتر بدانید</1>",
"extendParams.enableReasoning.desc": "بر اساس محدودیت مکانیزم تفکر کلود. <1>بیشتر بدانید</1>",
"extendParams.enableReasoning.title": "فعال‌سازی تفکر عمیق",
"extendParams.imageAspectRatio.title": "نسبت تصویر",
"extendParams.imageResolution.title": "وضوح تصویر",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "حذف و بازتولید",
"messageAction.deleteDisabledByThreads": "این پیام دارای زیرموضوع است و قابل حذف نیست",
"messageAction.expand": "باز کردن پیام",
"messageAction.reaction": "افزودن واکنش",
"messageAction.regenerate": "بازتولید",
"messages.dm.sentTo": "فقط برای {{name}} قابل مشاهده است",
"messages.dm.title": "پیام خصوصی",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet در برنامه‌نویسی، نویسندگی و استدلال‌های پیچیده عملکردی برجسته دارد.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet با قابلیت تفکر پیشرفته برای انجام وظایف استدلالی پیچیده طراحی شده است.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet نسخه‌ای ارتقاءیافته با زمینه و قابلیت‌های گسترده‌تر است.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته همراه است.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 مدلی سریع و کارآمد برای انجام وظایف گوناگون است.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و فهم مطلب برجسته است.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌هایی تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"claude-sonnet-4.description": "Claude Sonnet 4 نسل جدیدی از این مدل با عملکرد بهبود یافته در تمامی وظایف است.",
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
"codegemma.description": "CodeGemma یک مدل سبک برای وظایف متنوع برنامه‌نویسی است که امکان تکرار سریع و یکپارچه‌سازی آسان را فراهم می‌کند.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "مدل جاسازی متن متمرکز بر زبان انگلیسی که برای وظایف کد و زبان انگلیسی بهینه شده است.",
"google/text-multilingual-embedding-002.description": "مدل جاسازی متن چندزبانه بهینه‌شده برای وظایف میان‌زبانی در زبان‌های مختلف.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo مدلی سریع و کارآمد برای انجام وظایف متنوع است.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo برای وظایف تولید و درک متن، بهینه‌شده برای پیروی از دستورالعمل‌ها.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
"gpt-4-32k-0613.description": "GPT-4 پنجره متنی بزرگ‌تری برای مدیریت ورودی‌های طولانی فراهم می‌کند و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده دارند مناسب است.",
"gpt-4-32k.description": "GPT-4 پنجره متنی بزرگ‌تری برای مدیریت ورودی‌های طولانی فراهم می‌کند و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده دارند مناسب است.",
"gpt-4-o-preview.description": "GPT-4o پیشرفته‌ترین مدل چندرسانه‌ای است که ورودی‌های متنی و تصویری را پردازش می‌کند.",
"gpt-4-turbo-2024-04-09.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
"gpt-4-turbo-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
"gpt-4-turbo.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
"gpt-4-vision-preview.description": "پیش‌نمایش GPT-4 Vision، طراحی‌شده برای وظایف تحلیل و پردازش تصویر.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 مدل پرچم‌دار برای انجام وظایف پیچیده و حل مسائل میان‌رشته‌ای است.",
"gpt-4.1-mini.description": "GPT-4.1 mini تعادلی میان هوش، سرعت و هزینه برقرار می‌کند و برای بسیاری از کاربردها جذاب است.",
"gpt-4.1-nano.description": "GPT-4.1 nano سریع‌ترین و مقرون‌به‌صرفه‌ترین مدل GPT-4.1 است.",
"gpt-4.1.description": "GPT-4.1 مدل پرچم‌دار ما برای وظایف پیچیده و حل مسائل میان‌دامنه‌ای است.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o مدلی پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o مدلی پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
"gpt-4o-audio-preview.description": "مدل پیش‌نمایش صوتی GPT-4o با ورودی و خروجی صوتی.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini راه‌حلی مقرون‌به‌صرفه برای طیف گسترده‌ای از وظایف متنی و تصویری است.",
"gpt-4o-mini-audio-preview.description": "مدل صوتی کوچک GPT-4o با ورودی و خروجی صوتی.",
"gpt-4o-mini-realtime-preview.description": "نسخه بلادرنگ GPT-4o-mini با ورودی/خروجی بلادرنگ صوتی و متنی.",
"gpt-4o-mini-search-preview.description": "پیش‌نمایش جست‌وجوی GPT-4o mini برای درک و اجرای پرس‌وجوهای جست‌وجوی وب از طریق API تکمیل چت. جست‌وجوی وب به ازای هر فراخوانی ابزار، علاوه بر هزینه توکن، محاسبه می‌شود.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "نسخه بهبودیافته و با عملکرد بالاتر مدل تعبیه ada از OpenAI.",
"openai/text-embedding-ada-002.description": "مدل تعبیه متن قدیمی OpenAI.",
"openrouter/auto.description": "بر اساس طول متن، موضوع و پیچیدگی، درخواست شما به یکی از مدل‌های Llama 3 70B Instruct، Claude 3.5 Sonnet (با خودنظارتی) یا GPT-4o هدایت می‌شود.",
"oswe-vscode-prime.description": "Raptor mini یک مدل پیش‌نمایش بهینه‌سازی‌شده برای وظایف مرتبط با کدنویسی است.",
"oswe-vscode-secondary.description": "Raptor mini یک مدل پیش‌نمایش بهینه‌سازی‌شده برای وظایف مرتبط با کدنویسی است.",
"perplexity/sonar-pro.description": "محصول پرچم‌دار Perplexity با اتصال به جستجو، پشتیبانی از پرسش‌های پیشرفته و پیگیری‌های بعدی.",
"perplexity/sonar-reasoning-pro.description": "مدلی پیشرفته با تمرکز بر استدلال که خروجی زنجیره تفکر (CoT) را با جستجوی تقویت‌شده و چند پرس‌وجو در هر درخواست ارائه می‌دهد.",
"perplexity/sonar-reasoning.description": "مدلی با تمرکز بر استدلال که زنجیره تفکر (CoT) را با توضیحات دقیق و مبتنی بر جستجو تولید می‌کند.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct با استفاده از ۸۰ میلیارد پارامتر کلی و ۱۳ میلیارد پارامتر فعال، عملکردی هم‌تراز با مدل‌های بزرگ‌تر ارائه می‌دهد. این مدل از استدلال ترکیبی سریع/کند، درک پایدار متون بلند و توانایی پیشرو در عامل‌ها در آزمون‌های BFCL-v3 و τ-Bench پشتیبانی می‌کند. فرمت‌های GQA و چندکوانتیزه‌سازی، استنتاج کارآمد را ممکن می‌سازند.",
"tencent/Hunyuan-MT-7B.description": "مدل ترجمه Hunyuan شامل Hunyuan-MT-7B و مدل ترکیبی Hunyuan-MT-Chimera است. Hunyuan-MT-7B یک مدل ترجمه سبک با ۷ میلیارد پارامتر است که از ۳۳ زبان به‌علاوه ۵ زبان اقلیت چینی پشتیبانی می‌کند. در رقابت WMT25، در ۳۰ جفت‌زبان از ۳۱ مورد، رتبه اول را کسب کرد. Hunyuan از یک زنجیره کامل آموزش شامل پیش‌آموزش، SFT، تقویت یادگیری ترجمه و تقویت یادگیری ترکیبی استفاده می‌کند و با عملکردی پیشرو در اندازه خود، به‌راحتی قابل استقرار است.",
"text-embedding-3-large.description": "قوی‌ترین مدل تعبیه‌سازی برای وظایف انگلیسی و غیرانگلیسی.",
"text-embedding-3-small-inference.description": "مدل Embedding V3 Small (Inference) برای جاسازی متون.",
"text-embedding-3-small.description": "مدل تعبیه‌سازی نسل جدید با کارایی بالا و مقرون‌به‌صرفه برای بازیابی اطلاعات و سناریوهای RAG.",
"text-embedding-ada-002.description": "مدل Embedding V2 Ada برای جاسازی متون.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 یک مدل ۳۲ میلیارد پارامتری دوزبانه (چینی/انگلیسی) با وزن‌های باز است که برای تولید کد، فراخوانی توابع و وظایف عامل بهینه‌سازی شده است. این مدل با ۱۵ ترابایت داده باکیفیت و متمرکز بر استدلال پیش‌آموزش دیده و با هم‌راستاسازی ترجیحات انسانی، نمونه‌گیری ردشده و یادگیری تقویتی بهبود یافته است. در استدلال پیچیده، تولید محتوای ساختاریافته و خروجی‌های منظم عملکردی در سطح GPT-4o و DeepSeek-V3-0324 دارد.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 یک مدل ۳۲ میلیارد پارامتری دوزبانه (چینی/انگلیسی) با وزن‌های باز است که برای تولید کد، فراخوانی توابع و وظایف عامل بهینه‌سازی شده است. این مدل با ۱۵ ترابایت داده باکیفیت و متمرکز بر استدلال پیش‌آموزش دیده و با هم‌راستاسازی ترجیحات انسانی، نمونه‌گیری ردشده و یادگیری تقویتی بهبود یافته است. در استدلال پیچیده، تولید محتوای ساختاریافته و خروجی‌های منظم عملکردی در سطح GPT-4o و DeepSeek-V3-0324 دارد.",
"thudm/glm-4-9b-chat.description": "انتشار متن‌باز جدیدترین مدل پیش‌آموزش GLM-4 از Zhipu AI.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "فقط جایگزینی اولین مورد",
"localFiles.file": "فایل",
"localFiles.folder": "پوشه",
"localFiles.globFiles.pattern": "الگوی فایل",
"localFiles.grepContent.glob": "فیلتر فایل",
"localFiles.grepContent.pattern": "الگوی جستجو",
"localFiles.grepContent.type": "نوع فایل",
"localFiles.moveFiles.itemsMoved": "{{count}} مورد منتقل شد:",
"localFiles.moveFiles.itemsMoved_one": "{{count}} مورد منتقل شد:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} مورد منتقل شد:",
@ -95,11 +99,17 @@
"localFiles.open": "باز کردن",
"localFiles.openFile": "باز کردن فایل",
"localFiles.openFolder": "باز کردن پوشه",
"localFiles.outOfScope.requestedPaths": "مسیرهای درخواست‌شده",
"localFiles.outOfScope.warning": "هشدار: مسیر(های) زیر خارج از پوشه کاری پیکربندی‌شده هستند. لطفاً تأیید کنید که می‌خواهید دسترسی را مجاز کنید.",
"localFiles.outOfScope.workingDirectory": "پوشه کاری",
"localFiles.read.more": "مشاهده بیشتر",
"localFiles.readFile": "خواندن فایل",
"localFiles.readFile.lineRange": "خطوط {{start}} تا {{end}}",
"localFiles.readFileError": "خواندن فایل ناموفق بود، لطفاً مسیر فایل را بررسی کنید",
"localFiles.readFiles": "خواندن فایل‌ها",
"localFiles.readFilesError": "خواندن فایل‌ها ناموفق بود، لطفاً مسیر فایل‌ها را بررسی کنید",
"localFiles.searchFiles.keywords": "کلمات کلیدی",
"localFiles.securityBlacklist.warning": "هشدار امنیتی: این عملیات توسط قوانین امنیتی علامت‌گذاری شده و نیاز به تأیید صریح شما دارد.",
"localFiles.writeFile.characters": "کاراکتر",
"localFiles.writeFile.preview": "پیش‌نمایش محتوا",
"localFiles.writeFile.truncated": "کوتاه‌شده",
@ -136,6 +146,31 @@
"search.summary": "خلاصه",
"search.summaryTooltip": "خلاصه‌ای از محتوای فعلی",
"search.viewMoreResults": "مشاهده {{results}} نتیجه بیشتر",
"securityBlacklist.awsCredentials": "دسترسی به اطلاعات AWS می‌تواند کلیدهای دسترسی به فضای ابری را فاش کند",
"securityBlacklist.browserCredentials": "دسترسی به ذخیره‌ساز اطلاعات مرورگر ممکن است رمزهای عبور را فاش کند",
"securityBlacklist.chownSystemDirs": "تغییر مالکیت پوشه‌های سیستمی خطرناک است",
"securityBlacklist.ddDiskWrite": "نوشتن داده تصادفی روی دستگاه‌های دیسک می‌تواند اطلاعات را از بین ببرد",
"securityBlacklist.directMemoryAccess": "دسترسی مستقیم به حافظه بسیار خطرناک است",
"securityBlacklist.disableFirewall": "غیرفعال کردن دیوار آتش سیستم را در معرض حملات قرار می‌دهد",
"securityBlacklist.dockerConfig": "خواندن پیکربندی Docker ممکن است اطلاعات ورود به رجیستری را فاش کند",
"securityBlacklist.envFiles": "خواندن فایل‌های .env ممکن است اطلاعات حساس و کلیدهای API را فاش کند",
"securityBlacklist.etcPasswd": "تغییر /etc/passwd ممکن است باعث قفل شدن دسترسی شما به سیستم شود",
"securityBlacklist.forkBomb": "بمب فورک می‌تواند سیستم را از کار بیندازد",
"securityBlacklist.formatPartition": "فرمت کردن پارتیشن‌های سیستمی باعث از بین رفتن اطلاعات خواهد شد",
"securityBlacklist.gcpCredentials": "خواندن اطلاعات GCP ممکن است کلیدهای حساب سرویس ابری را فاش کند",
"securityBlacklist.gitCredentials": "خواندن فایل اطلاعات Git ممکن است توکن‌های دسترسی را فاش کند",
"securityBlacklist.historyFiles": "خواندن فایل‌های تاریخچه ممکن است دستورات حساس و اطلاعات ورود را فاش کند",
"securityBlacklist.kernelParams": "تغییر پارامترهای کرنل بدون دانش کافی می‌تواند سیستم را از کار بیندازد",
"securityBlacklist.kubeConfig": "خواندن پیکربندی Kubernetes ممکن است اطلاعات ورود به خوشه را فاش کند",
"securityBlacklist.npmrc": "خواندن فایل توکن npm ممکن است اطلاعات ورود به رجیستری پکیج را فاش کند",
"securityBlacklist.removeSystemPackages": "حذف بسته‌های ضروری سیستم می‌تواند باعث خرابی سیستم شود",
"securityBlacklist.rmForceRecursive": "حذف بازگشتی اجباری بدون هدف مشخص بسیار خطرناک است",
"securityBlacklist.rmHomeDir": "حذف بازگشتی پوشه خانگی بسیار خطرناک است",
"securityBlacklist.rmRootDir": "حذف بازگشتی پوشه ریشه باعث نابودی کامل سیستم خواهد شد",
"securityBlacklist.sshConfig": "تغییر پیکربندی SSH ممکن است باعث قفل شدن دسترسی شما شود",
"securityBlacklist.sshPrivateKeys": "خواندن کلیدهای خصوصی SSH می‌تواند امنیت سیستم را به خطر بیندازد",
"securityBlacklist.sudoers": "تغییر فایل sudoers بدون اعتبارسنجی مناسب خطرناک است",
"securityBlacklist.suidShells": "تنظیم SUID روی شل‌ها یا مفسرها یک ریسک امنیتی است",
"updateArgs.duplicateKeyError": "کلید فیلد باید یکتا باشد",
"updateArgs.form.add": "افزودن مورد",
"updateArgs.form.key": "کلید فیلد",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "Copie de {{title}}",
"emptyAgent": "Aucun agent pour le moment. Commencez par créer votre premier agent — construisez votre système au fil du temps.",
"emptyAgentAction": "Créer un agent",
"extendParams.disableContextCaching.desc": "Réduit jusquà 90 % le coût de génération dune conversation et augmente la vitesse jusquà 4x. Lactivation désactive automatiquement la limite du nombre de messages historiques. <1>En savoir plus</1>",
"extendParams.disableContextCaching.desc": "Réduisez jusqu'à 90 % le coût de génération d'une seule conversation et bénéficiez d'une vitesse jusqu'à 4 fois supérieure. <1>En savoir plus</1>",
"extendParams.disableContextCaching.title": "Activer la mise en cache du contexte",
"extendParams.effort.desc": "Contrôlez le nombre de jetons utilisés par Claude pour répondre grâce au paramètre d'effort.",
"extendParams.effort.title": "Effort",
"extendParams.enableAdaptiveThinking.desc": "Permet à Claude de décider dynamiquement quand et combien réfléchir grâce au mode de pensée adaptative.",
"extendParams.enableAdaptiveThinking.title": "Activer la pensée adaptative",
"extendParams.enableReasoning.desc": "Basé sur la limite du mécanisme de réflexion Claude, lactivation désactive automatiquement la limite du nombre de messages historiques. <1>En savoir plus</1>",
"extendParams.enableReasoning.desc": "Basé sur la limite du mécanisme de réflexion Claude. <1>En savoir plus</1>",
"extendParams.enableReasoning.title": "Activer la réflexion approfondie",
"extendParams.imageAspectRatio.title": "Ratio daspect de limage",
"extendParams.imageResolution.title": "Résolution de limage",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Supprimer et régénérer",
"messageAction.deleteDisabledByThreads": "Ce message contient un sous-sujet et ne peut pas être supprimé",
"messageAction.expand": "Développer le message",
"messageAction.reaction": "Ajouter une réaction",
"messageAction.regenerate": "Régénérer",
"messages.dm.sentTo": "Visible uniquement par {{name}}",
"messages.dm.title": "Message privé",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact dAnthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet excelle en programmation, en rédaction et en raisonnement complexe.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet avec réflexion étendue pour les tâches de raisonnement complexe.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet est une version améliorée avec un contexte étendu et des capacités accrues.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, alliant vitesse fulgurante et raisonnement approfondi.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 est un modèle rapide et efficace pour diverses tâches.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant dAnthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches complexes, se distinguant par ses performances, son intelligence, sa fluidité et sa compréhension.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut fournir des réponses instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent dAnthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 est la dernière génération avec des performances améliorées sur lensemble des tâches.",
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, linterprétation de code, la recherche web, lappel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est lun des meilleurs modèles de code sous 10 milliards de paramètres.",
"codegemma.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Un modèle dintégration de texte axé sur langlais, optimisé pour les tâches en anglais et en code.",
"google/text-multilingual-embedding-002.description": "Un modèle dintégration de texte multilingue optimisé pour les tâches interlinguistiques dans de nombreuses langues.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo pour la génération et la compréhension de texte ; actuellement lié à gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo est un modèle rapide et efficace pour diverses tâches.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo pour la génération et la compréhension de texte ; actuellement lié à gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo pour les tâches de génération et de compréhension de texte, optimisé pour le suivi d'instructions.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo pour la génération et la compréhension de texte ; actuellement lié à gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et lappel de fonctions. Cest un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
"gpt-4-32k-0613.description": "GPT-4 offre une fenêtre de contexte étendue pour gérer des entrées plus longues, adapté aux scénarios nécessitant une intégration large dinformations et une analyse de données.",
"gpt-4-32k.description": "GPT-4 offre une fenêtre de contexte étendue pour gérer des entrées plus longues, adapté aux scénarios nécessitant une intégration large dinformations et une analyse de données.",
"gpt-4-o-preview.description": "GPT-4o est le modèle multimodal le plus avancé, capable de traiter du texte et des images.",
"gpt-4-turbo-2024-04-09.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et lappel de fonctions. Cest un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
"gpt-4-turbo-preview.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et lappel de fonctions. Cest un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
"gpt-4-turbo.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et lappel de fonctions. Cest un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
"gpt-4-vision-preview.description": "Aperçu de GPT-4 Vision, conçu pour les tâches danalyse et de traitement dimages.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 est le modèle phare pour les tâches complexes, idéal pour la résolution de problèmes interdomaines.",
"gpt-4.1-mini.description": "GPT-4.1 mini équilibre intelligence, rapidité et coût, ce qui le rend attractif pour de nombreux cas dusage.",
"gpt-4.1-nano.description": "GPT-4.1 nano est le modèle GPT-4.1 le plus rapide et le plus économique.",
"gpt-4.1.description": "GPT-4.1 est notre modèle phare pour les tâches complexes et la résolution de problèmes interdomaines.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel. Il combine une compréhension et une génération linguistiques avancées pour des cas dusage à grande échelle comme le support client, léducation et lassistance technique.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas dusage à grande échelle comme le support client, léducation et lassistance technique.",
"gpt-4o-audio-preview.description": "Aperçu audio de GPT-4o avec entrée et sortie audio.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini est une solution économique pour un large éventail de tâches textuelles et visuelles.",
"gpt-4o-mini-audio-preview.description": "Modèle audio GPT-4o mini avec entrée et sortie audio.",
"gpt-4o-mini-realtime-preview.description": "Variante GPT-4o-mini en temps réel avec E/S audio et texte en temps réel.",
"gpt-4o-mini-search-preview.description": "Aperçu de recherche GPT-4o mini, entraîné pour comprendre et exécuter des requêtes de recherche web via lAPI Chat Completions. La recherche web est facturée par appel doutil en plus du coût des jetons.",
@ -979,6 +988,15 @@
"openai/text-embedding-3-large.description": "Le modèle dembedding le plus performant dOpenAI pour les tâches en anglais et en langues étrangères.",
"openai/text-embedding-3-small.description": "Une variante améliorée et plus performante du modèle dembedding ada dOpenAI.",
"openai/text-embedding-ada-002.description": "Modèle dembedding textuel hérité dOpenAI.",
"openrouter/auto.description": "Selon la longueur du contexte, le sujet et la complexité, votre requête est dirigée vers Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-modéré) ou GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini est un modèle en préversion optimisé pour les tâches liées au code.",
"oswe-vscode-secondary.description": "Raptor mini est un modèle en préversion optimisé pour les tâches liées au code.",
"perplexity/sonar-pro.description": "Produit phare de Perplexity avec ancrage dans la recherche, prenant en charge les requêtes avancées et les suivis.",
"perplexity/sonar-reasoning-pro.description": "Modèle avancé axé sur le raisonnement, produisant des chaînes de pensée (CoT) avec recherche améliorée, incluant plusieurs requêtes par demande.",
"perplexity/sonar-reasoning.description": "Modèle axé sur le raisonnement, générant des chaînes de pensée (CoT) avec des explications détaillées basées sur la recherche.",
"perplexity/sonar.description": "Produit léger de Perplexity avec ancrage dans la recherche, plus rapide et plus économique que Sonar Pro.",
"phi3.description": "Phi-3 est le modèle open source léger de Microsoft, conçu pour une intégration efficace et un raisonnement à grande échelle.",
"phi3:14b.description": "Phi-3 est le modèle open source léger de Microsoft, conçu pour une intégration efficace et un raisonnement à grande échelle.",
"pixtral-12b-2409.description": "Pixtral excelle dans la compréhension de graphiques/images, les questions-réponses sur documents, le raisonnement multimodal et le suivi d'instructions. Il traite les images à leur résolution et ratio d'origine, et gère un nombre illimité d'images dans une fenêtre de contexte de 128K.",
"pixtral-large-latest.description": "Pixtral Large est un modèle multimodal ouvert de 124 milliards de paramètres basé sur Mistral Large 2, le deuxième de notre famille multimodale, avec une compréhension d'image de pointe.",
"pro-128k.description": "Spark Pro 128K offre une très grande capacité de contexte, jusqu'à 128K, idéale pour les documents longs nécessitant une analyse complète du texte et une cohérence à long terme, avec une logique fluide et un support de citations variées dans des discussions complexes.",
@ -1080,6 +1098,7 @@
"qwen3-14b.description": "Qwen3 14B est un modèle de taille moyenne pour les questions-réponses multilingues et la génération de texte.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 est un modèle instruct phare pour une large gamme de tâches de génération et de raisonnement.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 est un modèle de raisonnement ultra-large pour les tâches complexes.",
"qwen3-235b-a22b.description": "Qwen3 est un modèle Tongyi Qwen de nouvelle génération, avec des avancées majeures en raisonnement, capacités générales, agents intelligents et performance multilingue, et prend en charge le changement de mode de pensée.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 est un modèle instruct de taille moyenne à grande pour une génération et des réponses de haute qualité.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 est un modèle de raisonnement équilibrant précision et coût.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B est un modèle général de taille moyenne à grande, équilibrant coût et qualité.",
@ -1091,6 +1110,7 @@
"qwen3-coder-flash.description": "Modèle de code Qwen. La dernière série Qwen3-Coder est basée sur Qwen3 et offre de solides capacités dagent de codage, dutilisation doutils et dinteraction avec lenvironnement pour la programmation autonome, avec dexcellentes performances en code et de bonnes capacités générales.",
"qwen3-coder-plus.description": "Modèle de code Qwen. La dernière série Qwen3-Coder est basée sur Qwen3 et offre de solides capacités dagent de codage, dutilisation doutils et dinteraction avec lenvironnement pour la programmation autonome, avec dexcellentes performances en code et de bonnes capacités générales.",
"qwen3-coder:480b.description": "Modèle haute performance dAlibaba pour les tâches dagent et de codage avec contexte long.",
"qwen3-max-2026-01-23.description": "Les modèles Qwen3 Max offrent des gains significatifs par rapport à la série 2.5 en capacités générales, compréhension du chinois/anglais, suivi d'instructions complexes, tâches subjectives ouvertes, compétences multilingues et utilisation doutils, avec moins dhallucinations. La dernière version qwen3-max améliore la programmation agentique et lutilisation doutils par rapport à qwen3-max-preview. Cette version atteint létat de lart et répond aux besoins dagents plus complexes.",
"qwen3-max-preview.description": "Modèle Qwen le plus performant pour les tâches complexes à étapes multiples. La version preview prend en charge le raisonnement.",
"qwen3-max.description": "Les modèles Qwen3 Max offrent des gains importants par rapport à la série 2.5 en capacité générale, compréhension du chinois/anglais, suivi dinstructions complexes, tâches ouvertes subjectives, multilinguisme et utilisation doutils, avec moins dhallucinations. La dernière version améliore la programmation agentique et lutilisation doutils par rapport à qwen3-max-preview. Cette version atteint le SOTA dans son domaine et vise des besoins agents plus complexes.",
"qwen3-next-80b-a3b-instruct.description": "Modèle open source Qwen3 de nouvelle génération sans raisonnement. Par rapport à la version précédente (Qwen3-235B-A22B-Instruct-2507), il offre une meilleure compréhension du chinois, un raisonnement logique renforcé et une génération de texte améliorée.",
@ -1167,6 +1187,10 @@
"tts-1.description": "Le dernier modèle de synthèse vocale optimisé pour la vitesse en temps réel.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) est ajusté pour les tâches dinstruction précises avec de solides performances linguistiques.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet redéfinit les standards de lindustrie, surpassant ses concurrents et Claude 3 Opus dans de nombreuses évaluations tout en conservant une vitesse et un coût intermédiaires.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet est le modèle nouvelle génération le plus rapide dAnthropic. Par rapport à Claude 3 Haiku, il améliore lensemble des compétences et surpasse lancien modèle phare Claude 3 Opus sur de nombreux critères dintelligence.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, avec une vitesse fulgurante et une réflexion étendue.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 est le modèle le plus intelligent dAnthropic pour la création dagents et la programmation.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent dAnthropic.",
"v0-1.0-md.description": "v0-1.0-md est un modèle hérité accessible via lAPI v0.",
"v0-1.5-lg.description": "v0-1.5-lg est adapté aux tâches avancées de réflexion ou de raisonnement.",
"v0-1.5-md.description": "v0-1.5-md est adapté aux tâches quotidiennes et à la génération dinterfaces utilisateur.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Remplacer uniquement la première occurrence",
"localFiles.file": "Fichier",
"localFiles.folder": "Dossier",
"localFiles.globFiles.pattern": "Modèle",
"localFiles.grepContent.glob": "Filtre de fichiers",
"localFiles.grepContent.pattern": "Motif de recherche",
"localFiles.grepContent.type": "Type de fichier",
"localFiles.moveFiles.itemsMoved": "{{count}} élément(s) déplacé(s) :",
"localFiles.moveFiles.itemsMoved_one": "{{count}} élément déplacé :",
"localFiles.moveFiles.itemsMoved_other": "{{count}} éléments déplacés :",
@ -95,11 +99,17 @@
"localFiles.open": "Ouvrir",
"localFiles.openFile": "Ouvrir un fichier",
"localFiles.openFolder": "Ouvrir un dossier",
"localFiles.outOfScope.requestedPaths": "Chemins demandés",
"localFiles.outOfScope.warning": "Avertissement : Les chemins suivants sont en dehors du répertoire de travail configuré. Veuillez confirmer si vous souhaitez autoriser l'accès.",
"localFiles.outOfScope.workingDirectory": "Répertoire de travail",
"localFiles.read.more": "Voir plus",
"localFiles.readFile": "Lire le fichier",
"localFiles.readFile.lineRange": "Lignes {{start}} - {{end}}",
"localFiles.readFileError": "Échec de la lecture du fichier, veuillez vérifier si le chemin est correct",
"localFiles.readFiles": "Lire les fichiers",
"localFiles.readFilesError": "Échec de la lecture des fichiers, veuillez vérifier si le chemin est correct",
"localFiles.searchFiles.keywords": "Mots-clés",
"localFiles.securityBlacklist.warning": "Alerte de sécurité : Cette opération a été signalée par les règles de sécurité et nécessite votre approbation explicite.",
"localFiles.writeFile.characters": "caractères",
"localFiles.writeFile.preview": "Aperçu du contenu",
"localFiles.writeFile.truncated": "tronqué",
@ -136,6 +146,31 @@
"search.summary": "Résumé",
"search.summaryTooltip": "Résumer le contenu actuel",
"search.viewMoreResults": "Voir {{results}} résultats supplémentaires",
"securityBlacklist.awsCredentials": "Accéder aux identifiants AWS peut compromettre les clés d'accès au cloud",
"securityBlacklist.browserCredentials": "Accéder au stockage des identifiants du navigateur peut divulguer des mots de passe",
"securityBlacklist.chownSystemDirs": "Changer la propriété des répertoires système est dangereux",
"securityBlacklist.ddDiskWrite": "Écrire des données aléatoires sur les périphériques de disque peut détruire les données",
"securityBlacklist.directMemoryAccess": "L'accès direct à la mémoire est extrêmement dangereux",
"securityBlacklist.disableFirewall": "Désactiver le pare-feu expose le système aux attaques",
"securityBlacklist.dockerConfig": "Lire la configuration Docker peut exposer les identifiants du registre",
"securityBlacklist.envFiles": "Lire les fichiers .env peut divulguer des identifiants sensibles et des clés API",
"securityBlacklist.etcPasswd": "Modifier /etc/passwd peut vous empêcher d'accéder au système",
"securityBlacklist.forkBomb": "Une fork bomb peut faire planter le système",
"securityBlacklist.formatPartition": "Formater les partitions système détruira les données",
"securityBlacklist.gcpCredentials": "Lire les identifiants GCP peut compromettre les clés de compte de service cloud",
"securityBlacklist.gitCredentials": "Lire le fichier d'identifiants Git peut divulguer des jetons d'accès",
"securityBlacklist.historyFiles": "Lire les fichiers d'historique peut exposer des commandes sensibles et des identifiants",
"securityBlacklist.kernelParams": "Modifier les paramètres du noyau sans compréhension peut faire planter le système",
"securityBlacklist.kubeConfig": "Lire la configuration Kubernetes peut exposer les identifiants du cluster",
"securityBlacklist.npmrc": "Lire le fichier de jeton npm peut exposer les identifiants du registre de paquets",
"securityBlacklist.removeSystemPackages": "Supprimer des paquets système essentiels peut rendre le système inutilisable",
"securityBlacklist.rmForceRecursive": "La suppression récursive forcée sans cible spécifique est trop dangereuse",
"securityBlacklist.rmHomeDir": "La suppression récursive du répertoire personnel est extrêmement dangereuse",
"securityBlacklist.rmRootDir": "La suppression récursive du répertoire racine détruira le système",
"securityBlacklist.sshConfig": "Modifier la configuration SSH peut vous empêcher d'accéder au système",
"securityBlacklist.sshPrivateKeys": "Lire les clés privées SSH peut compromettre la sécurité du système",
"securityBlacklist.sudoers": "Modifier le fichier sudoers sans validation appropriée est dangereux",
"securityBlacklist.suidShells": "Attribuer le SUID aux shells ou interpréteurs est un risque de sécurité",
"updateArgs.duplicateKeyError": "La clé du champ doit être unique",
"updateArgs.form.add": "Ajouter un élément",
"updateArgs.form.key": "Clé du champ",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "Copia di {{title}}",
"emptyAgent": "Nessun Agente ancora. Inizia con il tuo primo Agente—costruisci il tuo sistema nel tempo.",
"emptyAgentAction": "Crea Agente",
"extendParams.disableContextCaching.desc": "Riduce fino al 90% il costo di generazione di una singola conversazione e aumenta la velocità fino a 4 volte. L'attivazione disabilita automaticamente il limite sul numero di messaggi storici. <1>Scopri di più</1>",
"extendParams.disableContextCaching.desc": "Riduci fino al 90% il costo di generazione di una singola conversazione e ottieni una velocità fino a 4 volte superiore. <1>Scopri di più</1>",
"extendParams.disableContextCaching.title": "Abilita Cache del Contesto",
"extendParams.effort.desc": "Controlla quanti token utilizza Claude nelle risposte tramite il parametro di impegno.",
"extendParams.effort.title": "Impegno",
"extendParams.enableAdaptiveThinking.desc": "Consenti a Claude di decidere dinamicamente quando e quanto riflettere con la modalità di pensiero adattivo.",
"extendParams.enableAdaptiveThinking.title": "Abilita Pensiero Adattivo",
"extendParams.enableReasoning.desc": "Basato sul limite del meccanismo di pensiero Claude, l'attivazione disabilita automaticamente il limite sul numero di messaggi storici. <1>Scopri di più</1>",
"extendParams.enableReasoning.desc": "Basato sul limite del meccanismo di pensiero di Claude. <1>Scopri di più</1>",
"extendParams.enableReasoning.title": "Abilita Pensiero Profondo",
"extendParams.imageAspectRatio.title": "Proporzioni Immagine",
"extendParams.imageResolution.title": "Risoluzione Immagine",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Elimina e rigenera",
"messageAction.deleteDisabledByThreads": "Questo messaggio ha un sottotema e non può essere eliminato",
"messageAction.expand": "Espandi messaggio",
"messageAction.reaction": "Aggiungi reazione",
"messageAction.regenerate": "Rigenera",
"messages.dm.sentTo": "Visibile solo a {{name}}",
"messages.dm.title": "Messaggio privato",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet eccelle nella programmazione, nella scrittura e nel ragionamento complesso.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet con capacità di pensiero esteso per compiti di ragionamento complesso.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet è una versione aggiornata con contesto e funzionalità estese.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di ragionamento esteso.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 è un modello veloce ed efficiente per una varietà di compiti.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti estesi passo dopo passo con processo visibile.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente mai realizzato da Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 è la generazione più recente con prestazioni migliorate in tutti i compiti.",
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
"codegemma.description": "CodeGemma è un modello leggero per compiti di programmazione vari, che consente iterazioni rapide e facile integrazione.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Un modello di embedding testuale focalizzato sull'inglese, ottimizzato per compiti in lingua inglese e codice.",
"google/text-multilingual-embedding-002.description": "Un modello di embedding testuale multilingue ottimizzato per compiti cross-lingua in molte lingue.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo per generazione e comprensione del testo; attualmente punta a gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo è un modello veloce ed efficiente per una vasta gamma di compiti.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo per generazione e comprensione del testo; attualmente punta a gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo per compiti di generazione e comprensione del testo, ottimizzato per seguire istruzioni.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo per generazione e comprensione del testo; attualmente punta a gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "Il più recente GPT-4 Turbo aggiunge la visione. Le richieste visive supportano la modalità JSON e le chiamate di funzione. È un modello multimodale conveniente che bilancia accuratezza ed efficienza per applicazioni in tempo reale.",
"gpt-4-32k-0613.description": "GPT-4 offre una finestra contestuale più ampia per gestire input lunghi in scenari che richiedono integrazione informativa ampia e analisi dati.",
"gpt-4-32k.description": "GPT-4 offre una finestra contestuale più ampia per gestire input lunghi in scenari che richiedono integrazione informativa ampia e analisi dati.",
"gpt-4-o-preview.description": "GPT-4o è il modello multimodale più avanzato, in grado di gestire input testuali e visivi.",
"gpt-4-turbo-2024-04-09.description": "Il più recente GPT-4 Turbo aggiunge la visione. Le richieste visive supportano la modalità JSON e le chiamate di funzione. È un modello multimodale conveniente che bilancia accuratezza ed efficienza per applicazioni in tempo reale.",
"gpt-4-turbo-preview.description": "Il più recente GPT-4 Turbo aggiunge la visione. Le richieste visive supportano la modalità JSON e le chiamate di funzione. È un modello multimodale conveniente che bilancia accuratezza ed efficienza per applicazioni in tempo reale.",
"gpt-4-turbo.description": "Il più recente GPT-4 Turbo aggiunge la visione. Le richieste visive supportano la modalità JSON e le chiamate di funzione. È un modello multimodale conveniente che bilancia accuratezza ed efficienza per applicazioni in tempo reale.",
"gpt-4-vision-preview.description": "Anteprima di GPT-4 Vision, progettato per compiti di analisi e elaborazione immagini.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 è il modello di punta per compiti complessi, ideale per la risoluzione di problemi trasversali.",
"gpt-4.1-mini.description": "GPT-4.1 mini bilancia intelligenza, velocità e costo, rendendolo adatto a molti casi d'uso.",
"gpt-4.1-nano.description": "GPT-4.1 nano è il modello GPT-4.1 più veloce ed economico.",
"gpt-4.1.description": "GPT-4.1 è il nostro modello di punta per compiti complessi e risoluzione di problemi cross-domain.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale. Combina una solida comprensione e generazione del linguaggio per casi duso su larga scala come lassistenza clienti, listruzione e il supporto tecnico.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che unisce una forte capacità di comprensione e generazione per casi duso su larga scala come lassistenza clienti, listruzione e il supporto tecnico.",
"gpt-4o-audio-preview.description": "Modello GPT-4o Audio Preview con input e output audio.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini è una soluzione economica per una vasta gamma di compiti su testo e immagini.",
"gpt-4o-mini-audio-preview.description": "Modello audio GPT-4o mini con input e output audio.",
"gpt-4o-mini-realtime-preview.description": "Variante in tempo reale di GPT-4o-mini con input/output audio e testuale in tempo reale.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview è addestrato per comprendere ed eseguire query di ricerca web tramite lAPI Chat Completions. La ricerca web è fatturata per ogni chiamata allo strumento, oltre ai costi dei token.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "Variante migliorata e ad alte prestazioni del modello ada di embedding di OpenAI.",
"openai/text-embedding-ada-002.description": "Modello legacy di embedding testuale di OpenAI.",
"openrouter/auto.description": "In base alla lunghezza del contesto, all'argomento e alla complessità, la tua richiesta viene instradata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderato) o GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini è un modello in anteprima ottimizzato per compiti legati al codice.",
"oswe-vscode-secondary.description": "Raptor mini è un modello in anteprima ottimizzato per compiti legati al codice.",
"perplexity/sonar-pro.description": "Il prodotto di punta di Perplexity con ancoraggio alla ricerca, supporta query avanzate e follow-up.",
"perplexity/sonar-reasoning-pro.description": "Un modello avanzato focalizzato sul ragionamento che produce catene di pensiero (CoT) con ricerca migliorata, incluse più query per richiesta.",
"perplexity/sonar-reasoning.description": "Un modello focalizzato sul ragionamento che produce catene di pensiero (CoT) con spiegazioni dettagliate basate sulla ricerca.",
@ -1155,6 +1166,32 @@
"step-2x-large.description": "Modello di nuova generazione StepFun focalizzato sulla generazione di immagini, produce immagini di alta qualità da prompt testuali. Offre texture più realistiche e una resa testuale cinese/inglese più forte.",
"step-3.description": "Questo modello ha una forte percezione visiva e capacità di ragionamento complesso, gestendo con precisione la comprensione della conoscenza cross-domain, lanalisi matematica-visiva e una vasta gamma di compiti visivi quotidiani.",
"step-r1-v-mini.description": "Modello di ragionamento con forte comprensione delle immagini, in grado di elaborare immagini e testo e generare testo dopo un ragionamento profondo. Eccelle nel ragionamento visivo e offre prestazioni di alto livello in matematica, programmazione e ragionamento testuale, con una finestra di contesto da 100K.",
"stepfun-ai/step3.description": "Step3 è un modello all'avanguardia per il ragionamento multimodale di StepFun, basato su un'architettura MoE con 321 miliardi di parametri totali e 38 miliardi attivi. Il suo design end-to-end riduce i costi di decodifica offrendo al contempo un ragionamento visivo-linguistico di alto livello. Grazie al design MFA e AFD, mantiene l'efficienza sia su acceleratori di fascia alta che su quelli economici. Il pretraining utilizza oltre 20T di token testuali e 4T di token immagine-testo in molte lingue. Raggiunge prestazioni di punta tra i modelli open-source in matematica, codice e benchmark multimodali.",
"taichu_llm.description": "Addestrato su una grande quantità di dati di alta qualità, con una comprensione del testo più forte, creazione di contenuti e QA conversazionale.",
"taichu_o1.description": "taichu_o1 è un modello di ragionamento di nuova generazione che utilizza interazione multimodale e apprendimento per rinforzo per ottenere un pensiero simile a quello umano, supporta la simulazione di decisioni complesse ed espone i percorsi di ragionamento mantenendo un'elevata accuratezza, ideale per analisi strategiche e pensiero profondo.",
"taichu_vl.description": "Combina comprensione delle immagini, trasferimento di conoscenza e attribuzione logica, eccellendo nel QA immagine-testo.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utilizza 80 miliardi di parametri totali con 13 miliardi attivi per eguagliare modelli più grandi. Supporta ragionamento ibrido veloce/lento, comprensione stabile di testi lunghi e capacità avanzate di agenti su BFCL-v3 e τ-Bench. I formati GQA e multi-quant consentono un'inferenza efficiente.",
"tencent/Hunyuan-MT-7B.description": "Il modello di traduzione Hunyuan include Hunyuan-MT-7B e l'ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B è un modello di traduzione leggero da 7B che supporta 33 lingue più 5 lingue minoritarie cinesi. Al WMT25 ha ottenuto 30 primi posti su 31 coppie linguistiche. Tencent Hunyuan utilizza un'intera pipeline di addestramento dal pretraining al SFT fino al RL per la traduzione e l'ensemble RL, raggiungendo prestazioni di punta nella sua categoria con implementazione efficiente e semplice.",
"text-embedding-3-large.description": "Il modello di embedding più potente per compiti in inglese e in altre lingue.",
"text-embedding-3-small-inference.description": "Embedding V3 small (Inference), modello per embedding testuali.",
"text-embedding-3-small.description": "Un modello di embedding di nuova generazione efficiente ed economico per scenari di recupero e RAG.",
"text-embedding-ada-002.description": "Embedding V2 Ada, modello per embedding testuali.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 è un modello bilingue (cinese/inglese) da 32B a pesi aperti ottimizzato per generazione di codice, chiamate di funzione e compiti per agenti. È preaddestrato su 15T di dati di alta qualità e ad alto contenuto di ragionamento e ulteriormente raffinato con allineamento alle preferenze umane, campionamento per rifiuto e RL. Eccelle nel ragionamento complesso, generazione di artefatti e output strutturati, raggiungendo prestazioni simili a GPT-4o e DeepSeek-V3-0324 su più benchmark.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 è un modello bilingue (cinese/inglese) da 32B a pesi aperti ottimizzato per generazione di codice, chiamate di funzione e compiti per agenti. È preaddestrato su 15T di dati di alta qualità e ad alto contenuto di ragionamento e ulteriormente raffinato con allineamento alle preferenze umane, campionamento per rifiuto e RL. Eccelle nel ragionamento complesso, generazione di artefatti e output strutturati, raggiungendo prestazioni simili a GPT-4o e DeepSeek-V3-0324 su più benchmark.",
"thudm/glm-4-9b-chat.description": "La versione open-source del più recente modello di pretraining GLM-4 di Zhipu AI.",
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 è una variante avanzata di ragionamento del GLM-4-32B, progettata per la risoluzione di problemi complessi in matematica, logica e codice. Applica RL esteso (preferenze specifiche per compito e generali) per migliorare i compiti multi-step complessi. Rispetto a GLM-4-32B, Z1 migliora significativamente il ragionamento strutturato e le capacità nei domini formali.\n\nSupporta l'imposizione di passaggi di “pensiero” tramite prompt engineering, maggiore coerenza per output lunghi, ed è ottimizzato per flussi di lavoro agent con contesto esteso (via YaRN), chiamate a strumenti JSON e campionamento fine per ragionamento stabile. Ideale per casi d'uso che richiedono derivazioni formali o multi-step accurate.",
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B è un modello da 32B per ragionamento profondo della serie GLM-4-Z1, ottimizzato per compiti complessi e aperti che richiedono pensiero prolungato. Basato su glm-4-32b-0414, aggiunge fasi RL extra e allineamento multi-stadio, introducendo una capacità di “ruminazione” che simula un'elaborazione cognitiva estesa. Include ragionamento iterativo, analisi multi-hop e flussi di lavoro con strumenti come ricerca, recupero e sintesi con consapevolezza delle citazioni.\n\nEccelle nella scrittura di ricerca, analisi comparativa e QA complesso. Supporta chiamate di funzione per primitive di ricerca/navigazione (`search`, `click`, `open`, `finish`) per pipeline agent. Il comportamento di ruminazione è controllato da cicli multi-turno con modellazione di ricompense basata su regole e meccanismi di decisione ritardata, testato su framework di ricerca avanzati come lo stack di allineamento interno di OpenAI. Questa variante privilegia la profondità rispetto alla velocità.",
"tngtech/deepseek-r1t-chimera:free.description": "DeepSeek-R1T-Chimera è stato creato unendo DeepSeek-R1 e DeepSeek-V3 (0324), combinando il ragionamento di R1 con l'efficienza dei token di V3. Si basa sul DeepSeek-MoE Transformer ed è ottimizzato per la generazione di testo generale.\n\nUnisce pesi preaddestrati per bilanciare ragionamento, efficienza e aderenza alle istruzioni. Rilasciato sotto licenza MIT per uso di ricerca e commerciale.",
"togethercomputer/StripedHyena-Nous-7B.description": "StripedHyena Nous (7B) offre maggiore efficienza computazionale grazie alla sua architettura e strategia.",
"tts-1-hd.description": "Il più recente modello text-to-speech ottimizzato per la qualità.",
"tts-1.description": "Il più recente modello text-to-speech ottimizzato per la velocità in tempo reale.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) è ottimizzato per compiti di istruzione precisi con elevate prestazioni linguistiche.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet alza lo standard del settore, superando i concorrenti e Claude 3 Opus in numerose valutazioni, mantenendo velocità e costi da fascia media.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in molti benchmark di intelligenza.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e pensiero esteso.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 è il modello più intelligente mai realizzato da Anthropic.",
"v0-1.0-md.description": "v0-1.0-md è un modello legacy servito tramite l'API v0.",
"v0-1.5-lg.description": "v0-1.5-lg è adatto a compiti avanzati di pensiero e ragionamento.",
"v0-1.5-md.description": "v0-1.5-md è adatto a compiti quotidiani e alla generazione di interfacce utente.",
"vercel/v0-1.0-md.description": "Accedi ai modelli dietro v0 per generare, correggere e ottimizzare applicazioni web moderne con ragionamento specifico per framework e conoscenze aggiornate.",
@ -1197,6 +1234,7 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air è una variante leggera di GLM 4.5 per scenari sensibili ai costi, mantenendo forti capacità di ragionamento.",
"z-ai/glm-4.5.description": "GLM 4.5 è il modello di punta di Z.AI con ragionamento ibrido ottimizzato per compiti ingegneristici e contesti lunghi.",
"z-ai/glm-4.6.description": "GLM 4.6 è il modello di punta di Z.AI con contesto esteso e capacità di programmazione.",
"z-ai/glm-4.7.description": "GLM-4.7 è il più recente modello di punta di Zhipu, con capacità generali migliorate, risposte più naturali e un'esperienza di scrittura più coinvolgente.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air è un modello base per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
"zai-org/GLM-4.5.description": "GLM-4.5 è un modello base progettato per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
"zai-org/GLM-4.5V.description": "GLM-4.5V è il più recente VLM di Zhipu AI, basato sul modello testuale di punta GLM-4.5-Air (106B totali, 12B attivi) con architettura MoE per prestazioni elevate a costi ridotti. Segue il percorso GLM-4.1V-Thinking e aggiunge 3D-RoPE per migliorare il ragionamento spaziale 3D. Ottimizzato tramite pretraining, SFT e RL, gestisce immagini, video e documenti lunghi, classificandosi tra i migliori modelli open source su 41 benchmark multimodali pubblici. Una modalità Thinking consente di bilanciare velocità e profondità.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Sostituisci solo la prima occorrenza",
"localFiles.file": "File",
"localFiles.folder": "Cartella",
"localFiles.globFiles.pattern": "Modello",
"localFiles.grepContent.glob": "Filtro file",
"localFiles.grepContent.pattern": "Modello di ricerca",
"localFiles.grepContent.type": "Tipo di file",
"localFiles.moveFiles.itemsMoved": "{{count}} elemento(i) spostato(i):",
"localFiles.moveFiles.itemsMoved_one": "{{count}} elemento spostato:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} elementi spostati:",
@ -95,11 +99,17 @@
"localFiles.open": "Apri",
"localFiles.openFile": "Apri File",
"localFiles.openFolder": "Apri Cartella",
"localFiles.outOfScope.requestedPaths": "Percorsi richiesti",
"localFiles.outOfScope.warning": "Attenzione: I seguenti percorsi sono al di fuori della directory di lavoro configurata. Conferma se desideri consentire l'accesso.",
"localFiles.outOfScope.workingDirectory": "Directory di lavoro",
"localFiles.read.more": "Visualizza Altro",
"localFiles.readFile": "Leggi File",
"localFiles.readFile.lineRange": "Righe {{start}} - {{end}}",
"localFiles.readFileError": "Impossibile leggere il file, controlla che il percorso sia corretto",
"localFiles.readFiles": "Leggi File",
"localFiles.readFilesError": "Impossibile leggere i file, controlla che il percorso sia corretto",
"localFiles.searchFiles.keywords": "Parole chiave",
"localFiles.securityBlacklist.warning": "Avviso di sicurezza: Questa operazione è stata segnalata dalle regole di sicurezza e richiede la tua approvazione esplicita.",
"localFiles.writeFile.characters": "caratteri",
"localFiles.writeFile.preview": "Anteprima Contenuto",
"localFiles.writeFile.truncated": "troncato",
@ -136,6 +146,31 @@
"search.summary": "Riepilogo",
"search.summaryTooltip": "Riepiloga il contenuto attuale",
"search.viewMoreResults": "Visualizza altri {{results}} risultati",
"securityBlacklist.awsCredentials": "Accedere alle credenziali AWS può compromettere le chiavi di accesso al cloud",
"securityBlacklist.browserCredentials": "Accedere all'archivio credenziali del browser può esporre le password",
"securityBlacklist.chownSystemDirs": "Cambiare la proprietà delle directory di sistema è pericoloso",
"securityBlacklist.ddDiskWrite": "Scrivere dati casuali sui dispositivi di memoria può distruggere i dati",
"securityBlacklist.directMemoryAccess": "L'accesso diretto alla memoria è estremamente pericoloso",
"securityBlacklist.disableFirewall": "Disattivare il firewall espone il sistema ad attacchi",
"securityBlacklist.dockerConfig": "Leggere la configurazione di Docker può esporre le credenziali del registro",
"securityBlacklist.envFiles": "Leggere i file .env può rivelare credenziali sensibili e chiavi API",
"securityBlacklist.etcPasswd": "Modificare /etc/passwd potrebbe impedirti l'accesso al sistema",
"securityBlacklist.forkBomb": "Una fork bomb può mandare in crash il sistema",
"securityBlacklist.formatPartition": "Formattare le partizioni di sistema distruggerà i dati",
"securityBlacklist.gcpCredentials": "Leggere le credenziali GCP può compromettere le chiavi degli account di servizio cloud",
"securityBlacklist.gitCredentials": "Leggere il file delle credenziali Git può esporre i token di accesso",
"securityBlacklist.historyFiles": "Leggere i file di cronologia può rivelare comandi sensibili e credenziali",
"securityBlacklist.kernelParams": "Modificare i parametri del kernel senza conoscenze adeguate può mandare in crash il sistema",
"securityBlacklist.kubeConfig": "Leggere la configurazione di Kubernetes può esporre le credenziali del cluster",
"securityBlacklist.npmrc": "Leggere il file dei token npm può esporre le credenziali del registro pacchetti",
"securityBlacklist.removeSystemPackages": "Rimuovere pacchetti di sistema essenziali può compromettere il funzionamento del sistema",
"securityBlacklist.rmForceRecursive": "La cancellazione ricorsiva forzata senza un obiettivo specifico è troppo pericolosa",
"securityBlacklist.rmHomeDir": "La cancellazione ricorsiva della directory home è estremamente pericolosa",
"securityBlacklist.rmRootDir": "La cancellazione ricorsiva della directory root distruggerà il sistema",
"securityBlacklist.sshConfig": "Modificare la configurazione SSH potrebbe impedirti l'accesso",
"securityBlacklist.sshPrivateKeys": "Leggere le chiavi private SSH può compromettere la sicurezza del sistema",
"securityBlacklist.sudoers": "Modificare il file sudoers senza una corretta validazione è pericoloso",
"securityBlacklist.suidShells": "Impostare SUID su shell o interpreti rappresenta un rischio per la sicurezza",
"updateArgs.duplicateKeyError": "La chiave del campo deve essere univoca",
"updateArgs.form.add": "Aggiungi un elemento",
"updateArgs.form.key": "Chiave del Campo",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} のコピー",
"emptyAgent": "まだアシスタントがいません。最初のアシスタントから始めて、アシスタントシステムを徐々に構築しましょう",
"emptyAgentAction": "アシスタントを作成",
"extendParams.disableContextCaching.desc": "1 回の会話生成にかかるコストを最大 90% 削減し、最大 4 倍の速度を実現します。有効にすると、過去のメッセージ数の制限が自動的に解除されます。<1>詳細はこちら</1>",
"extendParams.disableContextCaching.desc": "1 回の会話生成コストを最大 90% 削減し、最大 4 倍の速度を実現します。<1>詳細はこちら</1>",
"extendParams.disableContextCaching.title": "コンテキストキャッシュを有効にする",
"extendParams.effort.desc": "effort パラメータを使用して、Claude が応答時に使用するトークン数を制御します。",
"extendParams.effort.title": "努力度",
"extendParams.enableAdaptiveThinking.desc": "適応的思考モードを有効にすると、Claude がいつどの程度思考するかを動的に判断します。",
"extendParams.enableAdaptiveThinking.title": "適応的思考を有効にする",
"extendParams.enableReasoning.desc": "Claude の思考メカニズムの制限に基づき、有効にすると過去のメッセージ数の制限が自動的に解除されます。<1>詳細はこちら</1>",
"extendParams.enableReasoning.desc": "Claude の思考メカニズムの制限に基づいています。<1>詳細はこちら</1>",
"extendParams.enableReasoning.title": "深い思考を有効にする",
"extendParams.imageAspectRatio.title": "画像のアスペクト比",
"extendParams.imageResolution.title": "画像の解像度",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "削除して再生成",
"messageAction.deleteDisabledByThreads": "このメッセージにはサブトピックがあるため、削除できません",
"messageAction.expand": "メッセージを展開",
"messageAction.reaction": "リアクションを追加",
"messageAction.regenerate": "再生成",
"messages.dm.sentTo": "{{name}} のみが閲覧可能",
"messages.dm.title": "ダイレクトメッセージ",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet は、コーディング、ライティング、複雑な推論に優れたモデルです。",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet は、複雑な推論タスクに対応するために思考能力を拡張したモデルです。",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet は、コンテキストと機能が強化されたアップグレード版です。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も高性能な Haiku モデルで、驚異的なスピードと高度な推論能力を備えています。",
"claude-haiku-4.5.description": "Claude Haiku 4.5 は、さまざまなタスクに対応する高速かつ効率的なモデルです。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 は、Anthropic による最新かつ最も高性能なモデルで、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルで、極めて複雑なタスクにおいて優れたパフォーマンス、知性、流暢さ、理解力を示します。",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、瞬時の応答や段階的な思考プロセスを可視化しながら生成できます。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 は、これまでで最も知的な Anthropic モデルです。",
"claude-sonnet-4.description": "Claude Sonnet 4 は、あらゆるタスクにおいて性能が向上した最新世代のモデルです。",
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
"codegemma.description": "CodeGemmaは、さまざまなプログラミングタスクに対応する軽量モデルで、迅速な反復と統合を可能にします。",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "コードおよび英語タスクに最適化された英語中心のテキスト埋め込みモデルです。",
"google/text-multilingual-embedding-002.description": "多言語間タスクに最適化された多言語テキスト埋め込みモデルです。",
"gpt-3.5-turbo-0125.description": "GPT-3.5 Turbo はテキスト生成と理解のためのモデルで、現在は gpt-3.5-turbo-0125 を指しています。",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo は、さまざまなタスクに対応する高速かつ効率的なモデルです。",
"gpt-3.5-turbo-1106.description": "GPT-3.5 Turbo はテキスト生成と理解のためのモデルで、現在は gpt-3.5-turbo-0125 を指しています。",
"gpt-3.5-turbo-instruct.description": "GPT-3.5 Turbo は、指示に従うタスクに最適化されたテキスト生成・理解モデルです。",
"gpt-3.5-turbo.description": "GPT-3.5 Turbo はテキスト生成と理解のためのモデルで、現在は gpt-3.5-turbo-0125 を指しています。",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
"gpt-4-32k-0613.description": "GPT-4 はより大きなコンテキストウィンドウを提供し、長文入力に対応。広範な情報統合やデータ分析に適しています。",
"gpt-4-32k.description": "GPT-4 はより大きなコンテキストウィンドウを提供し、長文入力に対応。広範な情報統合やデータ分析に適しています。",
"gpt-4-o-preview.description": "GPT-4o は、テキストと画像の入力に対応する最先端のマルチモーダルモデルです。",
"gpt-4-turbo-2024-04-09.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
"gpt-4-turbo-preview.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
"gpt-4-turbo.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
"gpt-4-vision-preview.description": "GPT-4 Vision プレビューは、画像解析および処理タスク向けに設計されたモデルです。",
"gpt-4.1-2025-04-14.description": "GPT-4.1 は、複雑なタスクに最適なフラッグシップモデルで、分野横断的な問題解決に適しています。",
"gpt-4.1-mini.description": "GPT-4.1 mini は知能、速度、コストのバランスが取れたモデルで、多様なユースケースに適しています。",
"gpt-4.1-nano.description": "GPT-4.1 nano は GPT-4.1 モデルの中で最も高速かつコスト効率の高いモデルです。",
"gpt-4.1.description": "GPT-4.1 は複雑なタスクや分野横断的な問題解決に対応するフラッグシップモデルです。",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o はリアルタイムで更新される動的モデルで、カスタマーサポート、教育、技術支援などの大規模ユースケースにおいて高い言語理解と生成能力を発揮します。",
"gpt-4o-2024-11-20.description": "ChatGPT-4o はリアルタイムで更新される動的モデルで、カスタマーサポート、教育、技術支援などの大規模ユースケースにおいて高い理解力と生成力を発揮します。",
"gpt-4o-audio-preview.description": "GPT-4o Audio プレビューは音声入力と出力に対応したモデルです。",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini は、テキストと画像の幅広いタスクに対応するコスト効率の高いソリューションです。",
"gpt-4o-mini-audio-preview.description": "GPT-4o mini Audio は音声入力と出力に対応した小型モデルです。",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini リアルタイムバリアントは、音声とテキストのリアルタイム入出力に対応しています。",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview は、Chat Completions API を通じてウェブ検索クエリの理解と実行に特化して訓練されたモデルです。ウェブ検索はツール呼び出しごとに課金され、トークンコストとは別に請求されます。",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "OpenAIの改良された高性能なada埋め込みモデルのバリアントです。",
"openai/text-embedding-ada-002.description": "OpenAIの旧世代テキスト埋め込みモデルです。",
"openrouter/auto.description": "コンテキスト長、トピック、複雑さに応じて、Llama 3 70B Instruct、Claude 3.5 Sonnet自己モデレート、またはGPT-4oにルーティングされます。",
"oswe-vscode-prime.description": "Raptor mini は、コード関連のタスクに最適化されたプレビューモデルです。",
"oswe-vscode-secondary.description": "Raptor mini は、コード関連のタスクに最適化されたプレビューモデルです。",
"perplexity/sonar-pro.description": "Perplexityの主力製品で、検索に基づいた高度なクエリやフォローアップに対応します。",
"perplexity/sonar-reasoning-pro.description": "強化された検索機能を備えた高度な推論特化モデル。1リクエストあたり複数の検索クエリを含むCoT思考の連鎖を出力します。",
"perplexity/sonar-reasoning.description": "詳細な検索に基づく説明を伴う思考の連鎖CoTを出力する推論特化モデルです。",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct は、総パラメータ数 80B、アクティブパラメータ数 13B で大型モデルに匹敵する性能を発揮します。高速・低速のハイブリッド推論、安定した長文理解、BFCL-v3 や τ-Bench における先進的なエージェント能力を備えています。GQA とマルチ量子化形式により効率的な推論が可能です。",
"tencent/Hunyuan-MT-7B.description": "Hunyuan 翻訳モデルには Hunyuan-MT-7B とアンサンブルモデル Hunyuan-MT-Chimera が含まれます。Hunyuan-MT-7B は 7B の軽量翻訳モデルで、33 言語と中国の少数民族言語 5 言語に対応します。WMT25 では 31 言語ペア中 30 件で 1 位を獲得しました。Tencent Hunyuan は、事前学習から SFT、翻訳 RL、アンサンブル RL までの完全なトレーニングパイプラインを採用し、同規模で最高水準の性能と効率的なデプロイを実現しています。",
"text-embedding-3-large.description": "英語および非英語タスクにおいて最も高性能な埋め込みモデルです。",
"text-embedding-3-small-inference.description": "テキスト埋め込み用の Embedding V3 small推論モデルです。",
"text-embedding-3-small.description": "検索やRAGシナリオ向けに効率的かつコストパフォーマンスに優れた次世代埋め込みモデルです。",
"text-embedding-ada-002.description": "テキスト埋め込み用の Embedding V2 Ada モデルです。",
"thudm/glm-4-32b.description": "GLM-4-32B-0414は、コード生成、関数呼び出し、エージェントタスクに最適化された32Bの中英バイリンガルオープンウェイトモデルです。15Tの高品質かつ推論重視のデータで事前学習され、人間の好みに基づく調整、リジェクションサンプリング、強化学習RLによりさらに洗練されています。複雑な推論、成果物生成、構造化出力に優れ、複数のベンチマークでGPT-4oやDeepSeek-V3-0324と同等の性能を発揮します。",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414は、コード生成、関数呼び出し、エージェントタスクに最適化された32Bの中英バイリンガルオープンウェイトモデルです。15Tの高品質かつ推論重視のデータで事前学習され、人間の好みに基づく調整、リジェクションサンプリング、強化学習RLによりさらに洗練されています。複雑な推論、成果物生成、構造化出力に優れ、複数のベンチマークでGPT-4oやDeepSeek-V3-0324と同等の性能を発揮します。",
"thudm/glm-4-9b-chat.description": "Zhipu AIによる最新のGLM-4事前学習モデルのオープンソース版です。",

View file

@ -206,5 +206,37 @@
"write.23.prompt": "報道の基準に従った、明確で客観的なニュース記事を書いてください。誰が、何を、いつ、どこで、なぜ、どのようにを網羅し、逆三角形構造で構成し、関連する引用を含め、中立性を保ち、事実確認を徹底してください。",
"write.23.title": "明確なニュース記事を書く",
"write.24.prompt": "会話を生き生きと伝える洞察に満ちたインタビュー記事を書いてください。考え抜かれた質問を用意し、対象者の個性や声を捉え、引用を効果的に織り交ぜ、なぜこの人物の物語が重要なのかを読者に伝えてください。",
"write.24.title": "洞察に満ちたインタビュー記事を書く"
"write.24.title": "洞察に満ちたインタビュー記事を書く",
"write.25.prompt": "投資家を納得させたり、事業の指針となる包括的なビジネスプランを作成してください。エグゼクティブサマリー、市場分析、競合環境、ビジネスモデル、マーケティング戦略、財務予測、チームの概要、資金調達の必要性と資金の使途を明確に含めてください。",
"write.25.title": "包括的なビジネスプランを作成する",
"write.26.prompt": "主要な洞察を捉えた、詳細で有用な読書ノートまたは書籍の要約を書いてください。主張とその根拠、印象的な引用、個人的な考察、実践的な応用、さらなる探究のための問いを含めてください。",
"write.26.title": "有用な読書ノートを書く",
"write.27.prompt": "あるトピックに関する徹底的な調査レポートまたは分析を作成してください。明確な調査手法、整理された調査結果、データ可視化の説明、異なる視点のバランスの取れた分析、証拠に基づいた実行可能な結論を含めてください。",
"write.27.title": "徹底的な調査レポートを書く",
"write.28.prompt": "機会と脅威を特定する市場分析を作成してください。業界の概要、ターゲット顧客の分析、競合のマッピング、トレンドの特定、SWOT分析、調査結果に基づく戦略的提言を含めてください。",
"write.28.title": "詳細な市場分析を作成する",
"write.29.prompt": "決定事項と次のステップを明確に記録した、実用的な会議議事録を作成してください。出席者、議題、主な議論内容、決定事項、担当者と期限付きのアクションアイテム、フォローアップ項目を含めてください。",
"write.29.title": "明確な会議議事録を書く",
"write.30.prompt": "成果と学びを振り返る年末のまとめや年間レビューを作成してください。主要な成果とその指標、克服した課題、得られた教訓、目標の評価、来年の目標を含めてください。",
"write.30.title": "年末のまとめを書く",
"write.31.prompt": "複雑なプログラミング概念をわかりやすく解説する、包括的な技術ブログ記事を作成してください。読者を引き込む明確な導入、基礎から応用まで段階的な説明、詳細なコメント付きの実用的なコード例、図解の説明、実際のユースケース、避けるべき落とし穴、さらなる学習のための次のステップを含めてください。",
"write.31.title": "魅力的な技術ブログ記事を書く",
"write.32.prompt": "オープンソースプロジェクト向けの、プロフェッショナルで完成度の高いREADME.mdを作成してください。バッジ付きの目を引くプロジェクト説明、各プラットフォーム向けのインストール手順、基本的な使用例付きのクイックスタートガイド、すべてのオプションを網羅したAPIドキュメント、コードスタイル要件を含む貢献ガイドライン、ライセンス情報、謝辞セクションを含めてください。",
"write.32.title": "プロフェッショナルなREADMEファイルを作成する",
"write.33.prompt": "開発者が実際に読みたくなるような、詳細なAPIドキュメントを作成してください。APIの目的と機能の概要、認証と認可の要件と例、エンドポイントのリファレンスリクエストレスポンスのスキーマ付き、複数のプログラミング言語でのインタラクティブなコード例、エラーコードの詳細とトラブルシューティング、レート制限の詳細、バージョン管理ポリシーを含めてください。",
"write.33.title": "詳細なAPIドキュメントを書く",
"write.34.prompt": "技術者と非技術者の両方にシステムアーキテクチャを明確に伝える技術設計ドキュメントを作成してください。課題と目標、コンポーネント図付きの高レベルなアーキテクチャ概要、詳細なデータフローの説明、技術選定とその理由、スケーラビリティとパフォーマンスの考慮点、セキュリティ対策、テスト戦略、リスク軽減を含む展開計画を含めてください。",
"write.34.title": "技術設計ドキュメントを書く",
"write.35.prompt": "ユーザーがソフトウェアで目的を達成できるようにする、ユーザーフレンドリーなガイドを作成してください。前提条件付きのはじめに、スクリーンショットの説明付きのステップバイステップ手順、便利なヒントやショートカット、よくある質問、一般的な問題のトラブルシューティング、上級者向けの追加リソースへのリンクを含めてください。",
"write.35.title": "ユーザーフレンドリーなガイドを作成する",
"write.36.prompt": "ユーザーにアップデート内容をわかりやすく伝え、興味を引くプロフェッショナルなリリースノートを作成してください。リリースのハイライト概要、新機能の詳細と使用例、改善点と最適化、修正されたバグとその参照、互換性のない変更と移行手順、非推奨の通知、貢献者への謝辞を含めてください。",
"write.36.title": "プロフェッショナルなリリースノートを書く",
"write.37.prompt": "新しいチームメンバーが迅速に戦力化できるようにする、包括的なオンボーディングガイドを作成してください。チーム紹介とコミュニケーション手段、環境構築手順、主要ディレクトリ付きのコードベース構成概要、標準と規約、一般的なワークフロー、デバッグのヒント、有用なリソース一覧、最初の1週間の推奨タスクを含めてください。",
"write.37.title": "包括的なオンボーディングガイドを作成する",
"write.38.prompt": "解決すべき課題とそのビジネスインパクトを明確に示し、技術的アプローチを含むよく練られた解決策、現実的なマイルストーンとスケジュール、必要なリソースと予算、測定可能な成功指標とKPI、リスクとその軽減策を含む、説得力のあるプロジェクト提案書を作成してください。",
"write.38.title": "説得力のあるプロジェクト提案書を作成する",
"write.39.prompt": "構築すべき内容を明確に定義したプロダクト要件ドキュメントPRDを作成してください。課題とユーザーのニーズ、ユーザーペルソナとユースケース、受け入れ基準付きの機能要件、非機能要件パフォーマンス、セキュリティなど、ワイヤーフレーム付きのUI/UX要件、成功指標、依存関係付きのスケジュールを含めてください。",
"write.39.title": "プロダクト要件ドキュメントを書く",
"write.40.prompt": "特定の問題を解決するためのナレッジベース記事を作成してください。明確な問題の説明、前提条件と想定、スクリーンショット付きのステップバイステップの解決策、代替アプローチ(該当する場合)、一般的な問題のトラブルシューティング、関連する記事と次のステップ、フィードバック機能を含めてください。",
"write.40.title": "ナレッジベース記事を書く"
}

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "最初の一致のみ置換",
"localFiles.file": "ファイル",
"localFiles.folder": "フォルダー",
"localFiles.globFiles.pattern": "パターン",
"localFiles.grepContent.glob": "ファイルフィルター",
"localFiles.grepContent.pattern": "検索パターン",
"localFiles.grepContent.type": "ファイルタイプ",
"localFiles.moveFiles.itemsMoved": "{{count}} 件のアイテムを移動しました:",
"localFiles.moveFiles.itemsMoved_one": "{{count}} 件のアイテムを移動しました:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} 件のアイテムを移動しました:",
@ -95,11 +99,17 @@
"localFiles.open": "開く",
"localFiles.openFile": "ファイルを開く",
"localFiles.openFolder": "フォルダーを開く",
"localFiles.outOfScope.requestedPaths": "リクエストされたパス",
"localFiles.outOfScope.warning": "警告:以下のパスは設定された作業ディレクトリの外にあります。アクセスを許可するかご確認ください。",
"localFiles.outOfScope.workingDirectory": "作業ディレクトリ",
"localFiles.read.more": "もっと見る",
"localFiles.readFile": "ファイルを読み込む",
"localFiles.readFile.lineRange": "行 {{start}} - {{end}}",
"localFiles.readFileError": "ファイルの読み込みに失敗しました。ファイルパスが正しいか確認してください。",
"localFiles.readFiles": "ファイルを読み込む",
"localFiles.readFilesError": "ファイルの読み込みに失敗しました。ファイルパスが正しいか確認してください。",
"localFiles.searchFiles.keywords": "キーワード",
"localFiles.securityBlacklist.warning": "セキュリティ警告:この操作はセキュリティルールにより警告されており、明示的な承認が必要です。",
"localFiles.writeFile.characters": "文字数",
"localFiles.writeFile.preview": "内容プレビュー",
"localFiles.writeFile.truncated": "切り捨てられました",
@ -136,6 +146,31 @@
"search.summary": "要約",
"search.summaryTooltip": "現在の内容を要約",
"search.viewMoreResults": "さらに {{results}} 件の結果を見る",
"securityBlacklist.awsCredentials": "AWS認証情報へのアクセスはクラウドアクセスキーの漏洩につながる可能性があります",
"securityBlacklist.browserCredentials": "ブラウザの認証情報ストレージへのアクセスはパスワード漏洩の恐れがあります",
"securityBlacklist.chownSystemDirs": "システムディレクトリの所有権変更は危険です",
"securityBlacklist.ddDiskWrite": "ディスクデバイスへのランダムデータ書き込みはデータを破壊する可能性があります",
"securityBlacklist.directMemoryAccess": "メモリへの直接アクセスは非常に危険です",
"securityBlacklist.disableFirewall": "ファイアウォールを無効にするとシステムが攻撃にさらされます",
"securityBlacklist.dockerConfig": "Docker設定ファイルの読み取りはレジストリ認証情報の漏洩につながる可能性があります",
"securityBlacklist.envFiles": ".envファイルの読み取りは機密認証情報やAPIキーの漏洩につながる可能性があります",
"securityBlacklist.etcPasswd": "/etc/passwdの変更はシステムへのアクセスを失う可能性があります",
"securityBlacklist.forkBomb": "フォークボムはシステムをクラッシュさせる可能性があります",
"securityBlacklist.formatPartition": "システムパーティションのフォーマットはデータを破壊します",
"securityBlacklist.gcpCredentials": "GCP認証情報の読み取りはクラウドサービスアカウントキーの漏洩につながる可能性があります",
"securityBlacklist.gitCredentials": "Git認証情報ファイルの読み取りはアクセストークンの漏洩につながる可能性があります",
"securityBlacklist.historyFiles": "履歴ファイルの読み取りは機密コマンドや認証情報の漏洩につながる可能性があります",
"securityBlacklist.kernelParams": "カーネルパラメータを理解せずに変更するとシステムがクラッシュする可能性があります",
"securityBlacklist.kubeConfig": "Kubernetes設定ファイルの読み取りはクラスタ認証情報の漏洩につながる可能性があります",
"securityBlacklist.npmrc": "npmトークンファイルの読み取りはパッケージレジストリ認証情報の漏洩につながる可能性があります",
"securityBlacklist.removeSystemPackages": "重要なシステムパッケージの削除はシステムを破損させる可能性があります",
"securityBlacklist.rmForceRecursive": "特定の対象なしに強制的に再帰削除を行うのは非常に危険です",
"securityBlacklist.rmHomeDir": "ホームディレクトリの再帰削除は極めて危険です",
"securityBlacklist.rmRootDir": "ルートディレクトリの再帰削除はシステムを破壊します",
"securityBlacklist.sshConfig": "SSH設定の変更はシステムへのアクセスを失う可能性があります",
"securityBlacklist.sshPrivateKeys": "SSH秘密鍵の読み取りはシステムセキュリティを危険にさらします",
"securityBlacklist.sudoers": "sudoersファイルを適切な検証なしに変更するのは危険です",
"securityBlacklist.suidShells": "シェルやインタプリタにSUIDを設定するのはセキュリティリスクです",
"updateArgs.duplicateKeyError": "フィールドキーは一意でなければなりません。",
"updateArgs.form.add": "項目を追加",
"updateArgs.form.key": "フィールドキー",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} 복사본",
"emptyAgent": "아직 도우미가 없습니다. 첫 번째 도우미부터 시작해서 도우미 시스템을 점진적으로 구축해 보세요",
"emptyAgentAction": "도우미 만들기",
"extendParams.disableContextCaching.desc": "단일 대화 생성을 위한 비용을 최대 90%까지 절감하고 최대 4배 빠른 속도를 제공합니다. 이 기능을 활성화하면 이전 메시지 수에 대한 제한이 자동으로 해제됩니다. <1>자세히 알아보기</1>",
"extendParams.disableContextCaching.desc": "단일 대화를 생성하는 비용을 최대 90%까지 절감하고 최대 4배 빠른 속도를 제공합니다. <1>자세히 알아보기</1>",
"extendParams.disableContextCaching.title": "컨텍스트 캐시 활성화",
"extendParams.effort.desc": "Effort 매개변수를 사용하여 Claude가 응답 시 사용하는 토큰 수를 제어합니다.",
"extendParams.effort.title": "노력 수준",
"extendParams.enableAdaptiveThinking.desc": "적응형 사고 모드를 통해 Claude가 언제 얼마나 사고할지 동적으로 결정하도록 합니다.",
"extendParams.enableAdaptiveThinking.title": "적응형 사고 활성화",
"extendParams.enableReasoning.desc": "Claude 사고 메커니즘의 제한에 따라, 이 기능을 활성화하면 이전 메시지 수에 대한 제한이 자동으로 해제됩니다. <1>자세히 알아보기</1>",
"extendParams.enableReasoning.desc": "Claude 사고 메커니즘의 제한을 기반으로 합니다. <1>자세히 알아보기</1>",
"extendParams.enableReasoning.title": "심층 사고 활성화",
"extendParams.imageAspectRatio.title": "이미지 가로세로 비율",
"extendParams.imageResolution.title": "이미지 해상도",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "삭제 후 재생성",
"messageAction.deleteDisabledByThreads": "이 메시지에는 하위 주제가 있어 삭제할 수 없습니다",
"messageAction.expand": "메시지 펼치기",
"messageAction.reaction": "반응 추가",
"messageAction.regenerate": "재생성",
"messages.dm.sentTo": "{{name}}만 볼 수 있습니다",
"messages.dm.title": "개인 메시지",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet은 코딩, 글쓰기, 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet은 복잡한 추론 작업을 위한 확장된 사고 기능을 갖춘 모델입니다.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet은 확장된 문맥 처리와 기능을 갖춘 업그레이드 버전입니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 똑똑한 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 자랑합니다.",
"claude-haiku-4.5.description": "Claude Haiku 4.5는 다양한 작업에 빠르고 효율적으로 대응하는 모델입니다.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 매우 복잡한 작업에서 탁월한 성능, 지능, 유창성, 이해력을 발휘합니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 보여줍니다.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답은 물론, 사용자가 과정을 확인할 수 있는 단계별 사고를 제공합니다.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 지금까지 출시된 Anthropic 모델 중 가장 지능적인 모델입니다.",
"claude-sonnet-4.description": "Claude Sonnet 4는 모든 작업에서 향상된 성능을 제공하는 최신 세대 모델입니다.",
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
"codegemma.description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 모델로, 빠른 반복과 통합을 가능하게 합니다.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "코드 및 영어 작업에 최적화된 영어 중심 텍스트 임베딩 모델입니다.",
"google/text-multilingual-embedding-002.description": "다양한 언어 간 작업에 최적화된 다국어 텍스트 임베딩 모델입니다.",
"gpt-3.5-turbo-0125.description": "텍스트 생성 및 이해를 위한 GPT 3.5 Turbo; 현재 gpt-3.5-turbo-0125를 가리킵니다.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo는 다양한 작업에 빠르고 효율적인 모델입니다.",
"gpt-3.5-turbo-1106.description": "텍스트 생성 및 이해를 위한 GPT 3.5 Turbo; 현재 gpt-3.5-turbo-0125를 가리킵니다.",
"gpt-3.5-turbo-instruct.description": "명령 수행에 최적화된 텍스트 생성 및 이해용 GPT 3.5 Turbo.",
"gpt-3.5-turbo.description": "텍스트 생성 및 이해를 위한 GPT 3.5 Turbo; 현재 gpt-3.5-turbo-0125를 가리킵니다.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
"gpt-4-32k-0613.description": "GPT-4는 더 긴 입력을 처리할 수 있는 확장된 컨텍스트 윈도우를 제공하여, 광범위한 정보 통합 및 데이터 분석에 적합합니다.",
"gpt-4-32k.description": "GPT-4는 더 긴 입력을 처리할 수 있는 확장된 컨텍스트 윈도우를 제공하여, 광범위한 정보 통합 및 데이터 분석에 적합합니다.",
"gpt-4-o-preview.description": "GPT-4o는 텍스트와 이미지 입력을 처리할 수 있는 가장 진보된 멀티모달 모델입니다.",
"gpt-4-turbo-2024-04-09.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
"gpt-4-turbo-preview.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
"gpt-4-turbo.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
"gpt-4-vision-preview.description": "이미지 분석 및 처리 작업을 위한 GPT-4 Vision 프리뷰 모델입니다.",
"gpt-4.1-2025-04-14.description": "GPT-4.1은 복잡한 작업에 적합한 대표 모델로, 다양한 분야의 문제 해결에 이상적입니다.",
"gpt-4.1-mini.description": "GPT-4.1 mini는 지능, 속도, 비용의 균형을 이루어 다양한 사용 사례에 적합합니다.",
"gpt-4.1-nano.description": "GPT-4.1 nano는 가장 빠르고 비용 효율적인 GPT-4.1 모델입니다.",
"gpt-4.1.description": "GPT-4.1은 복잡한 작업과 도메인 간 문제 해결을 위한 대표 모델입니다.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원 등 대규모 활용 사례에 적합한 강력한 언어 이해 및 생성 능력을 제공합니다.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원 등 대규모 활용 사례에 적합한 강력한 언어 이해 및 생성 능력을 제공합니다.",
"gpt-4o-audio-preview.description": "GPT-4o 오디오 프리뷰 모델은 오디오 입력 및 출력을 지원합니다.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini는 텍스트와 이미지 작업에 적합한 비용 효율적인 솔루션입니다.",
"gpt-4o-mini-audio-preview.description": "GPT-4o mini 오디오 모델은 오디오 입력 및 출력을 지원합니다.",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini 실시간 변형 모델로, 오디오 및 텍스트의 실시간 입출력을 지원합니다.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview는 Chat Completions API를 통해 웹 검색 쿼리를 이해하고 실행하도록 훈련되었습니다. 웹 검색은 도구 호출당 별도 요금이 부과됩니다.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "OpenAI의 향상된 고성능 ada 임베딩 모델 변형입니다.",
"openai/text-embedding-ada-002.description": "OpenAI의 레거시 텍스트 임베딩 모델입니다.",
"openrouter/auto.description": "컨텍스트 길이, 주제, 복잡도에 따라 요청이 Llama 3 70B Instruct, Claude 3.5 Sonnet(자체 검열), 또는 GPT-4o로 라우팅됩니다.",
"oswe-vscode-prime.description": "Raptor mini는 코드 관련 작업에 최적화된 프리뷰 모델입니다.",
"oswe-vscode-secondary.description": "Raptor mini는 코드 관련 작업에 최적화된 프리뷰 모델입니다.",
"perplexity/sonar-pro.description": "Perplexity의 플래그십 제품으로, 검색 기반 응답을 지원하며 고급 질의 및 후속 질문에 대응합니다.",
"perplexity/sonar-reasoning-pro.description": "향상된 검색 기능과 함께 CoT 출력을 제공하는 고급 추론 중심 모델로, 요청당 다중 검색 질의를 포함합니다.",
"perplexity/sonar-reasoning.description": "세부적인 검색 기반 설명과 함께 사고의 흐름(CoT)을 출력하는 추론 중심 모델입니다.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct는 총 80B, 활성 13B 파라미터로 더 큰 모델과 유사한 성능을 제공합니다. 빠른/느린 하이브리드 추론, 안정적인 장문 이해, BFCL-v3 및 τ-Bench에서 선도적인 에이전트 능력을 지원합니다. GQA 및 다중 양자화 형식을 통해 효율적인 추론이 가능합니다.",
"tencent/Hunyuan-MT-7B.description": "Hunyuan 번역 모델은 Hunyuan-MT-7B와 앙상블 모델 Hunyuan-MT-Chimera로 구성됩니다. Hunyuan-MT-7B는 33개 언어와 5개 중국 소수민족 언어를 지원하는 7B 경량 번역 모델로, WMT25에서 31개 언어쌍 중 30개에서 1위를 차지했습니다. 텐센트 Hunyuan은 사전학습부터 SFT, 번역 RL, 앙상블 RL까지 전체 학습 파이프라인을 사용하여 효율적이고 배포가 쉬운 최고 성능을 달성했습니다.",
"text-embedding-3-large.description": "영어 및 비영어 작업에 가장 강력한 임베딩 모델입니다.",
"text-embedding-3-small-inference.description": "텍스트 임베딩을 위한 Embedding V3 small (Inference) 모델입니다.",
"text-embedding-3-small.description": "검색 및 RAG 시나리오에 적합한 효율적이고 비용 효율적인 차세대 임베딩 모델입니다.",
"text-embedding-ada-002.description": "텍스트 임베딩을 위한 Embedding V2 Ada 모델입니다.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414는 코드 생성, 함수 호출, 에이전트 작업에 최적화된 32B 중영 이중언어 오픈 가중치 모델입니다. 15T 고품질 추론 중심 데이터로 사전학습되었으며, 인간 선호 정렬, 거절 샘플링, RL로 추가 정제되었습니다. 복잡한 추론, 산출물 생성, 구조화된 출력에서 뛰어나며, 여러 벤치마크에서 GPT-4o 및 DeepSeek-V3-0324 수준의 성능을 달성합니다.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414는 코드 생성, 함수 호출, 에이전트 작업에 최적화된 32B 중영 이중언어 오픈 가중치 모델입니다. 15T 고품질 추론 중심 데이터로 사전학습되었으며, 인간 선호 정렬, 거절 샘플링, RL로 추가 정제되었습니다. 복잡한 추론, 산출물 생성, 구조화된 출력에서 뛰어나며, 여러 벤치마크에서 GPT-4o 및 DeepSeek-V3-0324 수준의 성능을 달성합니다.",
"thudm/glm-4-9b-chat.description": "Zhipu AI의 최신 GLM-4 사전학습 모델의 오픈소스 릴리스입니다.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "첫 번째 항목만 바꾸기",
"localFiles.file": "파일",
"localFiles.folder": "폴더",
"localFiles.globFiles.pattern": "패턴",
"localFiles.grepContent.glob": "파일 필터",
"localFiles.grepContent.pattern": "검색 패턴",
"localFiles.grepContent.type": "파일 유형",
"localFiles.moveFiles.itemsMoved": "{{count}}개 항목이 이동되었습니다:",
"localFiles.moveFiles.itemsMoved_one": "{{count}}개 항목이 이동되었습니다:",
"localFiles.moveFiles.itemsMoved_other": "{{count}}개 항목이 이동되었습니다:",
@ -95,11 +99,17 @@
"localFiles.open": "열기",
"localFiles.openFile": "파일 열기",
"localFiles.openFolder": "폴더 열기",
"localFiles.outOfScope.requestedPaths": "요청된 경로",
"localFiles.outOfScope.warning": "경고: 다음 경로는 설정된 작업 디렉터리 외부에 있습니다. 접근을 허용하시겠습니까?",
"localFiles.outOfScope.workingDirectory": "작업 디렉터리",
"localFiles.read.more": "더 보기",
"localFiles.readFile": "파일 읽기",
"localFiles.readFile.lineRange": "{{start}} - {{end}}줄",
"localFiles.readFileError": "파일을 읽는 데 실패했습니다. 파일 경로가 올바른지 확인하세요.",
"localFiles.readFiles": "파일 읽기",
"localFiles.readFilesError": "파일을 읽는 데 실패했습니다. 파일 경로가 올바른지 확인하세요.",
"localFiles.searchFiles.keywords": "키워드",
"localFiles.securityBlacklist.warning": "보안 경고: 이 작업은 보안 규칙에 의해 차단되었으며 명시적인 승인이 필요합니다.",
"localFiles.writeFile.characters": "문자 수",
"localFiles.writeFile.preview": "내용 미리보기",
"localFiles.writeFile.truncated": "잘림",
@ -136,6 +146,31 @@
"search.summary": "요약",
"search.summaryTooltip": "현재 내용을 요약합니다.",
"search.viewMoreResults": "{{results}}개 결과 더 보기",
"securityBlacklist.awsCredentials": "AWS 자격 증명에 접근하면 클라우드 액세스 키가 유출될 수 있습니다",
"securityBlacklist.browserCredentials": "브라우저 자격 증명 저장소에 접근하면 비밀번호가 유출될 수 있습니다",
"securityBlacklist.chownSystemDirs": "시스템 디렉터리의 소유권을 변경하는 것은 위험합니다",
"securityBlacklist.ddDiskWrite": "디스크 장치에 무작위 데이터를 쓰면 데이터가 손상될 수 있습니다",
"securityBlacklist.directMemoryAccess": "직접 메모리 접근은 매우 위험합니다",
"securityBlacklist.disableFirewall": "방화벽을 비활성화하면 시스템이 공격에 노출됩니다",
"securityBlacklist.dockerConfig": "Docker 설정을 읽으면 레지스트리 자격 증명이 노출될 수 있습니다",
"securityBlacklist.envFiles": ".env 파일을 읽으면 민감한 자격 증명 및 API 키가 유출될 수 있습니다",
"securityBlacklist.etcPasswd": "/etc/passwd를 수정하면 시스템에 접근할 수 없게 될 수 있습니다",
"securityBlacklist.forkBomb": "포크 폭탄은 시스템을 다운시킬 수 있습니다",
"securityBlacklist.formatPartition": "시스템 파티션을 포맷하면 데이터가 손실됩니다",
"securityBlacklist.gcpCredentials": "GCP 자격 증명을 읽으면 클라우드 서비스 계정 키가 유출될 수 있습니다",
"securityBlacklist.gitCredentials": "Git 자격 증명 파일을 읽으면 액세스 토큰이 유출될 수 있습니다",
"securityBlacklist.historyFiles": "명령어 기록 파일을 읽으면 민감한 명령어나 자격 증명이 노출될 수 있습니다",
"securityBlacklist.kernelParams": "커널 매개변수를 잘못 수정하면 시스템이 다운될 수 있습니다",
"securityBlacklist.kubeConfig": "Kubernetes 설정을 읽으면 클러스터 자격 증명이 노출될 수 있습니다",
"securityBlacklist.npmrc": "npm 토큰 파일을 읽으면 패키지 레지스트리 자격 증명이 유출될 수 있습니다",
"securityBlacklist.removeSystemPackages": "필수 시스템 패키지를 제거하면 시스템이 손상될 수 있습니다",
"securityBlacklist.rmForceRecursive": "대상을 명시하지 않은 강제 재귀 삭제는 매우 위험합니다",
"securityBlacklist.rmHomeDir": "홈 디렉터리의 재귀 삭제는 매우 위험합니다",
"securityBlacklist.rmRootDir": "루트 디렉터리의 재귀 삭제는 시스템을 파괴합니다",
"securityBlacklist.sshConfig": "SSH 설정을 변경하면 시스템에 접근할 수 없게 될 수 있습니다",
"securityBlacklist.sshPrivateKeys": "SSH 개인 키를 읽으면 시스템 보안이 위협받을 수 있습니다",
"securityBlacklist.sudoers": "sudoers 파일을 적절한 검증 없이 수정하는 것은 위험합니다",
"securityBlacklist.suidShells": "셸이나 인터프리터에 SUID를 설정하는 것은 보안 위험입니다",
"updateArgs.duplicateKeyError": "필드 키는 고유해야 합니다.",
"updateArgs.form.add": "항목 추가",
"updateArgs.form.key": "필드 키",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} - Kopie",
"emptyAgent": "Nog geen Agents. Begin met je eerste Agent—bouw je systeem stap voor stap op.",
"emptyAgentAction": "Agent aanmaken",
"extendParams.disableContextCaching.desc": "Verlaag tot 90% van de kosten per gesprek en verhoog de snelheid tot 4x. Inschakelen schakelt automatisch de limiet op historische berichten uit. <1>Meer informatie</1>",
"extendParams.disableContextCaching.desc": "Verminder de kosten voor het genereren van een enkel gesprek met tot wel 90% en verhoog de snelheid tot maximaal 4x. <1>Meer informatie</1>",
"extendParams.disableContextCaching.title": "Context Caching inschakelen",
"extendParams.effort.desc": "Bepaal met de inspanningsparameter hoeveel tokens Claude gebruikt bij het reageren.",
"extendParams.effort.title": "Inspanning",
"extendParams.enableAdaptiveThinking.desc": "Laat Claude dynamisch beslissen wanneer en hoeveel hij moet nadenken met de adaptieve denkmethode.",
"extendParams.enableAdaptiveThinking.title": "Adaptief Denken Inschakelen",
"extendParams.enableReasoning.desc": "Gebaseerd op het Claude Thinking-mechanisme. Inschakelen schakelt automatisch de limiet op historische berichten uit. <1>Meer informatie</1>",
"extendParams.enableReasoning.desc": "Gebaseerd op de limiet van het Claude-denkmechanisme. <1>Meer informatie</1>",
"extendParams.enableReasoning.title": "Diep Denken inschakelen",
"extendParams.imageAspectRatio.title": "Beeldverhouding",
"extendParams.imageResolution.title": "Beeldresolutie",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Verwijderen en opnieuw genereren",
"messageAction.deleteDisabledByThreads": "Dit bericht heeft een subonderwerp en kan niet worden verwijderd",
"messageAction.expand": "Bericht uitvouwen",
"messageAction.reaction": "Reactie toevoegen",
"messageAction.regenerate": "Opnieuw genereren",
"messages.dm.sentTo": "Alleen zichtbaar voor {{name}}",
"messages.dm.title": "Privébericht",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet blinkt uit in coderen, schrijven en complex redeneren.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet met uitgebreid denkvermogen voor complexe redeneertaken.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet is een verbeterde versie met uitgebreidere context en mogelijkheden.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 is een snel en efficiënt model voor diverse taken.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest geavanceerde model van Anthropic voor uiterst complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitstekende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 is de nieuwste generatie met verbeterde prestaties op alle taken.",
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenarios en is een topmodel onder de 10 miljard parameters.",
"codegemma.description": "CodeGemma is een lichtgewicht model voor diverse programmeertaken, dat snelle iteratie en integratie mogelijk maakt.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Een op het Engels gericht tekstembeddingmodel, geoptimaliseerd voor code- en taalverwerkingstaken.",
"google/text-multilingual-embedding-002.description": "Een meertalig tekstembeddingmodel, geoptimaliseerd voor cross-linguale taken in vele talen.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo voor tekstgeneratie en -begrip; verwijst momenteel naar gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo is een snel en efficiënt model voor uiteenlopende taken.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo voor tekstgeneratie en -begrip; verwijst momenteel naar gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo voor tekstgeneratie- en begrijptaken, geoptimaliseerd voor instructieopvolging.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo voor tekstgeneratie en -begrip; verwijst momenteel naar gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
"gpt-4-32k-0613.description": "GPT-4 biedt een groter contextvenster om langere invoer te verwerken, geschikt voor brede informatie-integratie en data-analyse.",
"gpt-4-32k.description": "GPT-4 biedt een groter contextvenster om langere invoer te verwerken, geschikt voor brede informatie-integratie en data-analyse.",
"gpt-4-o-preview.description": "GPT-4o is het meest geavanceerde multimodale model en verwerkt zowel tekst- als beeldinvoer.",
"gpt-4-turbo-2024-04-09.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
"gpt-4-turbo-preview.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
"gpt-4-turbo.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
"gpt-4-vision-preview.description": "GPT-4 Vision preview, ontworpen voor beeldanalyse- en verwerkingstaken.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 is het vlaggenschipmodel voor complexe taken, ideaal voor domeinoverstijgende probleemoplossing.",
"gpt-4.1-mini.description": "GPT-4.1 mini biedt een balans tussen intelligentie, snelheid en kosten, aantrekkelijk voor veel toepassingen.",
"gpt-4.1-nano.description": "GPT-4.1 nano is het snelste en meest kosteneffectieve GPT-4.1 model.",
"gpt-4.1.description": "GPT-4.1 is ons vlaggenschipmodel voor complexe taken en domeinoverstijgende probleemoplossing.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o is een dynamisch model dat realtime wordt bijgewerkt. Het combineert sterk taalbegrip en -generatie voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o is een dynamisch model dat realtime wordt bijgewerkt en sterke taalbegrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
"gpt-4o-audio-preview.description": "GPT-4o Audio Preview-model met audio-invoer en -uitvoer.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini is een kosteneffectieve oplossing voor een breed scala aan tekst- en beeldtaken.",
"gpt-4o-mini-audio-preview.description": "GPT-4o mini Audio-model met audio-invoer en -uitvoer.",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini realtime-variant met realtime audio- en tekstinvoer/-uitvoer.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview is getraind om webzoekopdrachten te begrijpen en uit te voeren via de Chat Completions API. Webzoekopdrachten worden per toolaanroep gefactureerd, naast tokenkosten.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "De verbeterde, krachtige ada embedding-variant van OpenAI.",
"openai/text-embedding-ada-002.description": "Het oudere tekstembeddingmodel van OpenAI.",
"openrouter/auto.description": "Op basis van contextlengte, onderwerp en complexiteit wordt je verzoek doorgestuurd naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelf-gemodereerd) of GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini is een previewmodel geoptimaliseerd voor codegerelateerde taken.",
"oswe-vscode-secondary.description": "Raptor mini is een previewmodel geoptimaliseerd voor codegerelateerde taken.",
"perplexity/sonar-pro.description": "Het vlaggenschipproduct van Perplexity met zoekverankering, ondersteuning voor geavanceerde vragen en vervolginteracties.",
"perplexity/sonar-reasoning-pro.description": "Een geavanceerd redeneermodel dat keten-van-gedachten (CoT) genereert met verbeterde zoekfunctionaliteit, inclusief meerdere zoekopdrachten per verzoek.",
"perplexity/sonar-reasoning.description": "Een redeneermodel dat keten-van-gedachten (CoT) genereert met gedetailleerde, op zoek gebaseerde uitleg.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct gebruikt 80B totale parameters met 13B actieve om te concurreren met grotere modellen. Het ondersteunt snelle/langzame hybride redenering, stabiel begrip van lange teksten en toonaangevende agentprestaties op BFCL-v3 en τ-Bench. GQA- en multi-quant-formaten maken efficiënte inferentie mogelijk.",
"tencent/Hunyuan-MT-7B.description": "Hunyuan Translation Model omvat Hunyuan-MT-7B en het ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B is een lichtgewicht vertaalmodel van 7B dat 33 talen en 5 Chinese minderheidstalen ondersteunt. In WMT25 behaalde het 30 eerste plaatsen in 31 taalkoppels. Tencent Hunyuan gebruikt een volledige trainingspipeline van pretraining tot SFT, vertaal-RL en ensemble-RL, en levert toonaangevende prestaties met efficiënte en eenvoudige implementatie.",
"text-embedding-3-large.description": "Het krachtigste embeddingmodel voor taken in het Engels en andere talen.",
"text-embedding-3-small-inference.description": "Embedding V3 small (Inference) model voor tekst-embedding.",
"text-embedding-3-small.description": "Een efficiënt, kosteneffectief embeddingmodel van de volgende generatie voor zoek- en RAG-scenarios.",
"text-embedding-ada-002.description": "Embedding V2 Ada model voor tekst-embedding.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 is een 32B tweetalig (Chinees/Engels) open-weights model geoptimaliseerd voor codegeneratie, functieaanroepen en agenttaken. Het is voorgetraind op 15T hoogwaardige en redeneerintensieve data en verder verfijnd met menselijke voorkeurafstemming, afwijzingssampling en RL. Het blinkt uit in complexe redenering, artefactgeneratie en gestructureerde output, en bereikt GPT-4o- en DeepSeek-V3-0324-niveau prestaties op meerdere benchmarks.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 is een 32B tweetalig (Chinees/Engels) open-weights model geoptimaliseerd voor codegeneratie, functieaanroepen en agenttaken. Het is voorgetraind op 15T hoogwaardige en redeneerintensieve data en verder verfijnd met menselijke voorkeurafstemming, afwijzingssampling en RL. Het blinkt uit in complexe redenering, artefactgeneratie en gestructureerde output, en bereikt GPT-4o- en DeepSeek-V3-0324-niveau prestaties op meerdere benchmarks.",
"thudm/glm-4-9b-chat.description": "De open-source release van Zhipu AIs nieuwste GLM-4 pretrainingmodel.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Alleen eerste vervangen",
"localFiles.file": "Bestand",
"localFiles.folder": "Map",
"localFiles.globFiles.pattern": "Patroon",
"localFiles.grepContent.glob": "Bestandsfilter",
"localFiles.grepContent.pattern": "Zoekpatroon",
"localFiles.grepContent.type": "Bestandstype",
"localFiles.moveFiles.itemsMoved": "{{count}} item(s) verplaatst:",
"localFiles.moveFiles.itemsMoved_one": "{{count}} item verplaatst:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} items verplaatst:",
@ -95,11 +99,17 @@
"localFiles.open": "Openen",
"localFiles.openFile": "Bestand openen",
"localFiles.openFolder": "Map openen",
"localFiles.outOfScope.requestedPaths": "Aangevraagde paden",
"localFiles.outOfScope.warning": "Waarschuwing: De volgende pad(en) vallen buiten de geconfigureerde werkmap. Bevestig of je toegang wilt toestaan.",
"localFiles.outOfScope.workingDirectory": "Werkmap",
"localFiles.read.more": "Meer bekijken",
"localFiles.readFile": "Bestand lezen",
"localFiles.readFile.lineRange": "Regels {{start}} - {{end}}",
"localFiles.readFileError": "Kan bestand niet lezen, controleer of het pad correct is",
"localFiles.readFiles": "Bestanden lezen",
"localFiles.readFilesError": "Kan bestanden niet lezen, controleer of het pad correct is",
"localFiles.searchFiles.keywords": "Trefwoorden",
"localFiles.securityBlacklist.warning": "Beveiligingswaarschuwing: Deze bewerking is gemarkeerd door beveiligingsregels en vereist jouw expliciete goedkeuring.",
"localFiles.writeFile.characters": "tekens",
"localFiles.writeFile.preview": "Voorbeeld van inhoud",
"localFiles.writeFile.truncated": "afgekapt",
@ -136,6 +146,31 @@
"search.summary": "Samenvatting",
"search.summaryTooltip": "Vat de huidige inhoud samen",
"search.viewMoreResults": "Bekijk nog {{results}} resultaten",
"securityBlacklist.awsCredentials": "Toegang tot AWS-referenties kan cloudtoegangssleutels lekken",
"securityBlacklist.browserCredentials": "Toegang tot opgeslagen browsergegevens kan wachtwoorden lekken",
"securityBlacklist.chownSystemDirs": "Eigendom wijzigen van systeembestanden is gevaarlijk",
"securityBlacklist.ddDiskWrite": "Willekeurige data naar schijfapparaten schrijven kan gegevens vernietigen",
"securityBlacklist.directMemoryAccess": "Directe toegang tot geheugen is uiterst gevaarlijk",
"securityBlacklist.disableFirewall": "Firewall uitschakelen stelt het systeem bloot aan aanvallen",
"securityBlacklist.dockerConfig": "Lezen van Docker-configuratie kan registry-referenties blootleggen",
"securityBlacklist.envFiles": "Lezen van .env-bestanden kan gevoelige referenties en API-sleutels lekken",
"securityBlacklist.etcPasswd": "Wijzigen van /etc/passwd kan je uit het systeem sluiten",
"securityBlacklist.forkBomb": "Een forkbomb kan het systeem laten crashen",
"securityBlacklist.formatPartition": "Formatteren van systeempartities vernietigt gegevens",
"securityBlacklist.gcpCredentials": "Lezen van GCP-referenties kan toegangssleutels van cloudservices lekken",
"securityBlacklist.gitCredentials": "Lezen van Git-referentiebestand kan toegangstokens lekken",
"securityBlacklist.historyFiles": "Lezen van geschiedenisbestanden kan gevoelige commandos en referenties onthullen",
"securityBlacklist.kernelParams": "Kernelparameters wijzigen zonder kennis kan het systeem laten crashen",
"securityBlacklist.kubeConfig": "Lezen van Kubernetes-configuratie kan clusterreferenties blootleggen",
"securityBlacklist.npmrc": "Lezen van npm-tokenbestand kan toegang tot pakketregisters lekken",
"securityBlacklist.removeSystemPackages": "Verwijderen van essentiële systeempakketten kan het systeem onbruikbaar maken",
"securityBlacklist.rmForceRecursive": "Geforceerde recursieve verwijdering zonder specifiek doel is te gevaarlijk",
"securityBlacklist.rmHomeDir": "Recursief verwijderen van de thuismap is uiterst gevaarlijk",
"securityBlacklist.rmRootDir": "Recursief verwijderen van de rootmap vernietigt het systeem",
"securityBlacklist.sshConfig": "Wijzigen van SSH-configuratie kan je buitensluiten",
"securityBlacklist.sshPrivateKeys": "Lezen van SSH-private sleutels kan de systeembeveiliging in gevaar brengen",
"securityBlacklist.sudoers": "Wijzigen van het sudoers-bestand zonder juiste validatie is gevaarlijk",
"securityBlacklist.suidShells": "SUID instellen op shells of interpreters is een beveiligingsrisico",
"updateArgs.duplicateKeyError": "Veldsleutel moet uniek zijn",
"updateArgs.form.add": "Item toevoegen",
"updateArgs.form.key": "Veldsleutel",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "Kopia {{title}}",
"emptyAgent": "Brak Agentów. Zacznij od stworzenia pierwszego Agenta — zbuduj swój system z czasem.",
"emptyAgentAction": "Utwórz Agenta",
"extendParams.disableContextCaching.desc": "Zmniejsz koszt generowania jednej rozmowy nawet o 90% i zwiększ prędkość do 4x. Włączenie tej opcji automatycznie wyłączy limit liczby wiadomości historycznych. <1>Dowiedz się więcej</1>",
"extendParams.disableContextCaching.desc": "Zmniejsz koszt generowania jednej rozmowy nawet o 90% i zwiększ prędkość maksymalnie 4-krotnie. <1>Dowiedz się więcej</1>",
"extendParams.disableContextCaching.title": "Włącz buforowanie kontekstu",
"extendParams.effort.desc": "Kontroluj, ile tokenów Claude używa podczas odpowiadania, za pomocą parametru wysiłku.",
"extendParams.effort.title": "Wysiłek",
"extendParams.enableAdaptiveThinking.desc": "Pozwól Claudeowi dynamicznie decydować, kiedy i jak intensywnie myśleć, dzięki trybowi adaptacyjnego myślenia.",
"extendParams.enableAdaptiveThinking.title": "Włącz adaptacyjne myślenie",
"extendParams.enableReasoning.desc": "Na podstawie ograniczeń mechanizmu Claude Thinking, włączenie tej opcji automatycznie wyłączy limit liczby wiadomości historycznych. <1>Dowiedz się więcej</1>",
"extendParams.enableReasoning.desc": "Na podstawie ograniczeń mechanizmu Claude Thinking. <1>Dowiedz się więcej</1>",
"extendParams.enableReasoning.title": "Włącz głębokie myślenie",
"extendParams.imageAspectRatio.title": "Proporcje obrazu",
"extendParams.imageResolution.title": "Rozdzielczość obrazu",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Usuń i wygeneruj ponownie",
"messageAction.deleteDisabledByThreads": "Ta wiadomość zawiera podtemat i nie może zostać usunięta",
"messageAction.expand": "Rozwiń wiadomość",
"messageAction.reaction": "Dodaj reakcję",
"messageAction.regenerate": "Wygeneruj ponownie",
"messages.dm.sentTo": "Widoczne tylko dla {{name}}",
"messages.dm.title": "Wiadomość prywatna",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet wyróżnia się w programowaniu, pisaniu i złożonym rozumowaniu.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet z rozszerzonym myśleniem do złożonych zadań wymagających rozumowania.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet to ulepszona wersja z rozszerzonym kontekstem i możliwościami.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 to szybki i wydajny model do różnorodnych zadań.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, oferujący najwyższą wydajność, inteligencję, płynność i zrozumienie.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to jak dotąd najbardziej inteligentny model Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 to najnowsza generacja z ulepszoną wydajnością we wszystkich zadaniach.",
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
"codegemma.description": "CodeGemma to lekki model do różnorodnych zadań programistycznych, umożliwiający szybką iterację i integrację.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Model osadzania tekstu skoncentrowany na języku angielskim, zoptymalizowany do zadań związanych z kodem i językiem angielskim.",
"google/text-multilingual-embedding-002.description": "Wielojęzyczny model osadzania tekstu zoptymalizowany do zadań międzyjęzykowych w wielu językach.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo do generowania i rozumienia tekstu; obecnie wskazuje na gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo to szybki i wydajny model do różnorodnych zadań.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo do generowania i rozumienia tekstu; obecnie wskazuje na gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo do zadań generowania i rozumienia tekstu, zoptymalizowany pod kątem wykonywania instrukcji.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo do generowania i rozumienia tekstu; obecnie wskazuje na gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
"gpt-4-32k-0613.description": "GPT-4 oferuje większe okno kontekstowe do obsługi dłuższych danych wejściowych w scenariuszach wymagających szerokiej integracji informacji i analizy danych.",
"gpt-4-32k.description": "GPT-4 oferuje większe okno kontekstowe do obsługi dłuższych danych wejściowych w scenariuszach wymagających szerokiej integracji informacji i analizy danych.",
"gpt-4-o-preview.description": "GPT-4o to najbardziej zaawansowany model multimodalny, obsługujący dane tekstowe i obrazowe.",
"gpt-4-turbo-2024-04-09.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
"gpt-4-turbo-preview.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
"gpt-4-turbo.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
"gpt-4-vision-preview.description": "Podgląd GPT-4 Vision, zaprojektowany do zadań analizy i przetwarzania obrazów.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 to flagowy model do złożonych zadań, idealny do rozwiązywania problemów międzydziedzinowych.",
"gpt-4.1-mini.description": "GPT-4.1 mini łączy inteligencję, szybkość i niski koszt, co czyni go atrakcyjnym w wielu zastosowaniach.",
"gpt-4.1-nano.description": "GPT-4.1 nano to najszybszy i najbardziej opłacalny model GPT-4.1.",
"gpt-4.1.description": "GPT-4.1 to nasz flagowy model do złożonych zadań i rozwiązywania problemów międzydziedzinowych.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym. Łączy silne rozumienie języka i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i pomoc techniczna.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i pomoc techniczna.",
"gpt-4o-audio-preview.description": "Model GPT-4o Audio Preview z wejściem i wyjściem audio.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini to ekonomiczne rozwiązanie do szerokiego zakresu zadań tekstowych i obrazowych.",
"gpt-4o-mini-audio-preview.description": "Model GPT-4o mini Audio z wejściem i wyjściem audio.",
"gpt-4o-mini-realtime-preview.description": "Wariant GPT-4o-mini w czasie rzeczywistym z wejściem/wyjściem audio i tekstowym.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview jest trenowany do rozumienia i wykonywania zapytań wyszukiwania internetowego przez API Chat Completions. Wyszukiwanie internetowe jest rozliczane za każde użycie narzędzia oprócz kosztów tokenów.",
@ -1089,6 +1098,7 @@
"qwen3-14b.description": "Qwen3 14B to średniej wielkości model do wielojęzycznego QA i generowania tekstu.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 to flagowy model instrukcyjny do szerokiego zakresu zadań generacyjnych i rozumowania.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 to ultraduży model myślący do trudnych zadań wymagających rozumowania.",
"qwen3-235b-a22b.description": "Qwen3 to nowej generacji model Tongyi Qwen z dużymi postępami w rozumowaniu, ogólnych zdolnościach, możliwościach agentowych i wydajności wielojęzycznej, z obsługą przełączania trybów myślenia.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 to średnio-duży model instrukcyjny do wysokiej jakości generowania i QA.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 to średnio-duży model myślący, łączący dokładność i efektywność kosztową.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B to średnio-duży model ogólny, równoważący koszty i jakość.",
@ -1100,6 +1110,7 @@
"qwen3-coder-flash.description": "Model kodujący Qwen. Najnowsza seria Qwen3-Coder oparta jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.",
"qwen3-coder-plus.description": "Model kodujący Qwen. Najnowsza seria Qwen3-Coder oparta jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.",
"qwen3-coder:480b.description": "Wysokowydajny model Alibaba do zadań agenta i kodowania z długim kontekstem.",
"qwen3-max-2026-01-23.description": "Modele Qwen3 Max oferują znaczne ulepszenia względem serii 2.5 w zakresie ogólnych zdolności, rozumienia języka chińskiego i angielskiego, realizacji złożonych instrukcji, zadań subiektywnych i otwartych, wielojęzyczności oraz korzystania z narzędzi, przy mniejszej liczbie halucynacji. Najnowszy qwen3-max poprawia programowanie agentowe i użycie narzędzi względem wersji qwen3-max-preview. Wydanie to osiąga poziom SOTA i odpowiada na bardziej złożone potrzeby agentów.",
"qwen3-max-preview.description": "Najlepszy model Qwen do złożonych, wieloetapowych zadań. Wersja podglądowa obsługuje myślenie.",
"qwen3-max.description": "Modele Qwen3 Max oferują znaczne ulepszenia względem serii 2.5 w zakresie ogólnych zdolności, rozumienia chińskiego/angielskiego, złożonych instrukcji, zadań otwartych, wielojęzyczności i korzystania z narzędzi, z mniejszą liczbą halucynacji. Najnowszy qwen3-max poprawia programowanie agentowe i korzystanie z narzędzi względem qwen3-max-preview. Wersja ta osiąga SOTA w swojej klasie i jest przeznaczona do bardziej złożonych potrzeb agentów.",
"qwen3-next-80b-a3b-instruct.description": "Nowej generacji otwartoźródłowy model Qwen3 bez myślenia. W porównaniu do poprzedniej wersji (Qwen3-235B-A22B-Instruct-2507) oferuje lepsze rozumienie chińskiego, silniejsze rozumowanie logiczne i ulepszone generowanie tekstu.",
@ -1176,6 +1187,10 @@
"tts-1.description": "Najnowszy model tekst-na-mowę zoptymalizowany pod kątem szybkości działania w czasie rzeczywistym.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) jest dostrojony do precyzyjnych zadań instrukcyjnych z silną wydajnością językową.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet podnosi standard branżowy, przewyższając konkurencję i Claude 3 Opus w szerokich ocenach, zachowując jednocześnie średni poziom szybkości i kosztów.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet to najszybszy model nowej generacji firmy Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa poprzedni flagowy model Claude 3 Opus w wielu testach inteligencji.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku firmy Anthropic, oferujący błyskawiczne działanie i rozszerzone myślenie.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 to najbardziej inteligentny model firmy Anthropic do tworzenia agentów i programowania.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 to jak dotąd najbardziej inteligentny model firmy Anthropic.",
"v0-1.0-md.description": "v0-1.0-md to model starszej generacji udostępniany przez API v0.",
"v0-1.5-lg.description": "v0-1.5-lg jest odpowiedni do zaawansowanych zadań myślowych i rozumowania.",
"v0-1.5-md.description": "v0-1.5-md jest odpowiedni do codziennych zadań i generowania interfejsów użytkownika.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Zamień tylko pierwsze wystąpienie",
"localFiles.file": "Plik",
"localFiles.folder": "Folder",
"localFiles.globFiles.pattern": "Wzorzec",
"localFiles.grepContent.glob": "Filtr plików",
"localFiles.grepContent.pattern": "Wzorzec wyszukiwania",
"localFiles.grepContent.type": "Typ pliku",
"localFiles.moveFiles.itemsMoved": "Przeniesiono {{count}} element(ów):",
"localFiles.moveFiles.itemsMoved_one": "Przeniesiono {{count}} element:",
"localFiles.moveFiles.itemsMoved_other": "Przeniesiono {{count}} elementy:",
@ -95,11 +99,17 @@
"localFiles.open": "Otwórz",
"localFiles.openFile": "Otwórz Plik",
"localFiles.openFolder": "Otwórz Folder",
"localFiles.outOfScope.requestedPaths": "Żądane ścieżki",
"localFiles.outOfScope.warning": "Ostrzeżenie: Następujące ścieżki znajdują się poza skonfigurowanym katalogiem roboczym. Proszę potwierdzić, czy chcesz zezwolić na dostęp.",
"localFiles.outOfScope.workingDirectory": "Katalog roboczy",
"localFiles.read.more": "Zobacz więcej",
"localFiles.readFile": "Odczytaj Plik",
"localFiles.readFile.lineRange": "Linie {{start}} - {{end}}",
"localFiles.readFileError": "Nie udało się odczytać pliku, sprawdź poprawność ścieżki",
"localFiles.readFiles": "Odczytaj Pliki",
"localFiles.readFilesError": "Nie udało się odczytać plików, sprawdź poprawność ścieżki",
"localFiles.searchFiles.keywords": "Słowa kluczowe",
"localFiles.securityBlacklist.warning": "Alert bezpieczeństwa: Ta operacja została oznaczona przez zasady bezpieczeństwa i wymaga Twojej wyraźnej zgody.",
"localFiles.writeFile.characters": "znaki",
"localFiles.writeFile.preview": "Podgląd Zawartości",
"localFiles.writeFile.truncated": "obcięto",
@ -136,6 +146,31 @@
"search.summary": "Podsumowanie",
"search.summaryTooltip": "Podsumuj bieżącą zawartość",
"search.viewMoreResults": "Zobacz więcej wyników: {{results}}",
"securityBlacklist.awsCredentials": "Dostęp do poświadczeń AWS może ujawnić klucze dostępu do chmury",
"securityBlacklist.browserCredentials": "Dostęp do przechowywanych danych logowania w przeglądarce może ujawnić hasła",
"securityBlacklist.chownSystemDirs": "Zmiana właściciela katalogów systemowych jest niebezpieczna",
"securityBlacklist.ddDiskWrite": "Zapis losowych danych na urządzeniach dyskowych może zniszczyć dane",
"securityBlacklist.directMemoryAccess": "Bezpośredni dostęp do pamięci jest skrajnie niebezpieczny",
"securityBlacklist.disableFirewall": "Wyłączenie zapory sieciowej naraża system na ataki",
"securityBlacklist.dockerConfig": "Odczyt konfiguracji Dockera może ujawnić dane logowania do rejestru",
"securityBlacklist.envFiles": "Odczyt plików .env może ujawnić wrażliwe dane logowania i klucze API",
"securityBlacklist.etcPasswd": "Modyfikacja /etc/passwd może uniemożliwić dostęp do systemu",
"securityBlacklist.forkBomb": "Fork bomb może zawiesić system",
"securityBlacklist.formatPartition": "Formatowanie partycji systemowych spowoduje utratę danych",
"securityBlacklist.gcpCredentials": "Odczyt poświadczeń GCP może ujawnić klucze kont usług chmurowych",
"securityBlacklist.gitCredentials": "Odczyt pliku poświadczeń Git może ujawnić tokeny dostępu",
"securityBlacklist.historyFiles": "Odczyt plików historii może ujawnić wrażliwe polecenia i dane logowania",
"securityBlacklist.kernelParams": "Modyfikacja parametrów jądra bez odpowiedniej wiedzy może zawiesić system",
"securityBlacklist.kubeConfig": "Odczyt konfiguracji Kubernetes może ujawnić dane logowania do klastra",
"securityBlacklist.npmrc": "Odczyt pliku tokena npm może ujawnić dane logowania do rejestru pakietów",
"securityBlacklist.removeSystemPackages": "Usunięcie podstawowych pakietów systemowych może uszkodzić system",
"securityBlacklist.rmForceRecursive": "Wymuszone rekurencyjne usuwanie bez określonego celu jest zbyt niebezpieczne",
"securityBlacklist.rmHomeDir": "Rekurencyjne usunięcie katalogu domowego jest skrajnie niebezpieczne",
"securityBlacklist.rmRootDir": "Rekurencyjne usunięcie katalogu głównego zniszczy system",
"securityBlacklist.sshConfig": "Zmiana konfiguracji SSH może uniemożliwić dostęp do systemu",
"securityBlacklist.sshPrivateKeys": "Odczyt prywatnych kluczy SSH może zagrozić bezpieczeństwu systemu",
"securityBlacklist.sudoers": "Modyfikacja pliku sudoers bez odpowiedniej walidacji jest niebezpieczna",
"securityBlacklist.suidShells": "Ustawienie SUID na powłokach lub interpreterach stanowi zagrożenie bezpieczeństwa",
"updateArgs.duplicateKeyError": "Klucz pola musi być unikalny",
"updateArgs.form.add": "Dodaj Element",
"updateArgs.form.key": "Klucz Pola",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "Cópia de {{title}}",
"emptyAgent": "Nenhum Agente ainda. Comece com seu primeiro Agente — construa seu sistema ao longo do tempo.",
"emptyAgentAction": "Criar Agente",
"extendParams.disableContextCaching.desc": "Reduza em até 90% o custo de geração de uma única conversa e aumente a velocidade em até 4x. Ativar isso desativa automaticamente o limite de mensagens históricas. <1>Saiba mais</1>",
"extendParams.disableContextCaching.desc": "Reduza em até 90% o custo de geração de uma única conversa e aumente a velocidade em até 4x. <1>Saiba mais</1>",
"extendParams.disableContextCaching.title": "Ativar Cache de Contexto",
"extendParams.effort.desc": "Controle quantos tokens o Claude usa ao responder com o parâmetro de esforço.",
"extendParams.effort.title": "Esforço",
"extendParams.enableAdaptiveThinking.desc": "Permita que o Claude decida dinamicamente quando e quanto pensar com o modo de pensamento adaptativo.",
"extendParams.enableAdaptiveThinking.title": "Ativar Pensamento Adaptativo",
"extendParams.enableReasoning.desc": "Com base no limite do mecanismo de Pensamento Claude, ativar isso desativa automaticamente o limite de mensagens históricas. <1>Saiba mais</1>",
"extendParams.enableReasoning.desc": "Baseado no limite do mecanismo de raciocínio Claude. <1>Saiba mais</1>",
"extendParams.enableReasoning.title": "Ativar Pensamento Profundo",
"extendParams.imageAspectRatio.title": "Proporção da Imagem",
"extendParams.imageResolution.title": "Resolução da Imagem",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Excluir e Regenerar",
"messageAction.deleteDisabledByThreads": "Esta mensagem possui um subtópico e não pode ser excluída",
"messageAction.expand": "Expandir Mensagem",
"messageAction.reaction": "Adicionar reação",
"messageAction.regenerate": "Regenerar",
"messages.dm.sentTo": "Visível apenas para {{name}}",
"messages.dm.title": "DM",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet se destaca em programação, redação e raciocínio complexo.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet com raciocínio estendido para tarefas complexas.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet é uma versão aprimorada com contexto e capacidades expandidas.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio avançado.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 é um modelo rápido e eficiente para diversas tarefas.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com destaque em desempenho, inteligência, fluência e compreensão.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios detalhados passo a passo com processo visível.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
"claude-sonnet-4.description": "Claude Sonnet 4 é a geração mais recente com desempenho aprimorado em todas as tarefas.",
"codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
"codegemma.description": "CodeGemma é um modelo leve para tarefas variadas de programação, permitindo iteração rápida e fácil integração.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Modelo de embedding de texto focado em inglês, otimizado para tarefas de código e linguagem inglesa.",
"google/text-multilingual-embedding-002.description": "Modelo de embedding de texto multilíngue otimizado para tarefas interlinguísticas em diversos idiomas.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo para geração e compreensão de texto; atualmente aponta para gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo é um modelo rápido e eficiente para diversas tarefas.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo para geração e compreensão de texto; atualmente aponta para gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo para tarefas de geração e compreensão de texto, otimizado para seguir instruções.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo para geração e compreensão de texto; atualmente aponta para gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "O mais recente GPT-4 Turbo adiciona visão. Solicitações visuais suportam modo JSON e chamadas de função. É um modelo multimodal econômico que equilibra precisão e eficiência para aplicações em tempo real.",
"gpt-4-32k-0613.description": "GPT-4 oferece uma janela de contexto maior para lidar com entradas mais longas em cenários que exigem integração ampla de informações e análise de dados.",
"gpt-4-32k.description": "GPT-4 oferece uma janela de contexto maior para lidar com entradas mais longas em cenários que exigem integração ampla de informações e análise de dados.",
"gpt-4-o-preview.description": "GPT-4o é o modelo multimodal mais avançado, capaz de lidar com entradas de texto e imagem.",
"gpt-4-turbo-2024-04-09.description": "O mais recente GPT-4 Turbo adiciona visão. Solicitações visuais suportam modo JSON e chamadas de função. É um modelo multimodal econômico que equilibra precisão e eficiência para aplicações em tempo real.",
"gpt-4-turbo-preview.description": "O mais recente GPT-4 Turbo adiciona visão. Solicitações visuais suportam modo JSON e chamadas de função. É um modelo multimodal econômico que equilibra precisão e eficiência para aplicações em tempo real.",
"gpt-4-turbo.description": "O mais recente GPT-4 Turbo adiciona visão. Solicitações visuais suportam modo JSON e chamadas de função. É um modelo multimodal econômico que equilibra precisão e eficiência para aplicações em tempo real.",
"gpt-4-vision-preview.description": "Prévia do GPT-4 Vision, projetado para tarefas de análise e processamento de imagens.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 é o modelo principal para tarefas complexas, ideal para resolução de problemas entre domínios.",
"gpt-4.1-mini.description": "GPT-4.1 mini equilibra inteligência, velocidade e custo, sendo atraente para diversos casos de uso.",
"gpt-4.1-nano.description": "GPT-4.1 nano é o modelo GPT-4.1 mais rápido e econômico.",
"gpt-4.1.description": "GPT-4.1 é nosso modelo carro-chefe para tarefas complexas e resolução de problemas interdisciplinares.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real. Ele combina forte compreensão e geração de linguagem para casos de uso em larga escala como suporte ao cliente, educação e assistência técnica.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
"gpt-4o-audio-preview.description": "Modelo de prévia de áudio do GPT-4o com entrada e saída de áudio.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini é uma solução econômica para uma ampla gama de tarefas com texto e imagem.",
"gpt-4o-mini-audio-preview.description": "Modelo de áudio mini do GPT-4o com entrada e saída de áudio.",
"gpt-4o-mini-realtime-preview.description": "Variante em tempo real do GPT-4o-mini com entrada e saída de texto e áudio em tempo real.",
"gpt-4o-mini-search-preview.description": "Prévia de busca do GPT-4o mini, treinado para entender e executar consultas de busca na web via API de Conclusões de Chat. A busca na web é cobrada por chamada de ferramenta além dos custos de tokens.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "Variante aprimorada e de alto desempenho do modelo de embedding ada da OpenAI.",
"openai/text-embedding-ada-002.description": "Modelo de embedding de texto legado da OpenAI.",
"openrouter/auto.description": "Com base no comprimento do contexto, tópico e complexidade, sua solicitação é roteada para Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderado) ou GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini é um modelo de pré-visualização otimizado para tarefas relacionadas a código.",
"oswe-vscode-secondary.description": "Raptor mini é um modelo de pré-visualização otimizado para tarefas relacionadas a código.",
"perplexity/sonar-pro.description": "Produto principal da Perplexity com base em busca, oferecendo suporte a consultas avançadas e seguimentos.",
"perplexity/sonar-reasoning-pro.description": "Modelo avançado com foco em raciocínio que gera cadeia de pensamento (CoT) com busca aprimorada, incluindo múltiplas consultas por solicitação.",
"perplexity/sonar-reasoning.description": "Modelo com foco em raciocínio que gera cadeia de pensamento (CoT) com explicações detalhadas baseadas em busca.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utiliza 80B de parâmetros totais com 13B ativos para igualar modelos maiores. Suporta raciocínio híbrido rápido/lento, compreensão estável de textos longos e desempenho líder em agentes nos benchmarks BFCL-v3 e τ-Bench. Formatos GQA e multi-quant permitem inferência eficiente.",
"tencent/Hunyuan-MT-7B.description": "O Modelo de Tradução Hunyuan inclui o Hunyuan-MT-7B e o conjunto Hunyuan-MT-Chimera. O Hunyuan-MT-7B é um modelo leve de tradução com 7B de parâmetros, suportando 33 idiomas e 5 línguas minoritárias chinesas. No WMT25, obteve 30 primeiros lugares em 31 pares de idiomas. A Hunyuan da Tencent utiliza um pipeline completo de pré-treinamento, SFT, RL de tradução e RL em conjunto, alcançando desempenho líder em seu porte com implantação eficiente e fácil.",
"text-embedding-3-large.description": "O modelo de embedding mais avançado para tarefas em inglês e outros idiomas.",
"text-embedding-3-small-inference.description": "Modelo Embedding V3 pequeno (Inferência) para incorporações de texto.",
"text-embedding-3-small.description": "Modelo de embedding de próxima geração eficiente e econômico para recuperação e cenários RAG.",
"text-embedding-ada-002.description": "Modelo Embedding V2 Ada para incorporações de texto.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 é um modelo bilíngue (chinês/inglês) de 32B com pesos abertos, otimizado para geração de código, chamadas de função e tarefas de agente. Pré-treinado com 15T de dados de alta qualidade e foco em raciocínio, refinado com alinhamento de preferências humanas, amostragem de rejeição e RL. Destaca-se em raciocínio complexo, geração de artefatos e saída estruturada, alcançando desempenho comparável ao GPT-4o e DeepSeek-V3-0324 em múltiplos benchmarks.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 é um modelo bilíngue (chinês/inglês) de 32B com pesos abertos, otimizado para geração de código, chamadas de função e tarefas de agente. Pré-treinado com 15T de dados de alta qualidade e foco em raciocínio, refinado com alinhamento de preferências humanas, amostragem de rejeição e RL. Destaca-se em raciocínio complexo, geração de artefatos e saída estruturada, alcançando desempenho comparável ao GPT-4o e DeepSeek-V3-0324 em múltiplos benchmarks.",
"thudm/glm-4-9b-chat.description": "Versão de código aberto do mais recente modelo pré-treinado GLM-4 da Zhipu AI.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Substituir apenas a primeira ocorrência",
"localFiles.file": "Arquivo",
"localFiles.folder": "Pasta",
"localFiles.globFiles.pattern": "Padrão",
"localFiles.grepContent.glob": "Filtro de arquivos",
"localFiles.grepContent.pattern": "Padrão de busca",
"localFiles.grepContent.type": "Tipo de arquivo",
"localFiles.moveFiles.itemsMoved": "{{count}} item(ns) movido(s):",
"localFiles.moveFiles.itemsMoved_one": "{{count}} item movido:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} itens movidos:",
@ -95,11 +99,17 @@
"localFiles.open": "Abrir",
"localFiles.openFile": "Abrir Arquivo",
"localFiles.openFolder": "Abrir Pasta",
"localFiles.outOfScope.requestedPaths": "Caminhos solicitados",
"localFiles.outOfScope.warning": "Aviso: Os seguintes caminhos estão fora do diretório de trabalho configurado. Por favor, confirme se deseja permitir o acesso.",
"localFiles.outOfScope.workingDirectory": "Diretório de trabalho",
"localFiles.read.more": "Ver Mais",
"localFiles.readFile": "Ler Arquivo",
"localFiles.readFile.lineRange": "Linhas {{start}} - {{end}}",
"localFiles.readFileError": "Falha ao ler o arquivo, verifique se o caminho está correto",
"localFiles.readFiles": "Ler Arquivos",
"localFiles.readFilesError": "Falha ao ler os arquivos, verifique se o caminho está correto",
"localFiles.searchFiles.keywords": "Palavras-chave",
"localFiles.securityBlacklist.warning": "Alerta de Segurança: Esta operação foi sinalizada pelas regras de segurança e requer sua aprovação explícita.",
"localFiles.writeFile.characters": "caracteres",
"localFiles.writeFile.preview": "Prévia do Conteúdo",
"localFiles.writeFile.truncated": "truncado",
@ -136,6 +146,31 @@
"search.summary": "Resumo",
"search.summaryTooltip": "Resumir o conteúdo atual",
"search.viewMoreResults": "Ver mais {{results}} resultados",
"securityBlacklist.awsCredentials": "Acessar credenciais da AWS pode expor chaves de acesso à nuvem",
"securityBlacklist.browserCredentials": "Acessar o armazenamento de credenciais do navegador pode expor senhas",
"securityBlacklist.chownSystemDirs": "Alterar a propriedade de diretórios do sistema é perigoso",
"securityBlacklist.ddDiskWrite": "Gravar dados aleatórios em dispositivos de disco pode destruir dados",
"securityBlacklist.directMemoryAccess": "Acesso direto à memória é extremamente perigoso",
"securityBlacklist.disableFirewall": "Desativar o firewall expõe o sistema a ataques",
"securityBlacklist.dockerConfig": "Ler a configuração do Docker pode expor credenciais de registro",
"securityBlacklist.envFiles": "Ler arquivos .env pode expor credenciais sensíveis e chaves de API",
"securityBlacklist.etcPasswd": "Modificar /etc/passwd pode bloquear seu acesso ao sistema",
"securityBlacklist.forkBomb": "Fork bomb pode travar o sistema",
"securityBlacklist.formatPartition": "Formatar partições do sistema destruirá os dados",
"securityBlacklist.gcpCredentials": "Ler credenciais do GCP pode expor chaves de contas de serviço na nuvem",
"securityBlacklist.gitCredentials": "Ler o arquivo de credenciais do Git pode expor tokens de acesso",
"securityBlacklist.historyFiles": "Ler arquivos de histórico pode expor comandos sensíveis e credenciais",
"securityBlacklist.kernelParams": "Modificar parâmetros do kernel sem conhecimento pode travar o sistema",
"securityBlacklist.kubeConfig": "Ler a configuração do Kubernetes pode expor credenciais do cluster",
"securityBlacklist.npmrc": "Ler o arquivo de token do npm pode expor credenciais do registro de pacotes",
"securityBlacklist.removeSystemPackages": "Remover pacotes essenciais do sistema pode quebrar o sistema",
"securityBlacklist.rmForceRecursive": "Exclusão forçada e recursiva sem alvo específico é muito perigosa",
"securityBlacklist.rmHomeDir": "Exclusão recursiva do diretório pessoal é extremamente perigosa",
"securityBlacklist.rmRootDir": "Exclusão recursiva do diretório raiz destruirá o sistema",
"securityBlacklist.sshConfig": "Alterar a configuração do SSH pode bloquear seu acesso",
"securityBlacklist.sshPrivateKeys": "Ler chaves privadas SSH pode comprometer a segurança do sistema",
"securityBlacklist.sudoers": "Modificar o arquivo sudoers sem validação adequada é perigoso",
"securityBlacklist.suidShells": "Definir SUID em shells ou interpretadores é um risco de segurança",
"updateArgs.duplicateKeyError": "A chave do campo deve ser única",
"updateArgs.form.add": "Adicionar Item",
"updateArgs.form.key": "Chave do Campo",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "Копия {{title}}",
"emptyAgent": "Пока нет агентов. Начните с первого агента — со временем выстроите свою систему.",
"emptyAgentAction": "Создать агента",
"extendParams.disableContextCaching.desc": "Снижает стоимость генерации одного диалога до 90% и увеличивает скорость до 4 раз. При включении автоматически снимается ограничение на количество исторических сообщений. <1>Подробнее</1>",
"extendParams.disableContextCaching.desc": "Снизьте затраты на генерацию одного диалога до 90% и увеличьте скорость до 4 раз. <1>Узнать больше</1>",
"extendParams.disableContextCaching.title": "Включить кэширование контекста",
"extendParams.effort.desc": "Управляйте количеством токенов, которые Клод использует при ответе, с помощью параметра усилия.",
"extendParams.effort.title": "Усилие",
"extendParams.enableAdaptiveThinking.desc": "Позвольте Клоду динамически решать, когда и сколько размышлять, с помощью режима адаптивного мышления.",
"extendParams.enableAdaptiveThinking.title": "Включить адаптивное мышление",
"extendParams.enableReasoning.desc": "На основе механизма мышления Claude. При включении автоматически снимается ограничение на количество исторических сообщений. <1>Подробнее</1>",
"extendParams.enableReasoning.desc": "Основано на ограничениях механизма мышления Claude. <1>Узнать больше</1>",
"extendParams.enableReasoning.title": "Включить глубокое мышление",
"extendParams.imageAspectRatio.title": "Соотношение сторон изображения",
"extendParams.imageResolution.title": "Разрешение изображения",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Удалить и сгенерировать заново",
"messageAction.deleteDisabledByThreads": "Это сообщение содержит подтему и не может быть удалено",
"messageAction.expand": "Развернуть сообщение",
"messageAction.reaction": "Добавить реакцию",
"messageAction.regenerate": "Сгенерировать заново",
"messages.dm.sentTo": "Видно только для {{name}}",
"messages.dm.title": "ЛС",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet превосходно справляется с программированием, написанием текстов и сложными логическими задачами.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet с расширенным мышлением для выполнения сложных логических задач.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet — обновлённая версия с расширенным контекстом и улучшенными возможностями.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 — быстрый и эффективный модель для выполнения различных задач.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для высокосложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, демонстрирующая выдающиеся результаты в производительности, интеллекте, беглости и понимании.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 способен выдавать почти мгновенные ответы или пошаговые рассуждения с видимым процессом.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
"claude-sonnet-4.description": "Claude Sonnet 4 — модель нового поколения с улучшенной производительностью во всех задачах.",
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
"codegemma.description": "CodeGemma — легковесная модель для различных задач программирования, обеспечивающая быструю итерацию и интеграцию.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Модель встраивания текста, ориентированная на английский язык, оптимизирована для задач на английском и программировании.",
"google/text-multilingual-embedding-002.description": "Многоязычная модель встраивания текста, оптимизированная для кросс-языковых задач на множестве языков.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo — быстрая и эффективная модель для выполнения различных задач.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo для задач генерации и понимания текста, оптимизирован для выполнения инструкций.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-32k-0613.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для интеграции информации и анализа данных в сложных сценариях.",
"gpt-4-32k.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для интеграции информации и анализа данных в сложных сценариях.",
"gpt-4-o-preview.description": "GPT-4o — самая продвинутая мультимодальная модель, обрабатывающая текстовые и графические данные.",
"gpt-4-turbo-2024-04-09.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-turbo-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-turbo.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-vision-preview.description": "Предварительная версия GPT-4 Vision, предназначенная для анализа и обработки изображений.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 — флагманская модель для сложных задач, идеально подходит для междисциплинарного решения проблем.",
"gpt-4.1-mini.description": "GPT-4.1 mini сочетает интеллект, скорость и экономичность, что делает его привлекательным для множества сценариев использования.",
"gpt-4.1-nano.description": "GPT-4.1 nano — самая быстрая и экономичная модель в линейке GPT-4.1.",
"gpt-4.1.description": "GPT-4.1 — наша флагманская модель для решения сложных задач и междисциплинарных проблем.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени. Она сочетает в себе мощное языковое понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая глубокое понимание и генерацию текста для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"gpt-4o-audio-preview.description": "Предварительная версия GPT-4o Audio с поддержкой аудиовхода и аудиовыхода.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini — экономичное решение для широкого спектра задач с текстом и изображениями.",
"gpt-4o-mini-audio-preview.description": "Модель GPT-4o mini Audio с поддержкой аудиовхода и аудиовыхода.",
"gpt-4o-mini-realtime-preview.description": "Вариант GPT-4o-mini с поддержкой аудио и текста в режиме реального времени.",
"gpt-4o-mini-search-preview.description": "Предварительная версия GPT-4o mini Search обучена понимать и выполнять веб-поисковые запросы через API Chat Completions. Поиск в интернете тарифицируется отдельно за каждый вызов инструмента, помимо стоимости токенов.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "Улучшенный и более производительный вариант модели встраивания ada от OpenAI.",
"openai/text-embedding-ada-002.description": "Устаревшая модель встраивания текста от OpenAI.",
"openrouter/auto.description": "В зависимости от длины контекста, темы и сложности ваш запрос направляется в Llama 3 70B Instruct, Claude 3.5 Sonnet (с самомодерацией) или GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini — предварительная модель, оптимизированная для задач, связанных с программированием.",
"oswe-vscode-secondary.description": "Raptor mini — предварительная модель, оптимизированная для задач, связанных с программированием.",
"perplexity/sonar-pro.description": "Флагманский продукт Perplexity с привязкой к поиску, поддерживающий сложные запросы и уточнения.",
"perplexity/sonar-reasoning-pro.description": "Продвинутая модель, ориентированная на рассуждение, выводящая цепочку мыслей с расширенным поиском, включая несколько поисковых запросов на один запрос.",
"perplexity/sonar-reasoning.description": "Модель, ориентированная на рассуждение, выводящая цепочку мыслей с подробными объяснениями, основанными на поиске.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct использует 80 миллиардов параметров, из которых активно 13 миллиардов, обеспечивая производительность, сопоставимую с более крупными моделями. Поддерживает гибридное быстрое/медленное рассуждение, стабильное понимание длинных текстов и лидирующие возможности агентов на BFCL-v3 и τ-Bench. Поддержка GQA и мульти-квантованных форматов обеспечивает эффективный вывод.",
"tencent/Hunyuan-MT-7B.description": "Модель перевода Hunyuan включает Hunyuan-MT-7B и ансамбль Hunyuan-MT-Chimera. Hunyuan-MT-7B — это легковесная модель на 7 миллиардов параметров, поддерживающая 33 языка и 5 языков китайских меньшинств. На WMT25 заняла первое место в 30 из 31 языковой пары. Tencent Hunyuan использует полный цикл обучения от предобучения до SFT, RL для перевода и ансамблевого RL, достигая выдающейся производительности при компактных размерах и легкости развертывания.",
"text-embedding-3-large.description": "Самая мощная модель встраивания для задач на английском и других языках.",
"text-embedding-3-small-inference.description": "Embedding V3 small (Inference) — модель для создания текстовых эмбеддингов.",
"text-embedding-3-small.description": "Эффективная и экономичная модель встраивания нового поколения для поиска и RAG-сценариев.",
"text-embedding-ada-002.description": "Embedding V2 Ada — модель для создания текстовых эмбеддингов.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 — это 32-миллиардная билингвальная модель (китайский/английский) с открытым доступом к весам, оптимизированная для генерации кода, вызова функций и задач агентов. Предобучена на 15Т высококачественных данных с акцентом на рассуждение и дополнительно дообучена с учетом предпочтений человека, выборочного отклонения и RL. Отличается выдающимися способностями к сложным рассуждениям, генерации артефактов и структурированному выводу, достигая уровня GPT-4o и DeepSeek-V3-0324 на множестве бенчмарков.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 — это 32-миллиардная билингвальная модель (китайский/английский) с открытым доступом к весам, оптимизированная для генерации кода, вызова функций и задач агентов. Предобучена на 15Т высококачественных данных с акцентом на рассуждение и дополнительно дообучена с учетом предпочтений человека, выборочного отклонения и RL. Отличается выдающимися способностями к сложным рассуждениям, генерации артефактов и структурированному выводу, достигая уровня GPT-4o и DeepSeek-V3-0324 на множестве бенчмарков.",
"thudm/glm-4-9b-chat.description": "Открытая версия последней предобученной модели GLM-4 от Zhipu AI.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Заменить только первое вхождение",
"localFiles.file": "Файл",
"localFiles.folder": "Папка",
"localFiles.globFiles.pattern": "Шаблон",
"localFiles.grepContent.glob": "Фильтр файлов",
"localFiles.grepContent.pattern": "Шаблон поиска",
"localFiles.grepContent.type": "Тип файла",
"localFiles.moveFiles.itemsMoved": "Перемещено: {{count}} элемент(ов):",
"localFiles.moveFiles.itemsMoved_one": "Перемещён {{count}} элемент:",
"localFiles.moveFiles.itemsMoved_other": "Перемещено {{count}} элементов:",
@ -95,11 +99,17 @@
"localFiles.open": "Открыть",
"localFiles.openFile": "Открыть файл",
"localFiles.openFolder": "Открыть папку",
"localFiles.outOfScope.requestedPaths": "Запрошенные пути",
"localFiles.outOfScope.warning": "Предупреждение: Следующие пути находятся за пределами настроенной рабочей директории. Пожалуйста, подтвердите, что вы хотите разрешить доступ.",
"localFiles.outOfScope.workingDirectory": "Рабочая директория",
"localFiles.read.more": "Показать больше",
"localFiles.readFile": "Прочитать файл",
"localFiles.readFile.lineRange": "Строки {{start}} - {{end}}",
"localFiles.readFileError": "Не удалось прочитать файл, проверьте правильность пути",
"localFiles.readFiles": "Прочитать файлы",
"localFiles.readFilesError": "Не удалось прочитать файлы, проверьте правильность пути",
"localFiles.searchFiles.keywords": "Ключевые слова",
"localFiles.securityBlacklist.warning": "Предупреждение безопасности: Эта операция была отмечена правилами безопасности и требует вашего явного подтверждения.",
"localFiles.writeFile.characters": "символов",
"localFiles.writeFile.preview": "Предпросмотр содержимого",
"localFiles.writeFile.truncated": "усечено",
@ -136,6 +146,31 @@
"search.summary": "Резюме",
"search.summaryTooltip": "Суммировать текущее содержимое",
"search.viewMoreResults": "Показать ещё {{results}} результатов",
"securityBlacklist.awsCredentials": "Доступ к учетным данным AWS может привести к утечке ключей доступа к облаку",
"securityBlacklist.browserCredentials": "Доступ к хранилищу учетных данных браузера может привести к утечке паролей",
"securityBlacklist.chownSystemDirs": "Изменение владельца системных директорий опасно",
"securityBlacklist.ddDiskWrite": "Запись случайных данных на дисковые устройства может уничтожить данные",
"securityBlacklist.directMemoryAccess": "Прямой доступ к памяти чрезвычайно опасен",
"securityBlacklist.disableFirewall": "Отключение брандмауэра подвергает систему атакам",
"securityBlacklist.dockerConfig": "Чтение конфигурации Docker может привести к утечке учетных данных реестра",
"securityBlacklist.envFiles": "Чтение файлов .env может привести к утечке конфиденциальных данных и API-ключей",
"securityBlacklist.etcPasswd": "Изменение /etc/passwd может заблокировать доступ к системе",
"securityBlacklist.forkBomb": "Форк-бомба может привести к сбою системы",
"securityBlacklist.formatPartition": "Форматирование системных разделов уничтожит данные",
"securityBlacklist.gcpCredentials": "Чтение учетных данных GCP может привести к утечке ключей сервисных аккаунтов",
"securityBlacklist.gitCredentials": "Чтение файла учетных данных Git может привести к утечке токенов доступа",
"securityBlacklist.historyFiles": "Чтение файлов истории может раскрыть конфиденциальные команды и учетные данные",
"securityBlacklist.kernelParams": "Изменение параметров ядра без должного понимания может привести к сбою системы",
"securityBlacklist.kubeConfig": "Чтение конфигурации Kubernetes может привести к утечке учетных данных кластера",
"securityBlacklist.npmrc": "Чтение файла токена npm может привести к утечке учетных данных реестра пакетов",
"securityBlacklist.removeSystemPackages": "Удаление критически важных системных пакетов может нарушить работу системы",
"securityBlacklist.rmForceRecursive": "Принудительное рекурсивное удаление без указания цели слишком опасно",
"securityBlacklist.rmHomeDir": "Рекурсивное удаление домашней директории чрезвычайно опасно",
"securityBlacklist.rmRootDir": "Рекурсивное удаление корневой директории уничтожит систему",
"securityBlacklist.sshConfig": "Изменение конфигурации SSH может заблокировать доступ",
"securityBlacklist.sshPrivateKeys": "Чтение приватных ключей SSH может поставить под угрозу безопасность системы",
"securityBlacklist.sudoers": "Изменение файла sudoers без должной проверки опасно",
"securityBlacklist.suidShells": "Установка SUID на оболочки или интерпретаторы представляет угрозу безопасности",
"updateArgs.duplicateKeyError": "Ключ поля должен быть уникальным",
"updateArgs.form.add": "Добавить элемент",
"updateArgs.form.key": "Ключ поля",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} Kopyası",
"emptyAgent": "Henüz Ajan yok. İlk Ajanınızı oluşturarak sisteminizi zamanla inşa edin.",
"emptyAgentAction": "Ajan Oluştur",
"extendParams.disableContextCaching.desc": "Tek bir konuşmanın üretim maliyetini %90'a kadar azaltır ve 4 kata kadar hız sağlar. Bu özellik etkinleştirildiğinde, geçmiş mesaj sayısı sınırı otomatik olarak devre dışı bırakılır. <1>Daha fazla bilgi edinin</1>",
"extendParams.disableContextCaching.desc": "Tek bir konuşma oluşturma maliyetini %90'a kadar azaltın ve 4 kata kadar hız kazanın. <1>Daha fazla bilgi edinin</1>",
"extendParams.disableContextCaching.title": "Bağlam Önbelleğini Etkinleştir",
"extendParams.effort.desc": "Claude'un yanıt verirken kaç token kullanacağını çaba parametresiyle kontrol edin.",
"extendParams.effort.title": "Çaba",
"extendParams.enableAdaptiveThinking.desc": "Claude'un ne zaman ve ne kadar düşüneceğine uyarlanabilir düşünme modu ile dinamik olarak karar vermesine izin verin.",
"extendParams.enableAdaptiveThinking.title": "Uyarlanabilir Düşünmeyi Etkinleştir",
"extendParams.enableReasoning.desc": "Claude Düşünme mekanizması sınırına dayalı olarak, bu özellik etkinleştirildiğinde geçmiş mesaj sayısı sınırı otomatik olarak devre dışı bırakılır. <1>Daha fazla bilgi edinin</1>",
"extendParams.enableReasoning.desc": "Claude Düşünme mekanizması sınırına dayalıdır. <1>Daha fazla bilgi edinin</1>",
"extendParams.enableReasoning.title": "Derin Düşünmeyi Etkinleştir",
"extendParams.imageAspectRatio.title": "Görüntü En-Boy Oranı",
"extendParams.imageResolution.title": "Görüntü Çözünürlüğü",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Sil ve Yeniden Oluştur",
"messageAction.deleteDisabledByThreads": "Bu mesajın bir alt konusu var ve silinemez",
"messageAction.expand": "Mesajı Genişlet",
"messageAction.reaction": "Tepki Ekle",
"messageAction.regenerate": "Yeniden Oluştur",
"messages.dm.sentTo": "Yalnızca {{name}} tarafından görülebilir",
"messages.dm.title": "ÖM",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropicin en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropicin en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet, kodlama, yazma ve karmaşık akıl yürütme konularında üstün performans gösterir.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet, karmaşık akıl yürütme görevleri için geliştirilmiş düşünme yeteneğine sahiptir.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet, genişletilmiş bağlam ve yeteneklerle geliştirilmiş bir versiyondur.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında çalışır ve gelişmiş akıl yürütme yeteneklerine sahiptir.",
"claude-haiku-4.5.description": "Claude Haiku 4.5, çeşitli görevler için hızlı ve verimli bir modeldir.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic'in en yeni ve en yetenekli modelidir; karmaşık görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in karmaşık görevler için en güçlü modelidir; performans, zeka, akıcılık ve kavrama açısından öne çıkar.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya görünür adım adım düşünme süreciyle uzun yanıtlar üretebilir.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic'in bugüne kadarki en zeki modelidir.",
"claude-sonnet-4.description": "Claude Sonnet 4, tüm görevlerde geliştirilmiş performansa sahip en yeni nesil modeldir.",
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
"codegemma.description": "CodeGemma, hızlı yineleme ve entegrasyon sağlayan hafif bir programlama modelidir.",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "Kod ve İngilizce dil görevleri için optimize edilmiş, İngilizce odaklı bir metin gömme modeli.",
"google/text-multilingual-embedding-002.description": "Birçok dilde çapraz dil görevleri için optimize edilmiş çok dilli metin gömme modeli.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo, metin üretimi ve anlama için kullanılır; şu anda gpt-3.5-turbo-0125 sürümüne işaret eder.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo, çeşitli görevler için hızlı ve verimli bir modeldir.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo, metin üretimi ve anlama için kullanılır; şu anda gpt-3.5-turbo-0125 sürümüne işaret eder.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo, yönerge takibi için optimize edilmiş metin üretimi ve anlama görevleri için kullanılır.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo, metin üretimi ve anlama için kullanılır; şu anda gpt-3.5-turbo-0125 sürümüne işaret eder.",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
"gpt-4-32k-0613.description": "GPT-4, kapsamlı bilgi entegrasyonu ve veri analizi gerektiren senaryolar için daha uzun girdileri işleyebilen geniş bir bağlam penceresi sunar.",
"gpt-4-32k.description": "GPT-4, kapsamlı bilgi entegrasyonu ve veri analizi gerektiren senaryolar için daha uzun girdileri işleyebilen geniş bir bağlam penceresi sunar.",
"gpt-4-o-preview.description": "GPT-4o, metin ve görsel girdileri işleyebilen en gelişmiş çok modlu modeldir.",
"gpt-4-turbo-2024-04-09.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
"gpt-4-turbo-preview.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
"gpt-4-turbo.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
"gpt-4-vision-preview.description": "GPT-4 Vision önizlemesi, görsel analiz ve işleme görevleri için tasarlanmıştır.",
"gpt-4.1-2025-04-14.description": "GPT-4.1, karmaşık görevler için amiral gemisi model olup, alanlar arası problem çözümünde idealdir.",
"gpt-4.1-mini.description": "GPT-4.1 mini, zeka, hız ve maliyet arasında denge kurarak birçok kullanım senaryosu için cazip hale gelir.",
"gpt-4.1-nano.description": "GPT-4.1 nano, en hızlı ve en uygun maliyetli GPT-4.1 modelidir.",
"gpt-4.1.description": "GPT-4.1, karmaşık görevler ve çok alanlı problem çözümü için amiral gemisi modelimizdir.",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü dil anlama ve üretim yeteneklerini birleştiren, gerçek zamanlı olarak güncellenen dinamik bir modeldir.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştiren, gerçek zamanlı olarak güncellenen dinamik bir modeldir.",
"gpt-4o-audio-preview.description": "Ses girdi ve çıktısını destekleyen GPT-4o Ses Önizleme modeli.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini, çok çeşitli metin ve görsel görevler için uygun maliyetli bir çözümdür.",
"gpt-4o-mini-audio-preview.description": "Ses girdi ve çıktısını destekleyen GPT-4o mini Ses modeli.",
"gpt-4o-mini-realtime-preview.description": "Gerçek zamanlı ses ve metin giriş/çıkışı destekleyen GPT-4o-mini gerçek zamanlı varyantı.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Arama Önizlemesi, Chat Completions API aracılığıyla web arama sorgularını anlamak ve yürütmek üzere eğitilmiştir. Web aramaları, belirteç maliyetlerine ek olarak araç çağrısı başına faturalandırılır.",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "OpenAInin geliştirilmiş, yüksek performanslı ada gömme modeli varyantıdır.",
"openai/text-embedding-ada-002.description": "OpenAInin eski metin gömme modelidir.",
"openrouter/auto.description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz Llama 3 70B Instruct, Claude 3.5 Sonnet (kendi kendini denetleyen) veya GPT-4oya yönlendirilir.",
"oswe-vscode-prime.description": "Raptor mini, kodla ilgili görevler için optimize edilmiş bir önizleme modelidir.",
"oswe-vscode-secondary.description": "Raptor mini, kodla ilgili görevler için optimize edilmiş bir önizleme modelidir.",
"perplexity/sonar-pro.description": "Perplexitynin gelişmiş sorgular ve takipler için arama temelli amiral gemisi ürünüdür.",
"perplexity/sonar-reasoning-pro.description": "Gelişmiş arama ile CoT çıktısı veren, çoklu arama sorgularını destekleyen akıl yürütme odaklı bir modeldir.",
"perplexity/sonar-reasoning.description": "Detaylı, arama temelli açıklamalarla birlikte zincirleme düşünme (CoT) çıktısı veren akıl yürütme odaklı bir modeldir.",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct, 80B toplam ve 13B aktif parametreyle daha büyük modellerle eşleşir. Hızlı/yavaş hibrit akıl yürütme, kararlı uzun metin anlama ve BFCL-v3 ile τ-Bench üzerinde lider ajan yetenekleri sunar. GQA ve çoklu kuant formatları verimli çıkarım sağlar.",
"tencent/Hunyuan-MT-7B.description": "Hunyuan Çeviri Modeli, Hunyuan-MT-7B ve birleşik Hunyuan-MT-Chimera'yı içerir. Hunyuan-MT-7B, 33 dil ve 5 Çin azınlık dili destekleyen 7B hafif bir çeviri modelidir. WMT25'te 31 dil çifti arasında 30 birincilik elde etmiştir. Tencent Hunyuan, ön eğitimden SFT'ye, çeviri RL'den birleşik RL'ye kadar tam bir eğitim hattı kullanarak boyutuna göre lider performans ve kolay dağıtım sunar.",
"text-embedding-3-large.description": "İngilizce ve İngilizce dışı görevler için en yetenekli gömme modeli.",
"text-embedding-3-small-inference.description": "Metin gömme işlemleri için Embedding V3 küçük (Çıkarım) modeli.",
"text-embedding-3-small.description": "Geri getirme ve RAG senaryoları için verimli, uygun maliyetli yeni nesil gömme modeli.",
"text-embedding-ada-002.description": "Metin gömme işlemleri için Embedding V2 Ada modeli.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414, kod üretimi, fonksiyon çağrısı ve ajan görevleri için optimize edilmiş 32B çift dilli (Çince/İngilizce) açık ağırlıklı modeldir. 15T yüksek kaliteli ve akıl yürütme ağırlıklı veriyle ön eğitilmiş, insan tercihi hizalaması, reddetme örneklemesi ve RL ile daha da iyileştirilmiştir. Karmaşık akıl yürütme, yapılandırılmış çıktı ve yapay ürün üretiminde üst düzey performans gösterir. GPT-4o ve DeepSeek-V3-0324 seviyesinde performansa ulaşır.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414, kod üretimi, fonksiyon çağrısı ve ajan görevleri için optimize edilmiş 32B çift dilli (Çince/İngilizce) açık ağırlıklı modeldir. 15T yüksek kaliteli ve akıl yürütme ağırlıklı veriyle ön eğitilmiş, insan tercihi hizalaması, reddetme örneklemesi ve RL ile daha da iyileştirilmiştir. Karmaşık akıl yürütme, yapılandırılmış çıktı ve yapay ürün üretiminde üst düzey performans gösterir. GPT-4o ve DeepSeek-V3-0324 seviyesinde performansa ulaşır.",
"thudm/glm-4-9b-chat.description": "Zhipu AInin en son GLM-4 ön eğitimli modelinin açık kaynak sürümüdür.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Yalnızca ilkini değiştir",
"localFiles.file": "Dosya",
"localFiles.folder": "Klasör",
"localFiles.globFiles.pattern": "Desen",
"localFiles.grepContent.glob": "Dosya filtresi",
"localFiles.grepContent.pattern": "Arama deseni",
"localFiles.grepContent.type": "Dosya türü",
"localFiles.moveFiles.itemsMoved": "{{count}} öğe taşındı:",
"localFiles.moveFiles.itemsMoved_one": "{{count}} öğe taşındı:",
"localFiles.moveFiles.itemsMoved_other": "{{count}} öğe taşındı:",
@ -95,11 +99,17 @@
"localFiles.open": "Aç",
"localFiles.openFile": "Dosya Aç",
"localFiles.openFolder": "Klasör Aç",
"localFiles.outOfScope.requestedPaths": "İstenen Yollar",
"localFiles.outOfScope.warning": "Uyarı: Aşağıdaki yol(lar) yapılandırılmış çalışma dizininin dışında. Erişime izin vermek istediğinizi lütfen onaylayın.",
"localFiles.outOfScope.workingDirectory": "Çalışma Dizini",
"localFiles.read.more": "Daha Fazla Görüntüle",
"localFiles.readFile": "Dosya Oku",
"localFiles.readFile.lineRange": "Satırlar {{start}} - {{end}}",
"localFiles.readFileError": "Dosya okunamadı, lütfen dosya yolunun doğru olduğundan emin olun",
"localFiles.readFiles": "Dosyaları Oku",
"localFiles.readFilesError": "Dosyalar okunamadı, lütfen dosya yolunun doğru olduğundan emin olun",
"localFiles.searchFiles.keywords": "Anahtar kelimeler",
"localFiles.securityBlacklist.warning": "Güvenlik Uyarısı: Bu işlem güvenlik kuralları tarafından işaretlendi ve açık onayınızı gerektiriyor.",
"localFiles.writeFile.characters": "karakter",
"localFiles.writeFile.preview": "İçerik Önizlemesi",
"localFiles.writeFile.truncated": "kısaltıldı",
@ -136,6 +146,31 @@
"search.summary": "Özet",
"search.summaryTooltip": "Geçerli içeriği özetle",
"search.viewMoreResults": "{{results}} daha fazla sonucu görüntüle",
"securityBlacklist.awsCredentials": "AWS kimlik bilgilerine erişmek bulut erişim anahtarlarını sızdırabilir",
"securityBlacklist.browserCredentials": "Tarayıcı kimlik bilgisi deposuna erişmek şifrelerin sızmasına neden olabilir",
"securityBlacklist.chownSystemDirs": "Sistem dizinlerinin sahipliğini değiştirmek tehlikelidir",
"securityBlacklist.ddDiskWrite": "Disk aygıtlarına rastgele veri yazmak verileri yok edebilir",
"securityBlacklist.directMemoryAccess": "Doğrudan bellek erişimi son derece tehlikelidir",
"securityBlacklist.disableFirewall": "Güvenlik duvarını devre dışı bırakmak sistemi saldırılara açık hale getirir",
"securityBlacklist.dockerConfig": "Docker yapılandırmasını okumak kayıt bilgilerini açığa çıkarabilir",
"securityBlacklist.envFiles": ".env dosyalarını okumak hassas kimlik bilgilerini ve API anahtarlarını sızdırabilir",
"securityBlacklist.etcPasswd": "/etc/passwd dosyasını değiştirmek sistemden çıkışınızı engelleyebilir",
"securityBlacklist.forkBomb": "Fork bombası sistemi çökertir",
"securityBlacklist.formatPartition": "Sistem bölümlerini biçimlendirmek verileri yok eder",
"securityBlacklist.gcpCredentials": "GCP kimlik bilgilerini okumak bulut hizmet hesabı anahtarlarını sızdırabilir",
"securityBlacklist.gitCredentials": "Git kimlik bilgileri dosyasını okumak erişim belirteçlerini sızdırabilir",
"securityBlacklist.historyFiles": "Geçmiş dosyalarını okumak hassas komutları ve kimlik bilgilerini açığa çıkarabilir",
"securityBlacklist.kernelParams": "Çekirdek parametrelerini anlamadan değiştirmek sistemi çökertir",
"securityBlacklist.kubeConfig": "Kubernetes yapılandırmasını okumak küme kimlik bilgilerini açığa çıkarabilir",
"securityBlacklist.npmrc": "npm belirteç dosyasını okumak paket kayıt bilgilerini sızdırabilir",
"securityBlacklist.removeSystemPackages": "Temel sistem paketlerini kaldırmak sistemi bozabilir",
"securityBlacklist.rmForceRecursive": "Belirli bir hedef olmadan zorla yinelemeli silme işlemi çok tehlikelidir",
"securityBlacklist.rmHomeDir": "Ev dizininin yinelemeli olarak silinmesi son derece tehlikelidir",
"securityBlacklist.rmRootDir": "Kök dizinin yinelemeli olarak silinmesi sistemi yok eder",
"securityBlacklist.sshConfig": "SSH yapılandırmasını değiştirmek sistemden çıkışınızı engelleyebilir",
"securityBlacklist.sshPrivateKeys": "SSH özel anahtarlarını okumak sistem güvenliğini tehlikeye atabilir",
"securityBlacklist.sudoers": "Sudoers dosyasını uygun doğrulama olmadan değiştirmek tehlikelidir",
"securityBlacklist.suidShells": "Kabuklara veya yorumlayıcılara SUID ayarlamak güvenlik riski oluşturur",
"updateArgs.duplicateKeyError": "Alan anahtarı benzersiz olmalıdır",
"updateArgs.form.add": "Öğe Ekle",
"updateArgs.form.key": "Alan Anahtarı",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "Bản sao {{title}}",
"emptyAgent": "Chưa có Tác nhân nào. Bắt đầu với Tác nhân đầu tiên của bạn—xây dựng hệ thống theo thời gian.",
"emptyAgentAction": "Tạo Tác nhân",
"extendParams.disableContextCaching.desc": "Giảm đến 90% chi phí tạo một cuộc hội thoại và tăng tốc độ lên đến 4 lần. Bật tính năng này sẽ tự động vô hiệu hóa giới hạn số lượng tin nhắn lịch sử. <1>Tìm hiểu thêm</1>",
"extendParams.disableContextCaching.desc": "Giảm tới 90% chi phí tạo một cuộc hội thoại và tăng tốc độ lên đến 4 lần. <1>Tìm hiểu thêm</1>",
"extendParams.disableContextCaching.title": "Bật bộ nhớ đệm ngữ cảnh",
"extendParams.effort.desc": "Điều chỉnh số lượng token Claude sử dụng khi phản hồi bằng tham số nỗ lực.",
"extendParams.effort.title": "Nỗ lực",
"extendParams.enableAdaptiveThinking.desc": "Cho phép Claude tự động quyết định thời điểm và mức độ suy nghĩ với chế độ tư duy thích ứng.",
"extendParams.enableAdaptiveThinking.title": "Bật Tư Duy Thích Ứng",
"extendParams.enableReasoning.desc": "Dựa trên giới hạn cơ chế Suy nghĩ của Claude, bật tính năng này sẽ tự động vô hiệu hóa giới hạn số lượng tin nhắn lịch sử. <1>Tìm hiểu thêm</1>",
"extendParams.enableReasoning.desc": "Dựa trên giới hạn cơ chế Tư duy của Claude. <1>Tìm hiểu thêm</1>",
"extendParams.enableReasoning.title": "Bật Suy nghĩ sâu",
"extendParams.imageAspectRatio.title": "Tỷ lệ khung hình",
"extendParams.imageResolution.title": "Độ phân giải hình ảnh",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "Xóa và tạo lại",
"messageAction.deleteDisabledByThreads": "Tin nhắn này có chủ đề phụ và không thể xóa",
"messageAction.expand": "Mở rộng tin nhắn",
"messageAction.reaction": "Thêm phản ứng",
"messageAction.regenerate": "Tạo lại",
"messages.dm.sentTo": "Chỉ hiển thị với {{name}}",
"messages.dm.title": "Tin nhắn riêng",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet vượt trội trong lập trình, viết lách và tư duy phức tạp.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet với khả năng tư duy mở rộng cho các nhiệm vụ suy luận phức tạp.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet là phiên bản nâng cấp với ngữ cảnh mở rộng và khả năng vượt trội.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng suy luận mở rộng.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 là mô hình nhanh và hiệu quả cho nhiều tác vụ khác nhau.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc suy nghĩ từng bước với quy trình hiển thị rõ ràng.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic tính đến thời điểm hiện tại.",
"claude-sonnet-4.description": "Claude Sonnet 4 là thế hệ mới nhất với hiệu suất được cải thiện trên mọi tác vụ.",
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
"codegemma.description": "CodeGemma là mô hình nhẹ cho các tác vụ lập trình đa dạng, cho phép lặp lại nhanh và tích hợp dễ dàng.",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "Chỉ thay thế lần đầu",
"localFiles.file": "Tệp",
"localFiles.folder": "Thư mục",
"localFiles.globFiles.pattern": "Mẫu",
"localFiles.grepContent.glob": "Bộ lọc tệp",
"localFiles.grepContent.pattern": "Mẫu tìm kiếm",
"localFiles.grepContent.type": "Loại tệp",
"localFiles.moveFiles.itemsMoved": "Đã di chuyển {{count}} mục:",
"localFiles.moveFiles.itemsMoved_one": "Đã di chuyển {{count}} mục:",
"localFiles.moveFiles.itemsMoved_other": "Đã di chuyển {{count}} mục:",
@ -95,11 +99,17 @@
"localFiles.open": "Mở",
"localFiles.openFile": "Mở tệp",
"localFiles.openFolder": "Mở thư mục",
"localFiles.outOfScope.requestedPaths": "Đường dẫn yêu cầu",
"localFiles.outOfScope.warning": "Cảnh báo: Các đường dẫn sau nằm ngoài thư mục làm việc đã cấu hình. Vui lòng xác nhận nếu bạn muốn cho phép truy cập.",
"localFiles.outOfScope.workingDirectory": "Thư mục làm việc",
"localFiles.read.more": "Xem thêm",
"localFiles.readFile": "Đọc tệp",
"localFiles.readFile.lineRange": "Dòng {{start}} - {{end}}",
"localFiles.readFileError": "Không thể đọc tệp, vui lòng kiểm tra đường dẫn tệp",
"localFiles.readFiles": "Đọc các tệp",
"localFiles.readFilesError": "Không thể đọc các tệp, vui lòng kiểm tra đường dẫn tệp",
"localFiles.searchFiles.keywords": "Từ khóa",
"localFiles.securityBlacklist.warning": "Cảnh báo bảo mật: Thao tác này đã bị đánh dấu bởi các quy tắc bảo mật và cần sự chấp thuận rõ ràng của bạn.",
"localFiles.writeFile.characters": "ký tự",
"localFiles.writeFile.preview": "Xem trước nội dung",
"localFiles.writeFile.truncated": "đã rút gọn",
@ -136,6 +146,31 @@
"search.summary": "Tóm tắt",
"search.summaryTooltip": "Tóm tắt nội dung hiện tại",
"search.viewMoreResults": "Xem thêm {{results}} kết quả",
"securityBlacklist.awsCredentials": "Truy cập thông tin xác thực AWS có thể làm rò rỉ khóa truy cập đám mây",
"securityBlacklist.browserCredentials": "Truy cập kho lưu trữ thông tin đăng nhập trình duyệt có thể làm rò rỉ mật khẩu",
"securityBlacklist.chownSystemDirs": "Thay đổi quyền sở hữu thư mục hệ thống là hành động nguy hiểm",
"securityBlacklist.ddDiskWrite": "Ghi dữ liệu ngẫu nhiên vào thiết bị lưu trữ có thể phá hủy dữ liệu",
"securityBlacklist.directMemoryAccess": "Truy cập bộ nhớ trực tiếp là cực kỳ nguy hiểm",
"securityBlacklist.disableFirewall": "Tắt tường lửa sẽ khiến hệ thống dễ bị tấn công",
"securityBlacklist.dockerConfig": "Đọc cấu hình Docker có thể làm lộ thông tin đăng nhập registry",
"securityBlacklist.envFiles": "Đọc tệp .env có thể làm rò rỉ thông tin xác thực và khóa API nhạy cảm",
"securityBlacklist.etcPasswd": "Sửa đổi /etc/passwd có thể khiến bạn bị khóa khỏi hệ thống",
"securityBlacklist.forkBomb": "Fork bomb có thể làm sập hệ thống",
"securityBlacklist.formatPartition": "Định dạng phân vùng hệ thống sẽ phá hủy dữ liệu",
"securityBlacklist.gcpCredentials": "Đọc thông tin xác thực GCP có thể làm rò rỉ khóa tài khoản dịch vụ đám mây",
"securityBlacklist.gitCredentials": "Đọc tệp thông tin xác thực Git có thể làm lộ mã truy cập",
"securityBlacklist.historyFiles": "Đọc tệp lịch sử có thể làm lộ lệnh và thông tin đăng nhập nhạy cảm",
"securityBlacklist.kernelParams": "Sửa đổi tham số kernel mà không hiểu rõ có thể làm sập hệ thống",
"securityBlacklist.kubeConfig": "Đọc cấu hình Kubernetes có thể làm lộ thông tin xác thực cụm",
"securityBlacklist.npmrc": "Đọc tệp token npm có thể làm lộ thông tin đăng nhập registry gói",
"securityBlacklist.removeSystemPackages": "Gỡ bỏ các gói hệ thống thiết yếu có thể làm hỏng hệ thống",
"securityBlacklist.rmForceRecursive": "Xóa đệ quy cưỡng bức mà không chỉ định mục tiêu cụ thể là quá nguy hiểm",
"securityBlacklist.rmHomeDir": "Xóa đệ quy thư mục chính là hành động cực kỳ nguy hiểm",
"securityBlacklist.rmRootDir": "Xóa đệ quy thư mục gốc sẽ phá hủy toàn bộ hệ thống",
"securityBlacklist.sshConfig": "Thay đổi cấu hình SSH có thể khiến bạn bị khóa khỏi hệ thống",
"securityBlacklist.sshPrivateKeys": "Đọc khóa riêng SSH có thể làm tổn hại đến bảo mật hệ thống",
"securityBlacklist.sudoers": "Sửa đổi tệp sudoers mà không xác thực đúng cách là hành động nguy hiểm",
"securityBlacklist.suidShells": "Thiết lập SUID cho shell hoặc trình thông dịch là rủi ro bảo mật",
"updateArgs.duplicateKeyError": "Khóa trường phải là duy nhất",
"updateArgs.form.add": "Thêm mục",
"updateArgs.form.key": "Khóa trường",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} 副本",
"emptyAgent": "还没有助理。从第一个助理开始,慢慢搭建你的助理体系",
"emptyAgentAction": "创建助理",
"extendParams.disableContextCaching.desc": "最多可减少90%的单次对话生成成本并将速度提升至最多4倍。启用此功能将自动取消历史消息数量的限制。<1>了解更多</1>",
"extendParams.disableContextCaching.desc": "最多可减少90%的单次对话生成成本并将速度提升至最多4倍。<1>了解更多</1>",
"extendParams.disableContextCaching.title": "开启上下文缓存",
"extendParams.effort.desc": "通过设置努力参数,控制 Claude 在回应时使用的 token 数量。",
"extendParams.effort.title": "努力程度",
"extendParams.enableAdaptiveThinking.desc": "启用自适应思维模式,让 Claude 动态决定思考的时机和深度。",
"extendParams.enableAdaptiveThinking.title": "启用自适应思维",
"extendParams.enableReasoning.desc": "基于Claude推理机制的限制,启用此功能将自动取消历史消息数量的限制。<1>了解更多</1>",
"extendParams.enableReasoning.desc": "基于Claude推理机制的限制。<1>了解更多</1>",
"extendParams.enableReasoning.title": "开启深度思考",
"extendParams.imageAspectRatio.title": "图片宽高比",
"extendParams.imageResolution.title": "图片分辨率",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet 擅长编程、写作和复杂推理。",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet 具备扩展思维能力,适用于复杂推理任务。",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet 是升级版本,具备更强的上下文理解和处理能力。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的速度和增强的推理能力。",
"claude-haiku-4.5.description": "Claude Haiku 4.5 是一款高效快速的模型,适用于多种任务。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,专为处理高度复杂的任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,擅长处理高度复杂的任务,在性能、智能、流畅性和理解力方面均表现出色。",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能够快速响应,也能进行可视化的逐步思考过程。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
"claude-sonnet-4.description": "Claude Sonnet 4 是最新一代模型,在各类任务中表现更为出色。",
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
"codegemma.description": "CodeGemma 是一款轻量级模型,适用于多种编程任务,支持快速迭代与集成。",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "一款专注于英文任务的文本嵌入模型,针对代码和英文任务进行了优化。",
"google/text-multilingual-embedding-002.description": "一款多语言文本嵌入模型,针对跨语言任务进行了优化,支持多种语言。",
"gpt-3.5-turbo-0125.description": "GPT-3.5 Turbo 用于文本生成与理解;当前指向 gpt-3.5-turbo-0125。",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo 是一款高效快速的模型,适用于多种任务。",
"gpt-3.5-turbo-1106.description": "GPT-3.5 Turbo 用于文本生成与理解;当前指向 gpt-3.5-turbo-0125。",
"gpt-3.5-turbo-instruct.description": "GPT-3.5 Turbo 优化用于指令跟随的文本生成与理解任务。",
"gpt-3.5-turbo.description": "GPT-3.5 Turbo 用于文本生成与理解;当前指向 gpt-3.5-turbo-0125。",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "最新的 GPT-4 Turbo 增加了视觉能力。视觉请求支持 JSON 模式与函数调用。该模型在实时应用中兼顾准确性与效率,性价比高。",
"gpt-4-32k-0613.description": "GPT-4 提供更大的上下文窗口,适用于需要广泛信息整合与数据分析的场景。",
"gpt-4-32k.description": "GPT-4 提供更大的上下文窗口,适用于需要广泛信息整合与数据分析的场景。",
"gpt-4-o-preview.description": "GPT-4o 是最先进的多模态模型,支持文本和图像输入。",
"gpt-4-turbo-2024-04-09.description": "最新的 GPT-4 Turbo 增加了视觉能力。视觉请求支持 JSON 模式与函数调用。该模型在实时应用中兼顾准确性与效率,性价比高。",
"gpt-4-turbo-preview.description": "最新的 GPT-4 Turbo 增加了视觉能力。视觉请求支持 JSON 模式与函数调用。该模型在实时应用中兼顾准确性与效率,性价比高。",
"gpt-4-turbo.description": "最新的 GPT-4 Turbo 增加了视觉能力。视觉请求支持 JSON 模式与函数调用。该模型在实时应用中兼顾准确性与效率,性价比高。",
"gpt-4-vision-preview.description": "GPT-4 Vision 预览版,专为图像分析与处理任务设计。",
"gpt-4.1-2025-04-14.description": "GPT-4.1 是旗舰级模型,擅长处理复杂任务,适合跨领域问题解决。",
"gpt-4.1-mini.description": "GPT-4.1 mini 在智能、速度与成本之间实现平衡,适用于多种场景。",
"gpt-4.1-nano.description": "GPT-4.1 nano 是最快且最具性价比的 GPT-4.1 模型。",
"gpt-4.1.description": "GPT-4.1 是我们面向复杂任务与跨领域问题解决的旗舰模型。",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的语言理解与生成能力,适用于客户支持、教育与技术协助等大规模应用场景。",
"gpt-4o-2024-11-20.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育与技术支持等大规模应用场景。",
"gpt-4o-audio-preview.description": "GPT-4o 音频预览模型,支持音频输入与输出。",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini 是一款性价比高的模型,适用于广泛的文本和图像任务。",
"gpt-4o-mini-audio-preview.description": "GPT-4o mini 音频模型,支持音频输入与输出。",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini 实时变体,支持音频与文本的实时输入输出。",
"gpt-4o-mini-search-preview.description": "GPT-4o mini 搜索预览版,训练用于理解并执行网页搜索请求,通过 Chat Completions API 实现。网页搜索按工具调用计费,另加 token 成本。",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "OpenAI 提升性能的 ada 嵌入模型变体。",
"openai/text-embedding-ada-002.description": "OpenAI 的旧版文本嵌入模型。",
"openrouter/auto.description": "根据上下文长度、主题和复杂度,自动将请求路由至 Llama 3 70B Instruct、Claude 3.5 Sonnet自我审查或 GPT-4o。",
"oswe-vscode-prime.description": "Raptor mini 是一款为编程任务优化的预览模型。",
"oswe-vscode-secondary.description": "Raptor mini 是一款为编程任务优化的预览模型。",
"perplexity/sonar-pro.description": "Perplexity 的旗舰产品,具备搜索支撑,支持高级查询和追问。",
"perplexity/sonar-reasoning-pro.description": "专注推理的高级模型,输出带搜索增强的思维链,每次请求可包含多个搜索查询。",
"perplexity/sonar-reasoning.description": "专注推理的模型,输出详细的搜索支撑解释和思维链。",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "混元-A13B-Instruct 总参数 80B激活参数 13B性能媲美更大模型。支持快慢混合推理、稳定长文本理解在 BFCL-v3 与 τ-Bench 上具备领先代理能力。支持 GQA 与多量化格式,推理高效。",
"tencent/Hunyuan-MT-7B.description": "混元翻译模型包括 Hunyuan-MT-7B 与集成模型 Hunyuan-MT-Chimera。Hunyuan-MT-7B 是一款支持 33 种语言及 5 种中国少数民族语言的 7B 轻量翻译模型,在 WMT25 中 31 个语对中获得 30 个第一。腾讯混元采用从预训练到 SFT、翻译 RL 与集成 RL 的完整训练流程,在同等规模下实现领先性能,部署高效便捷。",
"text-embedding-3-large.description": "最强大的嵌入模型,适用于英文与非英文任务。",
"text-embedding-3-small-inference.description": "Embedding V3 small推理版模型用于文本嵌入。",
"text-embedding-3-small.description": "高效、低成本的下一代嵌入模型,适用于检索与 RAG 场景。",
"text-embedding-ada-002.description": "Embedding V2 Ada 模型,用于文本嵌入。",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 是一款 32B 中英双语开源模型,优化用于代码生成、函数调用与代理任务。预训练数据达 15T强调高质量与推理能力并通过人类偏好对齐、拒绝采样与强化学习进一步优化。擅长复杂推理、结构化输出与内容生成在多个基准测试中达到 GPT-4o 与 DeepSeek-V3-0324 水平。",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 是一款 32B 中英双语开源模型,优化用于代码生成、函数调用与代理任务。预训练数据达 15T强调高质量与推理能力并通过人类偏好对齐、拒绝采样与强化学习进一步优化。擅长复杂推理、结构化输出与内容生成在多个基准测试中达到 GPT-4o 与 DeepSeek-V3-0324 水平。",
"thudm/glm-4-9b-chat.description": "智谱 AI 最新 GLM-4 预训练模型的开源版本。",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "仅替换第一个匹配项",
"localFiles.file": "文件",
"localFiles.folder": "文件夹",
"localFiles.globFiles.pattern": "模式",
"localFiles.grepContent.glob": "文件筛选器",
"localFiles.grepContent.pattern": "搜索模式",
"localFiles.grepContent.type": "文件类型",
"localFiles.moveFiles.itemsMoved": "已移动 {{count}} 个项目:",
"localFiles.moveFiles.itemsMoved_one": "已移动 {{count}} 项:",
"localFiles.moveFiles.itemsMoved_other": "已移动 {{count}} 项:",
@ -95,11 +99,16 @@
"localFiles.open": "打开",
"localFiles.openFile": "打开文件",
"localFiles.openFolder": "打开文件夹",
"localFiles.outOfScope.requestedPaths": "请求的路径",
"localFiles.outOfScope.warning": "警告:以下路径超出了配置的工作目录范围。请确认是否允许访问。",
"localFiles.outOfScope.workingDirectory": "工作目录",
"localFiles.read.more": "查看更多",
"localFiles.readFile": "读取文件",
"localFiles.readFile.lineRange": "第 {{start}} 行至第 {{end}} 行",
"localFiles.readFileError": "读取文件失败,请检查文件路径是否正确",
"localFiles.readFiles": "读取多个文件",
"localFiles.readFilesError": "读取文件失败,请检查文件路径是否正确",
"localFiles.searchFiles.keywords": "关键词",
"localFiles.securityBlacklist.warning": "安全警告:此操作已被安全规则标记,需要您的明确批准。",
"localFiles.writeFile.characters": "字符",
"localFiles.writeFile.preview": "内容预览",

View file

@ -58,13 +58,13 @@
"duplicateTitle": "{{title}} 副本",
"emptyAgent": "暫無助手",
"emptyAgentAction": "建立助手",
"extendParams.disableContextCaching.desc": "可將單次對話的生成成本最多降低 90%,並將速度提升最多 4 倍。啟用此功能將自動取消歷史訊息數量的限制。<1>了解更多</1>",
"extendParams.disableContextCaching.desc": "最多可減少 90% 的單次對話生成成本,並將速度提升至最多 4 倍。<1>了解更多</1>",
"extendParams.disableContextCaching.title": "開啟上下文快取",
"extendParams.effort.desc": "透過努力參數控制 Claude 回應時使用的 Token 數量。",
"extendParams.effort.title": "努力程度",
"extendParams.enableAdaptiveThinking.desc": "啟用自適應思考模式,讓 Claude 動態決定何時以及思考的深度。",
"extendParams.enableAdaptiveThinking.title": "啟用自適應思考",
"extendParams.enableReasoning.desc": "根據 Claude 的思考機制限制,啟用此功能將自動取消歷史訊息數量的限制。<1>了解更多</1>",
"extendParams.enableReasoning.desc": "基於 Claude 思考機制的限制。<1>了解更多</1>",
"extendParams.enableReasoning.title": "開啟深度思考",
"extendParams.imageAspectRatio.title": "圖片寬高比",
"extendParams.imageResolution.title": "圖片解析度",
@ -165,6 +165,7 @@
"messageAction.delAndRegenerate": "刪除並重新生成",
"messageAction.deleteDisabledByThreads": "存在子話題,無法刪除",
"messageAction.expand": "展開訊息",
"messageAction.reaction": "新增表情回應",
"messageAction.regenerate": "重新生成",
"messages.dm.sentTo": "僅對{{name}}可見",
"messages.dm.title": "私訊",

View file

@ -281,7 +281,11 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet 擅長編碼、寫作與複雜推理。",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet 加強了思考能力,適用於處理複雜推理任務。",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet 是升級版本,具備更長的上下文處理能力與更強的功能。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快速且最智慧的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
"claude-haiku-4.5.description": "Claude Haiku 4.5 是一款快速且高效的模型,適用於各種任務。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,專為處理高度複雜任務而設,於效能、智慧、流暢度與理解力方面皆表現卓越。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設,於效能、智慧、流暢度與理解力方面皆表現出色。",
@ -290,6 +294,7 @@
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最具智慧的模型。",
"claude-sonnet-4.description": "Claude Sonnet 4 是最新一代模型,在各項任務中表現更為出色。",
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
"codegemma.description": "CodeGemma 是一款輕量級模型,適用於多樣化的程式任務,能快速迭代與整合。",
@ -604,6 +609,7 @@
"google/text-embedding-005.description": "一款專注於英文的文字嵌入模型,針對程式與英文任務進行最佳化。",
"google/text-multilingual-embedding-002.description": "一款多語言文字嵌入模型,針對跨語言任務進行最佳化,支援多種語言。",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo 是一款快速且高效的模型,適用於多種任務。",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo 用於文字生成與理解任務,針對指令遵循進行最佳化。",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
@ -614,10 +620,12 @@
"gpt-4-1106-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
"gpt-4-32k-0613.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合需要廣泛資訊整合與資料分析的場景。",
"gpt-4-32k.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合需要廣泛資訊整合與資料分析的場景。",
"gpt-4-o-preview.description": "GPT-4o 是最先進的多模態模型,能處理文字與圖像輸入。",
"gpt-4-turbo-2024-04-09.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
"gpt-4-turbo-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
"gpt-4-turbo.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
"gpt-4-vision-preview.description": "GPT-4 Vision 預覽版,專為圖像分析與處理任務設計。",
"gpt-4.1-2025-04-14.description": "GPT-4.1 是旗艦級模型,適合處理複雜任務與跨領域問題解決。",
"gpt-4.1-mini.description": "GPT-4.1 mini 在智慧、速度與成本之間取得平衡,適用於多種應用場景。",
"gpt-4.1-nano.description": "GPT-4.1 nano 是 GPT-4.1 系列中最快且最具成本效益的模型。",
"gpt-4.1.description": "GPT-4.1 是我們的旗艦模型,適用於複雜任務與跨領域問題解決。",
@ -627,6 +635,7 @@
"gpt-4o-2024-08-06.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的語言理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
"gpt-4o-2024-11-20.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
"gpt-4o-audio-preview.description": "GPT-4o 音訊預覽模型,支援音訊輸入與輸出。",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini 是一款具成本效益的解決方案,適用於各類文字與圖像任務。",
"gpt-4o-mini-audio-preview.description": "GPT-4o mini 音訊模型,支援音訊輸入與輸出。",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini 即時變體,支援音訊與文字的即時輸入/輸出。",
"gpt-4o-mini-search-preview.description": "GPT-4o mini 搜尋預覽模型,透過 Chat Completions API 訓練以理解並執行網頁搜尋查詢。網頁搜尋按工具呼叫次數額外計費。",
@ -980,6 +989,8 @@
"openai/text-embedding-3-small.description": "OpenAI 改良版、高效能的 ada 嵌入模型變體。",
"openai/text-embedding-ada-002.description": "OpenAI 的舊版文字嵌入模型。",
"openrouter/auto.description": "根據上下文長度、主題與複雜度,自動將請求路由至 Llama 3 70B Instruct、Claude 3.5 Sonnet自我審核或 GPT-4o。",
"oswe-vscode-prime.description": "Raptor mini 是一款預覽模型,專為程式碼相關任務優化。",
"oswe-vscode-secondary.description": "Raptor mini 是一款預覽模型,專為程式碼相關任務優化。",
"perplexity/sonar-pro.description": "Perplexity 的旗艦產品,具備搜尋依據,支援進階查詢與後續提問。",
"perplexity/sonar-reasoning-pro.description": "一款專注推理的進階模型輸出包含增強搜尋的思考鏈CoT每次請求可包含多個搜尋查詢。",
"perplexity/sonar-reasoning.description": "一款專注推理的模型輸出具詳細搜尋依據的思考鏈CoT解釋。",
@ -1162,7 +1173,9 @@
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct 採用總參數量 80B、啟用參數 13B 的架構,媲美更大型模型。支援快慢混合推理、穩定的長文本理解,並在 BFCL-v3 與 τ-Bench 上展現領先代理能力。GQA 與多量化格式實現高效推理。",
"tencent/Hunyuan-MT-7B.description": "混元翻譯模型包含 Hunyuan-MT-7B 與集成模型 Hunyuan-MT-Chimera。Hunyuan-MT-7B 是一款輕量級 7B 翻譯模型,支援 33 種語言及 5 種中國少數民族語言。在 WMT25 中於 31 組語言對中獲得 30 項第一名。騰訊混元採用完整訓練流程,從預訓練到 SFT、翻譯強化學習與集成強化學習在同級模型中表現領先部署高效便捷。",
"text-embedding-3-large.description": "目前最強大的英文與非英文任務嵌入模型。",
"text-embedding-3-small-inference.description": "Embedding V3 small推論模型用於文字嵌入任務。",
"text-embedding-3-small.description": "適用於檢索與 RAG 場景的高效、具成本效益的新一代嵌入模型。",
"text-embedding-ada-002.description": "Embedding V2 Ada 模型,用於文字嵌入任務。",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 是一款 32B 中英雙語開源模型,針對程式碼生成、函數調用與代理任務進行優化。預訓練資料達 15T涵蓋高品質與高推理需求內容並透過人類偏好對齊、拒絕採樣與強化學習進一步優化。擅長複雜推理、內容生成與結構化輸出在多項基準測試中達到 GPT-4o 與 DeepSeek-V3-0324 的水準。",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 是一款 32B 中英雙語開源模型,針對程式碼生成、函數調用與代理任務進行優化。預訓練資料達 15T涵蓋高品質與高推理需求內容並透過人類偏好對齊、拒絕採樣與強化學習進一步優化。擅長複雜推理、內容生成與結構化輸出在多項基準測試中達到 GPT-4o 與 DeepSeek-V3-0324 的水準。",
"thudm/glm-4-9b-chat.description": "智譜 AI 最新 GLM-4 預訓練模型的開源版本。",

View file

@ -86,6 +86,10 @@
"localFiles.editFile.replaceFirst": "僅取代第一個符合項目",
"localFiles.file": "檔案",
"localFiles.folder": "資料夾",
"localFiles.globFiles.pattern": "模式",
"localFiles.grepContent.glob": "檔案篩選器",
"localFiles.grepContent.pattern": "搜尋模式",
"localFiles.grepContent.type": "檔案類型",
"localFiles.moveFiles.itemsMoved": "已移動 {{count}} 個項目:",
"localFiles.moveFiles.itemsMoved_one": "已移動 {{count}} 個項目:",
"localFiles.moveFiles.itemsMoved_other": "已移動 {{count}} 個項目:",
@ -95,11 +99,17 @@
"localFiles.open": "打開",
"localFiles.openFile": "打開檔案",
"localFiles.openFolder": "打開資料夾",
"localFiles.outOfScope.requestedPaths": "請求的路徑",
"localFiles.outOfScope.warning": "警告:以下路徑超出已設定的工作目錄範圍。請確認您是否允許存取。",
"localFiles.outOfScope.workingDirectory": "工作目錄",
"localFiles.read.more": "查看更多",
"localFiles.readFile": "讀取檔案",
"localFiles.readFile.lineRange": "第 {{start}} 行至第 {{end}} 行",
"localFiles.readFileError": "讀取檔案失敗,請檢查檔案路徑是否正確",
"localFiles.readFiles": "讀取檔案",
"localFiles.readFilesError": "讀取檔案失敗,請檢查檔案路徑是否正確",
"localFiles.searchFiles.keywords": "關鍵字",
"localFiles.securityBlacklist.warning": "安全警示:此操作已被安全規則標記,需您明確同意後才能執行。",
"localFiles.writeFile.characters": "字元",
"localFiles.writeFile.preview": "內容預覽",
"localFiles.writeFile.truncated": "已截斷",
@ -136,6 +146,31 @@
"search.summary": "總結",
"search.summaryTooltip": "總結當前內容",
"search.viewMoreResults": "查看更多 {{results}} 個結果",
"securityBlacklist.awsCredentials": "存取 AWS 憑證可能會洩漏雲端存取金鑰",
"securityBlacklist.browserCredentials": "存取瀏覽器憑證儲存區可能會洩漏密碼",
"securityBlacklist.chownSystemDirs": "變更系統目錄的檔案擁有權具有高度風險",
"securityBlacklist.ddDiskWrite": "將隨機資料寫入磁碟裝置可能會毀損資料",
"securityBlacklist.directMemoryAccess": "直接存取記憶體極度危險",
"securityBlacklist.disableFirewall": "停用防火牆會使系統暴露於攻擊風險中",
"securityBlacklist.dockerConfig": "讀取 Docker 設定可能會洩漏註冊中心憑證",
"securityBlacklist.envFiles": "讀取 .env 檔案可能會洩漏敏感憑證與 API 金鑰",
"securityBlacklist.etcPasswd": "修改 /etc/passwd 可能導致無法登入系統",
"securityBlacklist.forkBomb": "Fork bomb 可能導致系統當機",
"securityBlacklist.formatPartition": "格式化系統分割區將會毀損資料",
"securityBlacklist.gcpCredentials": "讀取 GCP 憑證可能會洩漏雲端服務帳戶金鑰",
"securityBlacklist.gitCredentials": "讀取 Git 憑證檔可能會洩漏存取權杖",
"securityBlacklist.historyFiles": "讀取歷史紀錄檔可能會洩漏敏感指令與憑證",
"securityBlacklist.kernelParams": "未經了解即修改核心參數可能導致系統當機",
"securityBlacklist.kubeConfig": "讀取 Kubernetes 設定可能會洩漏叢集憑證",
"securityBlacklist.npmrc": "讀取 npm token 檔可能會洩漏套件註冊中心憑證",
"securityBlacklist.removeSystemPackages": "移除系統必要套件可能導致系統損壞",
"securityBlacklist.rmForceRecursive": "未指定目標即強制遞迴刪除過於危險",
"securityBlacklist.rmHomeDir": "遞迴刪除家目錄極度危險",
"securityBlacklist.rmRootDir": "遞迴刪除根目錄將會摧毀整個系統",
"securityBlacklist.sshConfig": "變更 SSH 設定可能導致無法遠端登入",
"securityBlacklist.sshPrivateKeys": "讀取 SSH 私密金鑰可能危及系統安全",
"securityBlacklist.sudoers": "未經驗證即修改 sudoers 檔案具有高度風險",
"securityBlacklist.suidShells": "為 shell 或直譯器設定 SUID 是一項安全風險",
"updateArgs.duplicateKeyError": "欄位鍵必須唯一",
"updateArgs.form.add": "新增一項",
"updateArgs.form.key": "欄位鍵",

View file

@ -1,6 +1,6 @@
{
"name": "@lobehub/lobehub",
"version": "2.1.26",
"version": "2.1.28",
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
"keywords": [
"framework",
@ -70,6 +70,7 @@
"e2e": "cd e2e && npm run test",
"e2e:install": "playwright install",
"e2e:ui": "playwright test --ui",
"hotfix:branch": "tsx ./scripts/hotfixWorkflow/index.ts",
"i18n": "npm run workflow:i18n && lobe-i18n && prettier -c --write \"locales/**\"",
"i18n:unused": "tsx ./scripts/i18nWorkflow/analyzeUnusedKeys.ts",
"i18n:unused-clean": "tsx ./scripts/i18nWorkflow/cleanUnusedKeys.ts",
@ -220,7 +221,7 @@
"@lobehub/icons": "^4.1.0",
"@lobehub/market-sdk": "0.29.2",
"@lobehub/tts": "^4.0.2",
"@lobehub/ui": "^4.35.0",
"@lobehub/ui": "^4.36.2",
"@modelcontextprotocol/sdk": "^1.25.3",
"@napi-rs/canvas": "^0.1.88",
"@neondatabase/serverless": "^1.0.2",
@ -403,7 +404,7 @@
"@types/oidc-provider": "^9.5.0",
"@types/pdfkit": "^0.17.4",
"@types/pg": "^8.16.0",
"@types/react": "^19.2.9",
"@types/react": "19.2.13",
"@types/react-dom": "^19.2.3",
"@types/rtl-detect": "^1.0.3",
"@types/semver": "^7.7.1",
@ -469,6 +470,7 @@
},
"pnpm": {
"overrides": {
"@types/react": "19.2.13",
"better-auth": "1.4.6",
"better-call": "1.1.8",
"drizzle-orm": "0.44.7"

View file

@ -1,870 +0,0 @@
import { describe, expect, it } from 'vitest';
import { DEFAULT_SECURITY_BLACKLIST } from '../../audit/defaultSecurityBlacklist';
import { InterventionChecker } from '../InterventionChecker';
describe('DEFAULT_SECURITY_BLACKLIST', () => {
describe('File System Dangers', () => {
describe('Recursive deletion of home directory', () => {
it('should block rm -rf ~/', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf ~/',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Recursive deletion of home directory is extremely dangerous');
});
it('should block rm -rf ~ without trailing slash', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf ~',
});
expect(result.blocked).toBe(true);
});
it('should block rm -rf $HOME', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf $HOME',
});
expect(result.blocked).toBe(true);
});
it('should block rm -rf /Users/username on macOS', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /Users/alice',
});
expect(result.blocked).toBe(true);
});
it('should block rm -rf /home/username on Linux', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /home/alice',
});
expect(result.blocked).toBe(true);
});
it('should block rm with different flag orders', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -r -f ~/',
});
expect(result.blocked).toBe(true);
});
it('should allow safe deletions in subdirectories', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf ~/Projects/temp',
});
expect(result.blocked).toBe(false);
});
it('should allow safe deletions in /home subdirectories', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /home/alice/temp-folder',
});
expect(result.blocked).toBe(false);
});
});
describe('Recursive deletion of root directory', () => {
it('should block rm -rf /', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Recursive deletion of root directory will destroy the system');
});
it('should block rm -r /', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -r /',
});
expect(result.blocked).toBe(true);
});
it('should allow safe deletions in specific directories', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /tmp/test-folder',
});
expect(result.blocked).toBe(false);
});
it('should allow safe deletions in /var/tmp', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /var/tmp/cache',
});
expect(result.blocked).toBe(false);
});
});
describe('Force recursive deletion without specific target', () => {
it('should block rm -rf . (current directory)', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf .',
});
expect(result.blocked).toBe(true);
});
it('should block rm -rf ~', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf ~',
});
expect(result.blocked).toBe(true);
});
it('should block rm -rf /', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /',
});
expect(result.blocked).toBe(true);
});
it('should allow rm -rf with specific target', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'rm -rf /tmp/specific-folder',
});
expect(result.blocked).toBe(false);
});
});
});
describe('System Configuration Dangers', () => {
describe('Modifying /etc/passwd and /etc/shadow', () => {
it('should block commands affecting /etc/passwd', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'echo "malicious" >> /etc/passwd',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Modifying /etc/passwd could lock you out of the system');
});
it('should block cat /etc/shadow', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat /etc/shadow',
});
expect(result.blocked).toBe(true);
});
it('should block editing /etc/passwd with vim', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'vim /etc/passwd',
});
expect(result.blocked).toBe(true);
});
it('should allow reading safe files in /etc', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat /etc/hostname',
});
expect(result.blocked).toBe(false);
});
});
describe('Modifying sudoers file', () => {
it('should block editing /etc/sudoers', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'nano /etc/sudoers',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Modifying sudoers file without proper validation is dangerous');
});
it('should block cat /etc/sudoers', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat /etc/sudoers',
});
expect(result.blocked).toBe(true);
});
it('should block editing sudoers.d files', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'vim /etc/sudoers.d/custom',
});
expect(result.blocked).toBe(true);
});
});
});
describe('Dangerous Commands', () => {
describe('Fork bomb', () => {
it('should block classic fork bomb syntax', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: ':(){ :|:& };:',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Fork bomb can crash the system');
});
});
describe('Writing to disk devices', () => {
it('should block dd to /dev/sda', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'dd if=/dev/zero of=/dev/sda',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Writing random data to disk devices can destroy data');
});
it('should block dd to /dev/hda', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'dd if=/dev/urandom of=/dev/hda',
});
expect(result.blocked).toBe(true);
});
it('should block dd to NVMe devices', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'dd if=/dev/zero of=/dev/nvme0n1',
});
expect(result.blocked).toBe(true);
});
it('should allow safe dd operations to files', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'dd if=/dev/zero of=/tmp/test.img bs=1M count=100',
});
expect(result.blocked).toBe(false);
});
});
describe('Formatting system partitions', () => {
it('should block mkfs on disk devices', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'mkfs.ext4 /dev/sda1',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Formatting system partitions will destroy data');
});
it('should block fdisk on disks', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'fdisk /dev/sda',
});
expect(result.blocked).toBe(true);
});
it('should block parted on root', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'parted /',
});
expect(result.blocked).toBe(true);
});
});
});
describe('Network & Remote Access Dangers', () => {
describe('Disabling firewall', () => {
it('should block ufw disable', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'ufw disable',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Disabling firewall exposes system to attacks');
});
it('should block iptables -F', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'iptables -F',
});
expect(result.blocked).toBe(true);
});
it('should block stopping firewalld', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'systemctl stop firewalld',
});
expect(result.blocked).toBe(true);
});
it('should allow checking firewall status', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'ufw status',
});
expect(result.blocked).toBe(false);
});
});
describe('Changing SSH configuration', () => {
it('should block editing sshd_config', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'nano /etc/ssh/sshd_config',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Changing SSH configuration could lock you out');
});
it('should block cat /etc/ssh/sshd_config', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat /etc/ssh/sshd_config',
});
expect(result.blocked).toBe(true);
});
it('should block vim on sshd_config', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'vim /etc/ssh/sshd_config',
});
expect(result.blocked).toBe(true);
});
});
});
describe('Package Manager Dangers', () => {
describe('Removing essential system packages', () => {
it('should block apt remove systemd', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'apt remove systemd',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Removing essential system packages can break the system');
});
it('should block yum erase kernel', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'yum erase kernel',
});
expect(result.blocked).toBe(true);
});
it('should block dnf remove glibc', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'dnf remove glibc',
});
expect(result.blocked).toBe(true);
});
it('should block apt purge bash', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'apt purge bash',
});
expect(result.blocked).toBe(true);
});
it('should block pacman removing sudo', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'pacman remove sudo',
});
expect(result.blocked).toBe(true);
});
it('should allow removing safe packages', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'apt remove cowsay',
});
expect(result.blocked).toBe(false);
});
});
});
describe('Kernel & System Core Dangers', () => {
describe('Modifying kernel parameters', () => {
it('should block echo to /proc/sys/', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'echo 1>/proc/sys/kernel/panic',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe(
'Modifying kernel parameters without understanding can crash the system',
);
});
it('should block modifying network parameters', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'echo 0>/proc/sys/net/ipv4/ip_forward',
});
expect(result.blocked).toBe(true);
});
it('should allow reading /proc/sys/', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat /proc/sys/kernel/hostname',
});
expect(result.blocked).toBe(false);
});
});
describe('Direct memory access', () => {
it('should block access to /dev/mem', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'dd if=/dev/mem of=/tmp/memory.dump',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Direct memory access is extremely dangerous');
});
it('should block access to /dev/kmem', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat /dev/kmem',
});
expect(result.blocked).toBe(true);
});
it('should block access to /dev/port', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'hexdump /dev/port',
});
expect(result.blocked).toBe(true);
});
});
});
describe('Privilege Escalation Dangers', () => {
describe('Changing file ownership of system directories', () => {
it('should block chown -R on /etc', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chown -R user:user /etc',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Changing file ownership of system directories is dangerous');
});
it('should block chown -R on /bin', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chown -R alice:alice /bin',
});
expect(result.blocked).toBe(true);
});
it('should block chown -R on home directory', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chown -R root:root ~',
});
expect(result.blocked).toBe(true);
});
it('should allow chown on specific user files', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chown alice:alice /home/alice/file.txt',
});
expect(result.blocked).toBe(false);
});
});
describe('Setting SUID on shells or interpreters', () => {
it('should block chmod 4755 on bash', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chmod 4755 /bin/bash',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Setting SUID on shells or interpreters is a security risk');
});
it('should block chmod u+s on python', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chmod u+s /usr/bin/python',
});
expect(result.blocked).toBe(true);
});
it('should block SUID on perl', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chmod 4755 /usr/bin/perl',
});
expect(result.blocked).toBe(true);
});
it('should block SUID on node', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chmod u+s /usr/bin/node',
});
expect(result.blocked).toBe(true);
});
it('should allow normal chmod operations', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'chmod 755 /home/user/script.sh',
});
expect(result.blocked).toBe(false);
});
});
});
describe('Sensitive Information Leakage', () => {
describe('Reading .env files', () => {
it('should block cat .env via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat .env',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe(
'Reading .env files may leak sensitive credentials and API keys',
);
});
it('should block reading .env via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/project/.env',
});
expect(result.blocked).toBe(true);
});
it('should block less .env.local', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'less .env.local',
});
expect(result.blocked).toBe(true);
});
it('should block vim .env.production', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'vim .env.production',
});
expect(result.blocked).toBe(true);
});
it('should block nano .env.development via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/project/.env.development',
});
expect(result.blocked).toBe(true);
});
});
describe('Reading SSH private keys', () => {
it('should block cat id_rsa via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.ssh/id_rsa',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Reading SSH private keys can compromise system security');
});
it('should block reading id_rsa via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.ssh/id_rsa',
});
expect(result.blocked).toBe(true);
});
it('should block reading id_ed25519', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.ssh/id_ed25519',
});
expect(result.blocked).toBe(true);
});
it('should block reading id_ecdsa via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/alice/.ssh/id_ecdsa',
});
expect(result.blocked).toBe(true);
});
it('should allow reading SSH public keys', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.ssh/id_rsa.pub',
});
expect(result.blocked).toBe(false);
});
it('should allow reading authorized_keys', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.ssh/authorized_keys',
});
expect(result.blocked).toBe(false);
});
});
describe('Reading AWS credentials', () => {
it('should block cat ~/.aws/credentials via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.aws/credentials',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Accessing AWS credentials can leak cloud access keys');
});
it('should block reading AWS credentials via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.aws/credentials',
});
expect(result.blocked).toBe(true);
});
it('should block less on AWS credentials', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'less /home/user/.aws/credentials',
});
expect(result.blocked).toBe(true);
});
it('should allow reading AWS config', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.aws/config',
});
expect(result.blocked).toBe(false);
});
});
describe('Reading Docker config', () => {
it('should block reading Docker config.json via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.docker/config.json',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Reading Docker config may expose registry credentials');
});
it('should block reading Docker config via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.docker/config.json',
});
expect(result.blocked).toBe(true);
});
it('should block vim on Docker config', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'vim ~/.docker/config.json',
});
expect(result.blocked).toBe(true);
});
});
describe('Reading Kubernetes config', () => {
it('should block reading kube config via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.kube/config',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Reading Kubernetes config may expose cluster credentials');
});
it('should block reading kube config via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.kube/config',
});
expect(result.blocked).toBe(true);
});
it('should block editing kube config', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'nano ~/.kube/config',
});
expect(result.blocked).toBe(true);
});
});
describe('Reading Git credentials', () => {
it('should block reading git-credentials via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.git-credentials',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Reading Git credentials file may leak access tokens');
});
it('should block reading git-credentials via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.git-credentials',
});
expect(result.blocked).toBe(true);
});
it('should block viewing git-credentials with less', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'less ~/.git-credentials',
});
expect(result.blocked).toBe(true);
});
});
describe('Reading npm token file', () => {
it('should block reading .npmrc via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.npmrc',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe(
'Reading npm token file may expose package registry credentials',
);
});
it('should block reading .npmrc via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.npmrc',
});
expect(result.blocked).toBe(true);
});
it('should block editing .npmrc', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'vim /home/user/.npmrc',
});
expect(result.blocked).toBe(true);
});
});
describe('Reading history files', () => {
it('should block reading bash_history via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.bash_history',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe(
'Reading history files may expose sensitive commands and credentials',
);
});
it('should block reading bash_history via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.bash_history',
});
expect(result.blocked).toBe(true);
});
it('should block reading zsh_history', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.zsh_history',
});
expect(result.blocked).toBe(true);
});
it('should block reading .history via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.history',
});
expect(result.blocked).toBe(true);
});
});
describe('Accessing browser credential storage', () => {
it('should block reading browser Cookies file', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/Library/Application Support/Google/Chrome/Default/Cookies',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Accessing browser credential storage may leak passwords');
});
it('should block reading Login Data', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'less ~/.config/chromium/Default/Login Data',
});
expect(result.blocked).toBe(true);
});
it('should block reading Web Data', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'head ~/.mozilla/firefox/profile/Web Data',
});
expect(result.blocked).toBe(true);
});
});
describe('Reading GCP credentials', () => {
it('should block reading GCP JSON credentials via command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.config/gcloud/application_default_credentials.json',
});
expect(result.blocked).toBe(true);
expect(result.reason).toBe('Reading GCP credentials may leak cloud service account keys');
});
it('should block reading GCP credentials via path', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
path: '/home/user/.config/gcloud/service-account.json',
});
expect(result.blocked).toBe(true);
});
it('should block viewing GCP credentials with vim', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'vim ~/.config/gcloud/credentials.json',
});
expect(result.blocked).toBe(true);
});
it('should allow reading non-sensitive gcloud config', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat ~/.config/gcloud/config.txt',
});
expect(result.blocked).toBe(false);
});
});
});
describe('Blacklist structure validation', () => {
it('should have description for all rules', () => {
DEFAULT_SECURITY_BLACKLIST.forEach((rule) => {
expect(rule.description).toBeDefined();
expect(rule.description.length).toBeGreaterThan(0);
});
});
it('should have match conditions for all rules', () => {
DEFAULT_SECURITY_BLACKLIST.forEach((rule) => {
expect(rule.match).toBeDefined();
expect(Object.keys(rule.match).length).toBeGreaterThan(0);
});
});
it('should use regex type for pattern matching', () => {
DEFAULT_SECURITY_BLACKLIST.forEach((rule) => {
Object.values(rule.match).forEach((matcher) => {
if (typeof matcher === 'object' && 'type' in matcher) {
expect(matcher.type).toBe('regex');
}
});
});
});
it('should have valid regex patterns', () => {
DEFAULT_SECURITY_BLACKLIST.forEach((rule) => {
Object.values(rule.match).forEach((matcher) => {
if (typeof matcher === 'object' && 'pattern' in matcher) {
expect(() => new RegExp(matcher.pattern)).not.toThrow();
}
});
});
});
});
describe('Edge cases and comprehensive coverage', () => {
it('should handle multiple dangerous patterns in single command', () => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: 'cat .env && cat ~/.ssh/id_rsa',
});
expect(result.blocked).toBe(true);
});
it('should allow safe file operations', () => {
const safeCommands = [
'cat README.md',
'less package.json',
'vim src/index.ts',
'rm -rf node_modules',
'chmod +x script.sh',
'chown user file.txt',
'ls -la',
'grep "pattern" file.txt',
];
safeCommands.forEach((command) => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command,
});
expect(result.blocked).toBe(false);
});
});
it('should block operations across different editors', () => {
const editors = ['cat', 'less', 'more', 'head', 'tail', 'vim', 'nano', 'vi', 'emacs', 'code'];
editors.forEach((editor) => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command: `${editor} .env`,
});
expect(result.blocked).toBe(true);
});
});
it('should handle commands with various spacing and flags', () => {
const variations = ['rm -rf ~/', 'rm -rf ~/', 'rm -r -f ~/', 'rm -r -f ~/'];
variations.forEach((command) => {
const result = InterventionChecker.checkSecurityBlacklist(DEFAULT_SECURITY_BLACKLIST, {
command,
});
expect(result.blocked).toBe(true);
});
});
});
});

View file

@ -12,13 +12,6 @@ interface DynamicImportInfo {
start: number;
}
const isBusinessFeaturesEnabled = () => {
const raw = process.env.ENABLE_BUSINESS_FEATURES;
if (!raw) return false;
const normalized = raw.trim().toLowerCase();
return normalized === 'true' || normalized === '1';
};
const extractDynamicImportsFromMap = (code: string): DynamicImportInfo[] => {
const results: DynamicImportInfo[] = [];
@ -44,20 +37,12 @@ const extractDynamicImportsFromMap = (code: string): DynamicImportInfo[] => {
return results;
};
const generateStaticImports = (imports: DynamicImportInfo[], keepBusinessTabs: boolean): string => {
return imports
.filter((imp) => keepBusinessTabs || !imp.importPath.includes('@/business/'))
.map((imp) => `import ${imp.componentName} from '${imp.importPath}';`)
.join('\n');
const generateStaticImports = (imports: DynamicImportInfo[]): string => {
return imports.map((imp) => `import ${imp.componentName} from '${imp.importPath}';`).join('\n');
};
const generateStaticComponentMap = (
imports: DynamicImportInfo[],
keepBusinessTabs: boolean,
): string => {
const entries = imports
.filter((imp) => keepBusinessTabs || !imp.importPath.includes('@/business/'))
.map((imp) => ` [SettingsTabs.${imp.key}]: ${imp.componentName},`);
const generateStaticComponentMap = (imports: DynamicImportInfo[]): string => {
const entries = imports.map((imp) => ` [SettingsTabs.${imp.key}]: ${imp.componentName},`);
return `const componentMap: Record<string, React.ComponentType<{ mobile?: boolean }>> = {\n${entries.join('\n')}\n}`;
};
@ -79,13 +64,6 @@ export const convertSettingsContentToStatic = async (TEMP_DIR: string) => {
filePath,
name: 'convertSettingsContentToStatic',
transformer: (code) => {
const keepBusinessTabs = isBusinessFeaturesEnabled();
if (keepBusinessTabs) {
console.log(
' ENABLE_BUSINESS_FEATURES is enabled, preserving business Settings tabs in componentMap',
);
}
const imports = extractDynamicImportsFromMap(code);
invariant(
@ -95,8 +73,8 @@ export const convertSettingsContentToStatic = async (TEMP_DIR: string) => {
console.log(` Found ${imports.length} dynamic imports in componentMap`);
const staticImports = generateStaticImports(imports, keepBusinessTabs);
const staticComponentMap = generateStaticComponentMap(imports, keepBusinessTabs);
const staticImports = generateStaticImports(imports);
const staticComponentMap = generateStaticComponentMap(imports);
let result = code;

View file

@ -0,0 +1,266 @@
import { execFileSync, execSync } from 'node:child_process';
import * as fs from 'node:fs';
import * as path from 'node:path';
import { confirm, input } from '@inquirer/prompts';
import { consola } from 'consola';
import * as semver from 'semver';
const ROOT_DIR = process.cwd();
const PACKAGE_JSON_PATH = path.join(ROOT_DIR, 'package.json');
function checkGitRepo(): void {
try {
execSync('git rev-parse --git-dir', { stdio: 'ignore' });
} catch {
consola.error('❌ Current directory is not a Git repository');
process.exit(1);
}
}
function getCurrentBranch(): string {
try {
return execSync('git rev-parse --abbrev-ref HEAD', { encoding: 'utf8' }).trim();
} catch {
consola.error('❌ Unable to determine current branch');
process.exit(1);
}
}
function getCurrentVersion(): string {
try {
const pkg = JSON.parse(fs.readFileSync(PACKAGE_JSON_PATH, 'utf8'));
return pkg.version;
} catch {
consola.error('❌ Unable to read version from package.json');
process.exit(1);
}
}
function bumpPatchVersion(currentVersion: string): string {
const parsed = semver.parse(currentVersion);
if (!parsed) {
consola.error(`❌ Invalid semver version in package.json: ${currentVersion}`);
process.exit(1);
}
// If current is a pre-release, hotfix should still be a stable patch (e.g. 2.0.0-beta.1 -> 2.0.1)
const base = `${parsed.major}.${parsed.minor}.${parsed.patch}`;
const next = semver.inc(base, 'patch');
if (!next) {
consola.error(`❌ Unable to calculate patch version from: ${base}`);
process.exit(1);
}
return next;
}
function createHotfixBranchName(version: string): string {
try {
const hash = execSync('git rev-parse --short HEAD', { encoding: 'utf8' }).trim();
if (!hash) {
consola.error('❌ Unable to determine current commit hash for branch suffix');
process.exit(1);
}
return `hotfix/v${version}-${hash}`;
} catch (error) {
consola.error('❌ Failed to generate hotfix branch name');
consola.error(error instanceof Error ? error.message : String(error));
process.exit(1);
}
}
async function confirmHotfix(opts: {
branchName: string;
currentVersion: string;
isExistingBranch: boolean;
version: string;
}): Promise<boolean> {
const { version, currentVersion, branchName, isExistingBranch } = opts;
if (isExistingBranch) {
consola.box(
`
🩹 Hotfix PR (existing branch)
Branch: ${branchName}
Version: ${version}
Target: main
`.trim(),
);
return await confirm({
default: true,
message: 'Confirm to push and submit PR for this hotfix branch?',
});
}
consola.box(
`
🩹 Hotfix Confirmation
Current: ${currentVersion}
New: ${version}
Branch: ${branchName}
Target: main
`.trim(),
);
return await confirm({
default: true,
message: 'Confirm to create hotfix branch and submit PR?',
});
}
function createHotfixBranch(branchName: string): void {
try {
consola.info(`🌿 Creating branch: ${branchName}...`);
execSync(`git checkout -b ${branchName}`, { stdio: 'inherit' });
consola.success(`✅ Created and switched to branch: ${branchName}`);
} catch (error) {
consola.error(`❌ Failed to create branch: ${branchName}`);
consola.error(error instanceof Error ? error.message : String(error));
process.exit(1);
}
}
function pushBranch(branchName: string): void {
try {
consola.info('📤 Pushing branch to remote...');
execSync(`git push -u origin ${branchName}`, { stdio: 'inherit' });
consola.success(`✅ Pushed branch to remote: ${branchName}`);
} catch (error) {
consola.error('❌ Failed to push branch');
consola.error(error instanceof Error ? error.message : String(error));
process.exit(1);
}
}
async function createPullRequest(version: string, branchName: string): Promise<void> {
const title = await input({
default: `🐛 fix: hotfix v${version}`,
message: 'PR title:',
});
const body = `## 🩹 Hotfix v${version}
This PR starts a hotfix release from \`main\`.
### Release Process
1. Hotfix branch created from main
2. Pushed to remote
3. 🔄 Waiting for PR review and merge
4. Auto tag + GitHub Release will be created after merge
---
Created by hotfix script`;
try {
consola.info('🔀 Creating Pull Request...');
execFileSync(
'gh',
['pr', 'create', '--title', title, '--body', body, '--base', 'main', '--head', branchName],
{ stdio: 'inherit' },
);
consola.success('✅ PR created successfully!');
} catch (error) {
consola.error('❌ Failed to create PR');
consola.error(error instanceof Error ? error.message : String(error));
consola.info('\n💡 Tip: Make sure GitHub CLI (gh) is installed and logged in');
consola.info(' Install: https://cli.github.com/');
consola.info(' Login: gh auth login');
process.exit(1);
}
}
function showCompletion(version: string, branchName: string): void {
consola.box(
`
🎉 Hotfix process started!
Branch created: ${branchName}
Pushed to remote
PR created targeting main branch
📋 PR Title: 🐛 hotfix: v${version}
Next steps:
1. Open the PR link to view details
2. Complete code review
3. Merge PR to main branch
4. Wait for release workflows to complete
`.trim(),
);
}
function extractVersionFromBranch(branchName: string): string | null {
const match = branchName.match(/^hotfix\/v(.+?)(?:-[a-f0-9]+)?$/);
return match ? match[1] : null;
}
async function main(): Promise<void> {
consola.info('🩹 LobeChat Hotfix Script\n');
checkGitRepo();
const currentBranch = getCurrentBranch();
const isOnMain = currentBranch === 'main';
const isOnHotfix = currentBranch.startsWith('hotfix/');
if (!isOnMain && !isOnHotfix) {
consola.error(`❌ Current branch "${currentBranch}" is neither main nor a hotfix branch`);
consola.info('💡 Please switch to main or an existing hotfix branch first');
process.exit(1);
}
if (isOnHotfix) {
consola.info(`🔍 Detected existing hotfix branch: ${currentBranch}`);
const currentVersion = getCurrentVersion();
const version = extractVersionFromBranch(currentBranch) ?? bumpPatchVersion(currentVersion);
const confirmed = await confirmHotfix({
branchName: currentBranch,
currentVersion,
isExistingBranch: true,
version,
});
if (!confirmed) {
consola.info('❌ Hotfix process cancelled');
process.exit(0);
}
pushBranch(currentBranch);
await createPullRequest(version, currentBranch);
showCompletion(version, currentBranch);
} else {
consola.info('📥 Pulling latest main branch...');
execSync('git pull --rebase origin main', { stdio: 'inherit' });
const currentVersion = getCurrentVersion();
const newVersion = bumpPatchVersion(currentVersion);
const branchName = createHotfixBranchName(newVersion);
const confirmed = await confirmHotfix({
branchName,
currentVersion,
isExistingBranch: false,
version: newVersion,
});
if (!confirmed) {
consola.info('❌ Hotfix process cancelled');
process.exit(0);
}
createHotfixBranch(branchName);
pushBranch(branchName);
await createPullRequest(newVersion, branchName);
showCompletion(newVersion, branchName);
}
}
main().catch((error) => {
consola.error('❌ Error occurred:', error);
process.exit(1);
});

View file

@ -1,6 +1,6 @@
import { execSync } from 'node:child_process';
import * as fs from 'node:fs';
import * as path from 'node:path';
import path from 'node:path';
import { confirm, select } from '@inquirer/prompts';
import { consola } from 'consola';
@ -110,7 +110,7 @@ Target: main
function checkoutAndPullDev(): void {
try {
// Check for dev branch
const branches = execSync('git branch -a', { encoding: 'utf-8' });
const branches = execSync('git branch -a', { encoding: 'utf8' });
const hasLocalDev = branches.includes(' dev\n') || branches.startsWith('* dev\n');
const hasRemoteDev = branches.includes('remotes/origin/dev');
@ -144,20 +144,14 @@ function checkoutAndPullDev(): void {
}
}
// Create release branch with version marker commit
function createReleaseBranch(version: string, versionType: VersionType): void {
// Create release branch
function createReleaseBranch(version: string): void {
const branchName = `release/v${version}`;
try {
consola.info(`🌿 Creating branch: ${branchName}...`);
execSync(`git checkout -b ${branchName}`, { stdio: 'inherit' });
consola.success(`✅ Created and switched to branch: ${branchName}`);
// Create empty commit to mark the release
const markerMessage = getReleaseMarkerMessage(versionType, version);
consola.info(`📝 Creating version marker commit...`);
execSync(`git commit --allow-empty -m "${markerMessage}"`, { stdio: 'inherit' });
consola.success(`✅ Created version marker commit: ${markerMessage}`);
} catch (error) {
consola.error(`❌ Failed to create branch or commit: ${branchName}`);
consola.error(error instanceof Error ? error.message : String(error));
@ -165,19 +159,6 @@ function createReleaseBranch(version: string, versionType: VersionType): void {
}
}
// Get release marker commit message
function getReleaseMarkerMessage(versionType: VersionType, version: string): string {
// Use gitmoji format for commit message
const gitmojiMap = {
major: '🚀',
minor: '✨',
patch: '🔧',
};
const emoji = gitmojiMap[versionType];
return `${emoji} chore(release): prepare release v${version}`;
}
// Push branch to remote
function pushBranch(version: string): void {
const branchName = `release/v${version}`;
@ -289,8 +270,8 @@ async function main(): Promise<void> {
process.exit(0);
}
// 6. Create release branch (with version marker commit)
createReleaseBranch(newVersion, versionType);
// 6. Create release branch
createReleaseBranch(newVersion);
// 7. Push to remote
pushBranch(newVersion);

View file

@ -1,4 +1,4 @@
import './initiallize';
import './initialize';
import { ENABLE_BUSINESS_FEATURES } from '@lobechat/business-const';
import { SpeedInsights } from '@vercel/speed-insights/next';