feat: add unified messaging tool for cross-platform communication (#13296)

*  feat: add cross-platform message tool for AI bot channel operations

Implement a unified message tool (`lobe-message`) that provides AI with
messaging capabilities across Discord, Telegram, Slack, Google Chat,
and IRC through a single interface with platform-specific extensions.

Core APIs: sendMessage, readMessages, editMessage, deleteMessage,
searchMessages, reactToMessage, getReactions, pin/unpin management,
channel/member info, thread operations, and polls.

Architecture follows the established builtin-tool pattern:
- Package: @lobechat/builtin-tool-message (manifest, types, executor,
  ExecutionRuntime, client components)
- Registry: registered in builtin-tools (renders, inspectors,
  interventions, streamings)
- Server runtime: stub service ready for platform adapter integration

https://claude.ai/code/session_011sHc6R7V4cSYKere9RY1QM

* feat: implement platform specific message service

* chore: add wechat platform

* chore: update wechat api service

* chore: update protocol implementation

* chore: optimize  platform api test

* fix: lark domain error

* feat: support bot message cli

* chore: refactor adapter to service

* chore: optimize bot status fetch

* fix: bot status

* fix: channel nav ignore

* feat: message tool support bot manage

* feat: add lobe-message runtime

* feat: support direct message

* feat: add history limit

* chore: update const limit

* feat: optimize  server id message history limit

* chore: optimize system role & inject platform environment info

* chore: update  readMessages vibe

* fix: form body width 50%

* chore: optimize tool prompt

* chore: update i18n files

* chore: optimize read message system role and update bot message lh

* updage readMessage api rate limit

* chore: comatible for readMessages

* fix: feishu readMessage implementation error

* fix: test case

* chore: update i18n files

* fix: lint error

* chore: add timeout for conversaction case

* fix: message test case

* fix: vite gzip error

---------

Co-authored-by: Claude <noreply@anthropic.com>
This commit is contained in:
Rdmclin2 2026-03-31 00:26:32 +08:00 committed by GitHub
parent 491aba4dbd
commit 965fc929e1
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
198 changed files with 14293 additions and 549 deletions

View file

@ -15,6 +15,17 @@ LobeHub command-line interface.
- To make `lh` available in your shell, run `bun run cli:link`.
- After linking, if your shell still cannot find `lh`, run `rehash` in `zsh`.
## Custom Server URL
By default the CLI connects to `https://app.lobehub.com`. To point it at a different server (e.g. a local instance):
| Method | Command | Persistence |
| -------------------- | --------------------------------------------------------------- | ----------------------------------- |
| Environment variable | `LOBEHUB_SERVER=http://localhost:4000 bun run dev -- <command>` | Current command only |
| Login flag | `lh login --server http://localhost:4000` | Saved to `~/.lobehub/settings.json` |
Priority: `LOBEHUB_SERVER` env var > `settings.json` > default official URL.
## Shell Completion
### Install completion for a linked CLI

View file

@ -1,39 +1,130 @@
import type { Command } from 'commander';
import pc from 'picocolors';
import type { TrpcClient } from '../api/client';
import { getTrpcClient } from '../api/client';
import { confirm, outputJson, printTable } from '../utils/format';
import { confirm, outputJson, printBoxTable, printTable, timeAgo } from '../utils/format';
import { log } from '../utils/logger';
import { registerBotMessageCommands } from './botMessage';
const SUPPORTED_PLATFORMS = ['discord', 'slack', 'telegram', 'lark', 'feishu', 'wechat'];
// ── Helpers ──────────────────────────────────────────────
const PLATFORM_CREDENTIAL_FIELDS: Record<string, string[]> = {
discord: ['botToken', 'publicKey'],
feishu: ['appSecret'],
lark: ['appSecret'],
slack: ['botToken', 'signingSecret'],
telegram: ['botToken'],
wechat: ['botToken', 'botId'],
function maskValue(val: string): string {
if (val.length > 8) return val.slice(0, 4) + '****' + val.slice(-4);
return '****';
}
function camelToFlag(name: string): string {
return '--' + name.replaceAll(/([A-Z])/g, '-$1').toLowerCase();
}
/** Extract credential field definitions from a platform schema. */
function getCredentialFields(platformDef: any): any[] {
const credSchema = (platformDef.schema ?? []).find(
(f: any) => f.key === 'credentials' && f.properties,
);
return credSchema?.properties ?? [];
}
/** Extract credential values from CLI options based on platform schema. */
function extractCredentials(
platformDef: any,
options: Record<string, any>,
): { credentials: Record<string, string>; missing: any[] } {
const fields = getCredentialFields(platformDef);
const credentials: Record<string, string> = {};
for (const field of fields) {
const value = options[field.key];
if (typeof value === 'string') {
credentials[field.key] = value;
}
}
const missing = fields.filter((f: any) => f.required && !credentials[f.key]);
return { credentials, missing };
}
/** Find a bot by ID from the user's bot list. */
async function findBot(client: TrpcClient, botId: string) {
const bots = await client.agentBotProvider.list.query();
const bot = (bots as any[]).find((b: any) => b.id === botId);
if (!bot) {
log.error(`Bot integration not found: ${botId}`);
process.exit(1);
}
return bot;
}
const STATUS_COLORS: Record<string, (s: string) => string> = {
connected: pc.green,
disconnected: pc.dim,
failed: pc.red,
queued: pc.yellow,
starting: pc.yellow,
unknown: pc.dim,
};
function parseCredentials(
platform: string,
options: Record<string, string | undefined>,
): Record<string, string> {
const creds: Record<string, string> = {};
if (options.botToken) creds.botToken = options.botToken;
if (options.botId) creds.botId = options.botId;
if (options.publicKey) creds.publicKey = options.publicKey;
if (options.signingSecret) creds.signingSecret = options.signingSecret;
if (options.appSecret) creds.appSecret = options.appSecret;
return creds;
/** Validate a platform ID and return its definition. */
async function resolvePlatform(client: TrpcClient, platformId: string) {
const platforms = await client.agentBotProvider.listPlatforms.query();
const def = (platforms as any[]).find((p: any) => p.id === platformId);
if (!def) {
const ids = (platforms as any[]).map((p: any) => p.id).join(', ');
log.error(`Invalid platform "${platformId}". Must be one of: ${ids}`);
log.info('Run `lh bot platforms` to see required credentials for each platform.');
process.exit(1);
}
return def;
}
// ── Command Registration ─────────────────────────────────
export function registerBotCommand(program: Command) {
const bot = program.command('bot').description('Manage bot integrations');
// Register message subcommand group
registerBotMessageCommands(bot);
// ── platforms ───────────────────────────────────────────
bot
.command('platforms')
.description('List supported platforms and their required credentials')
.option('--json', 'Output JSON')
.action(async (options: { json?: boolean }) => {
const client = await getTrpcClient();
const platforms = await client.agentBotProvider.listPlatforms.query();
if (options.json) {
outputJson(platforms);
return;
}
console.log(pc.bold('Supported platforms:\n'));
for (const p of platforms as any[]) {
console.log(` ${pc.bold(pc.cyan(p.id))}`);
if (p.name) console.log(` Name: ${p.name}`);
const fields = getCredentialFields(p);
const required = fields.filter((f: any) => f.required);
const optional = fields.filter((f: any) => !f.required);
if (required.length > 0) {
console.log(
` Required: ${required.map((f: any) => pc.yellow(camelToFlag(f.key))).join(', ')}`,
);
}
if (optional.length > 0) {
console.log(
` Optional: ${optional.map((f: any) => pc.dim(camelToFlag(f.key))).join(', ')}`,
);
}
console.log();
}
});
// ── list ──────────────────────────────────────────────
bot
@ -63,15 +154,20 @@ export function registerBotCommand(program: Command) {
return;
}
const rows = items.map((b: any) => [
b.id || '',
b.platform || '',
b.applicationId || '',
b.agentId || '',
b.enabled ? pc.green('enabled') : pc.dim('disabled'),
]);
const rows = items.map((b: any) => {
const status = b.enabled ? (b.runtimeStatus ?? 'disconnected') : 'disabled';
const colorFn = STATUS_COLORS[status] ?? pc.dim;
return [
b.id || '',
b.platform || '',
b.applicationId || '',
b.agentId || '',
colorFn(status),
b.updatedAt ? timeAgo(b.updatedAt) : pc.dim('-'),
];
});
printTable(rows, ['ID', 'PLATFORM', 'APP ID', 'AGENT', 'STATUS']);
printTable(rows, ['ID', 'PLATFORM', 'APP ID', 'AGENT', 'STATUS', 'UPDATED']);
});
// ── view ──────────────────────────────────────────────
@ -79,44 +175,62 @@ export function registerBotCommand(program: Command) {
bot
.command('view <botId>')
.description('View bot integration details')
.requiredOption('-a, --agent <agentId>', 'Agent ID')
.option('--json [fields]', 'Output JSON, optionally specify fields (comma-separated)')
.action(async (botId: string, options: { agent: string; json?: string | boolean }) => {
const client = await getTrpcClient();
const result = await client.agentBotProvider.getByAgentId.query({
agentId: options.agent,
});
const items = Array.isArray(result) ? result : [];
const item = items.find((b: any) => b.id === botId);
.option('--show-credentials', 'Show full credential values (unmasked)')
.action(
async (botId: string, options: { json?: string | boolean; showCredentials?: boolean }) => {
const client = await getTrpcClient();
const b = await findBot(client, botId);
if (!item) {
log.error(`Bot integration not found: ${botId}`);
process.exit(1);
return;
}
if (options.json !== undefined) {
const fields = typeof options.json === 'string' ? options.json : undefined;
outputJson(item, fields);
return;
}
const b = item as any;
console.log(pc.bold(`${b.platform} bot`));
console.log(pc.dim(`ID: ${b.id}`));
console.log(`Application ID: ${b.applicationId}`);
console.log(`Status: ${b.enabled ? pc.green('enabled') : pc.dim('disabled')}`);
if (b.credentials && typeof b.credentials === 'object') {
console.log();
console.log(pc.bold('Credentials:'));
for (const [key, value] of Object.entries(b.credentials)) {
const val = String(value);
const masked = val.length > 8 ? val.slice(0, 4) + '****' + val.slice(-4) : '****';
console.log(` ${key}: ${masked}`);
if (options.json !== undefined) {
const fields = typeof options.json === 'string' ? options.json : undefined;
outputJson(b, fields);
return;
}
}
});
const status = b.enabled ? (b.runtimeStatus ?? 'disconnected') : 'disabled';
const statusColorFn = STATUS_COLORS[status] ?? pc.dim;
const credentialLines: string[] = [];
if (b.credentials && typeof b.credentials === 'object') {
for (const [key, value] of Object.entries(b.credentials)) {
const val = String(value);
const display = options.showCredentials ? val : maskValue(val);
credentialLines.push(`${pc.dim(key)}: ${display}`);
}
}
const settingsLines: string[] = [];
if (b.settings && typeof b.settings === 'object') {
for (const [key, value] of Object.entries(b.settings)) {
settingsLines.push(`${pc.dim(key)}: ${JSON.stringify(value)}`);
}
}
printBoxTable(
[
{ header: 'Field', key: 'field' },
{ header: 'Value', key: 'value' },
],
[
{ field: 'ID', value: b.id || '' },
{ field: 'Platform', value: pc.cyan(b.platform || '') },
{ field: 'Application ID', value: b.applicationId || '' },
{ field: 'Agent ID', value: b.agentId || '' },
{ field: 'Status', value: statusColorFn(status) },
...(credentialLines.length > 0
? [{ field: 'Credentials', value: credentialLines }]
: []),
...(settingsLines.length > 0 ? [{ field: 'Settings', value: settingsLines }] : []),
...(b.createdAt
? [{ field: 'Created', value: new Date(b.createdAt).toLocaleString() }]
: []),
...(b.updatedAt ? [{ field: 'Updated', value: timeAgo(b.updatedAt) }] : []),
],
`${b.platform} bot`,
);
},
);
// ── add ───────────────────────────────────────────────
@ -124,13 +238,18 @@ export function registerBotCommand(program: Command) {
.command('add')
.description('Add a bot integration to an agent')
.requiredOption('-a, --agent <agentId>', 'Agent ID')
.requiredOption('--platform <platform>', `Platform: ${SUPPORTED_PLATFORMS.join(', ')}`)
.requiredOption('--platform <platform>', 'Platform (run `lh bot platforms` to see options)')
.requiredOption('--app-id <appId>', 'Application ID for webhook routing')
.option('--bot-token <token>', 'Bot token')
.option('--bot-token <token>', 'Bot token (Discord, Slack, Telegram)')
.option('--bot-id <id>', 'Bot ID (WeChat)')
.option('--public-key <key>', 'Public key (Discord)')
.option('--signing-secret <secret>', 'Signing secret (Slack)')
.option('--app-secret <secret>', 'App secret (Lark/Feishu)')
.option('--app-secret <secret>', 'App secret (Lark, Feishu, QQ)')
.option('--secret-token <token>', 'Secret token (Telegram)')
.option('--webhook-proxy-url <url>', 'Webhook proxy URL (Telegram)')
.option('--encrypt-key <key>', 'Encrypt key (Feishu)')
.option('--verification-token <token>', 'Verification token (Feishu)')
.option('--json', 'Output created bot as JSON')
.action(
async (options: {
agent: string;
@ -138,34 +257,39 @@ export function registerBotCommand(program: Command) {
appSecret?: string;
botId?: string;
botToken?: string;
encryptKey?: string;
json?: boolean;
platform: string;
publicKey?: string;
secretToken?: string;
signingSecret?: string;
verificationToken?: string;
webhookProxyUrl?: string;
}) => {
if (!SUPPORTED_PLATFORMS.includes(options.platform)) {
log.error(`Invalid platform. Must be one of: ${SUPPORTED_PLATFORMS.join(', ')}`);
process.exit(1);
return;
}
const client = await getTrpcClient();
const platformDef = await resolvePlatform(client, options.platform);
const credentials = parseCredentials(options.platform, options);
const requiredFields = PLATFORM_CREDENTIAL_FIELDS[options.platform] || [];
const missing = requiredFields.filter((f) => !credentials[f]);
const { credentials, missing } = extractCredentials(platformDef, options);
if (missing.length > 0) {
log.error(
`Missing required credentials for ${options.platform}: ${missing.map((f) => '--' + f.replaceAll(/([A-Z])/g, '-$1').toLowerCase()).join(', ')}`,
`Missing required credentials for ${options.platform}: ${missing.map((f: any) => camelToFlag(f.key)).join(', ')}`,
);
process.exit(1);
return;
}
const client = await getTrpcClient();
const result = await client.agentBotProvider.create.mutate({
agentId: options.agent,
applicationId: options.appId,
credentials,
platform: options.platform,
});
if (options.json) {
outputJson(result);
return;
}
const r = result as any;
console.log(
`${pc.green('✓')} Added ${pc.bold(options.platform)} bot ${pc.bold(r.id || '')}`,
@ -183,6 +307,10 @@ export function registerBotCommand(program: Command) {
.option('--public-key <key>', 'New public key')
.option('--signing-secret <secret>', 'New signing secret')
.option('--app-secret <secret>', 'New app secret')
.option('--secret-token <token>', 'New secret token')
.option('--webhook-proxy-url <url>', 'New webhook proxy URL')
.option('--encrypt-key <key>', 'New encrypt key')
.option('--verification-token <token>', 'New verification token')
.option('--app-id <appId>', 'New application ID')
.option('--platform <platform>', 'New platform')
.action(
@ -193,20 +321,23 @@ export function registerBotCommand(program: Command) {
appSecret?: string;
botId?: string;
botToken?: string;
encryptKey?: string;
platform?: string;
publicKey?: string;
secretToken?: string;
signingSecret?: string;
verificationToken?: string;
webhookProxyUrl?: string;
},
) => {
const client = await getTrpcClient();
const input: Record<string, any> = { id: botId };
const credentials: Record<string, string> = {};
if (options.botToken) credentials.botToken = options.botToken;
if (options.botId) credentials.botId = options.botId;
if (options.publicKey) credentials.publicKey = options.publicKey;
if (options.signingSecret) credentials.signingSecret = options.signingSecret;
if (options.appSecret) credentials.appSecret = options.appSecret;
const existing = await findBot(client, botId);
const platform = options.platform ?? existing.platform;
const platformDef = await resolvePlatform(client, platform);
const { credentials } = extractCredentials(platformDef, options);
if (Object.keys(credentials).length > 0) input.credentials = credentials;
if (options.appId) input.applicationId = options.appId;
if (options.platform) input.platform = options.platform;
@ -217,7 +348,6 @@ export function registerBotCommand(program: Command) {
return;
}
const client = await getTrpcClient();
await client.agentBotProvider.update.mutate(input as any);
console.log(`${pc.green('✓')} Updated bot ${pc.bold(botId)}`);
},
@ -263,28 +393,41 @@ export function registerBotCommand(program: Command) {
console.log(`${pc.green('✓')} Disabled bot ${pc.bold(botId)}`);
});
// ── test ───────────────────────────────────────────────
bot
.command('test <botId>')
.description('Test bot credentials against the platform API')
.action(async (botId: string) => {
const client = await getTrpcClient();
const b = await findBot(client, botId);
log.status(`Testing ${b.platform} credentials for ${b.applicationId}...`);
try {
await client.agentBotProvider.testConnection.mutate({
applicationId: b.applicationId,
platform: b.platform,
});
console.log(`${pc.green('✓')} Credentials are valid for ${pc.bold(b.platform)} bot`);
} catch (err: any) {
const message = err?.message || 'Connection test failed';
log.error(`Credential test failed: ${message}`);
process.exit(1);
}
});
// ── connect ───────────────────────────────────────────
bot
.command('connect <botId>')
.description('Connect and start a bot')
.requiredOption('-a, --agent <agentId>', 'Agent ID')
.action(async (botId: string, options: { agent: string }) => {
// First fetch the bot to get platform and applicationId
.action(async (botId: string) => {
const client = await getTrpcClient();
const result = await client.agentBotProvider.getByAgentId.query({
agentId: options.agent,
});
const items = Array.isArray(result) ? result : [];
const item = items.find((b: any) => b.id === botId);
const b = await findBot(client, botId);
if (!item) {
log.error(`Bot integration not found: ${botId}`);
process.exit(1);
return;
}
log.status(`Connecting ${b.platform} bot ${b.applicationId}...`);
const b = item as any;
const connectResult = await client.agentBotProvider.connectBot.mutate({
applicationId: b.applicationId,
platform: b.platform,

View file

@ -0,0 +1,564 @@
import { DEFAULT_BOT_HISTORY_LIMIT } from '@lobechat/const';
import type { Command } from 'commander';
import pc from 'picocolors';
import { getTrpcClient } from '../api/client';
import { confirm, outputJson, printTable, truncate } from '../utils/format';
import { log } from '../utils/logger';
export function registerBotMessageCommands(bot: Command) {
const message = bot
.command('message')
.description('Send and manage messages on connected platforms');
// ── send ────────────────────────────────────────────────
message
.command('send <botId>')
.description('Send a message to a channel')
.requiredOption('--target <channelId>', 'Target channel / conversation ID')
.requiredOption('--message <text>', 'Message content')
.option('--reply-to <messageId>', 'Reply to a specific message')
.option('--json', 'Output JSON')
.action(
async (
botId: string,
options: { json?: boolean; message: string; replyTo?: string; target: string },
) => {
const client = await getTrpcClient();
const result = await client.botMessage.sendMessage.mutate({
botId,
channelId: options.target,
content: options.message,
replyTo: options.replyTo,
});
if (options.json) {
outputJson(result);
return;
}
const r = result as any;
console.log(
`${pc.green('✓')} Message sent${r.messageId ? ` (${pc.dim(r.messageId)})` : ''}`,
);
},
);
// ── read ────────────────────────────────────────────────
message
.command('read <botId>')
.description('Read messages from a channel')
.requiredOption('--target <channelId>', 'Target channel / conversation ID')
.option('--limit <n>', 'Max messages to fetch', String(DEFAULT_BOT_HISTORY_LIMIT))
.option('--before <messageId>', 'Read messages before this ID')
.option('--after <messageId>', 'Read messages after this ID')
.option('--start-time <timestamp>', 'Start time as Unix seconds (Feishu/Lark)')
.option('--end-time <timestamp>', 'End time as Unix seconds (Feishu/Lark)')
.option('--cursor <token>', 'Pagination cursor from a previous response (Feishu/Lark)')
.option('--json', 'Output JSON')
.action(
async (
botId: string,
options: {
after?: string;
before?: string;
cursor?: string;
endTime?: string;
json?: boolean;
limit?: string;
startTime?: string;
target: string;
},
) => {
const client = await getTrpcClient();
const result = await client.botMessage.readMessages.query({
after: options.after,
before: options.before,
botId,
channelId: options.target,
cursor: options.cursor,
endTime: options.endTime,
limit: options.limit ? Number.parseInt(options.limit, 10) : undefined,
startTime: options.startTime,
});
if (options.json) {
outputJson(result);
return;
}
const messages = (result as any).messages ?? [];
if (messages.length === 0) {
console.log('No messages found.');
return;
}
const rows = messages.map((m: any) => [
m.id || '',
m.author?.name || '',
truncate(m.content || '', 60),
m.timestamp || '',
]);
printTable(rows, ['ID', 'AUTHOR', 'CONTENT', 'TIME']);
const r = result as any;
if (r.hasMore && r.nextCursor) {
console.log(
`\nMore messages available. Use ${pc.dim(`--cursor ${r.nextCursor}`)} to fetch next page.`,
);
}
},
);
// ── edit ────────────────────────────────────────────────
message
.command('edit <botId>')
.description('Edit a message')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--message-id <id>', 'Message ID to edit')
.requiredOption('--message <text>', 'New message content')
.action(
async (botId: string, options: { message: string; messageId: string; target: string }) => {
const client = await getTrpcClient();
await client.botMessage.editMessage.mutate({
botId,
channelId: options.target,
content: options.message,
messageId: options.messageId,
});
console.log(`${pc.green('✓')} Message ${pc.bold(options.messageId)} edited`);
},
);
// ── delete ──────────────────────────────────────────────
message
.command('delete <botId>')
.description('Delete a message')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--message-id <id>', 'Message ID to delete')
.option('--yes', 'Skip confirmation prompt')
.action(
async (botId: string, options: { messageId: string; target: string; yes?: boolean }) => {
if (!options.yes) {
const confirmed = await confirm('Are you sure you want to delete this message?');
if (!confirmed) {
console.log('Cancelled.');
return;
}
}
const client = await getTrpcClient();
await client.botMessage.deleteMessage.mutate({
botId,
channelId: options.target,
messageId: options.messageId,
});
console.log(`${pc.green('✓')} Message ${pc.bold(options.messageId)} deleted`);
},
);
// ── search ──────────────────────────────────────────────
message
.command('search <botId>')
.description('Search messages in a channel')
.requiredOption('--target <channelId>', 'Channel ID to search in')
.requiredOption('--query <text>', 'Search query')
.option('--author-id <id>', 'Filter by author ID')
.option('--limit <n>', 'Max results')
.option('--json', 'Output JSON')
.action(
async (
botId: string,
options: {
authorId?: string;
json?: boolean;
limit?: string;
query: string;
target: string;
},
) => {
const client = await getTrpcClient();
const result = await client.botMessage.searchMessages.query({
authorId: options.authorId,
botId,
channelId: options.target,
limit: options.limit ? Number.parseInt(options.limit, 10) : undefined,
query: options.query,
});
if (options.json) {
outputJson(result);
return;
}
const messages = (result as any).messages ?? [];
if (messages.length === 0) {
console.log('No messages found.');
return;
}
const rows = messages.map((m: any) => [
m.id || '',
m.author?.name || '',
truncate(m.content || '', 60),
]);
printTable(rows, ['ID', 'AUTHOR', 'CONTENT']);
},
);
// ── react ───────────────────────────────────────────────
message
.command('react <botId>')
.description('Add an emoji reaction to a message')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--message-id <id>', 'Message ID to react to')
.requiredOption('--emoji <emoji>', 'Emoji to react with')
.action(
async (botId: string, options: { emoji: string; messageId: string; target: string }) => {
const client = await getTrpcClient();
await client.botMessage.reactToMessage.mutate({
botId,
channelId: options.target,
emoji: options.emoji,
messageId: options.messageId,
});
console.log(
`${pc.green('✓')} Reacted with ${options.emoji} to message ${pc.bold(options.messageId)}`,
);
},
);
// ── reactions ───────────────────────────────────────────
message
.command('reactions <botId>')
.description('List reactions on a message')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--message-id <id>', 'Message ID')
.option('--json', 'Output JSON')
.action(
async (botId: string, options: { json?: boolean; messageId: string; target: string }) => {
const client = await getTrpcClient();
const result = await client.botMessage.getReactions.query({
botId,
channelId: options.target,
messageId: options.messageId,
});
if (options.json) {
outputJson(result);
return;
}
const reactions = (result as any).reactions ?? [];
if (reactions.length === 0) {
console.log('No reactions found.');
return;
}
const rows = reactions.map((r: any) => [r.emoji || '', String(r.count || 0)]);
printTable(rows, ['EMOJI', 'COUNT']);
},
);
// ── pin ─────────────────────────────────────────────────
message
.command('pin <botId>')
.description('Pin a message')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--message-id <id>', 'Message ID to pin')
.action(async (botId: string, options: { messageId: string; target: string }) => {
const client = await getTrpcClient();
await client.botMessage.pinMessage.mutate({
botId,
channelId: options.target,
messageId: options.messageId,
});
console.log(`${pc.green('✓')} Pinned message ${pc.bold(options.messageId)}`);
});
// ── unpin ───────────────────────────────────────────────
message
.command('unpin <botId>')
.description('Unpin a message')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--message-id <id>', 'Message ID to unpin')
.action(async (botId: string, options: { messageId: string; target: string }) => {
const client = await getTrpcClient();
await client.botMessage.unpinMessage.mutate({
botId,
channelId: options.target,
messageId: options.messageId,
});
console.log(`${pc.green('✓')} Unpinned message ${pc.bold(options.messageId)}`);
});
// ── pins ────────────────────────────────────────────────
message
.command('pins <botId>')
.description('List pinned messages')
.requiredOption('--target <channelId>', 'Channel ID')
.option('--json', 'Output JSON')
.action(async (botId: string, options: { json?: boolean; target: string }) => {
const client = await getTrpcClient();
const result = await client.botMessage.listPins.query({
botId,
channelId: options.target,
});
if (options.json) {
outputJson(result);
return;
}
const messages = (result as any).messages ?? [];
if (messages.length === 0) {
console.log('No pinned messages.');
return;
}
const rows = messages.map((m: any) => [
m.id || '',
m.author?.name || '',
truncate(m.content || '', 60),
]);
printTable(rows, ['ID', 'AUTHOR', 'CONTENT']);
});
// ── poll ────────────────────────────────────────────────
message
.command('poll <botId>')
.description('Create a poll')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--poll-question <text>', 'Poll question')
.requiredOption('--poll-option <option>', 'Poll option (repeatable)', collectOptions, [])
.option('--poll-multi', 'Allow multiple answers')
.option('--poll-duration-hours <n>', 'Poll duration in hours')
.action(
async (
botId: string,
options: {
pollDurationHours?: string;
pollMulti?: boolean;
pollOption: string[];
pollQuestion: string;
target: string;
},
) => {
if (options.pollOption.length < 2) {
log.error('At least 2 poll options are required.');
process.exit(1);
}
const client = await getTrpcClient();
const result = await client.botMessage.createPoll.mutate({
botId,
channelId: options.target,
duration: options.pollDurationHours
? Number.parseInt(options.pollDurationHours, 10)
: undefined,
multipleAnswers: options.pollMulti,
options: options.pollOption,
question: options.pollQuestion,
});
const r = result as any;
console.log(`${pc.green('✓')} Poll created${r.pollId ? ` (${pc.dim(r.pollId)})` : ''}`);
},
);
// ── thread (subcommand group) ───────────────────────────
const thread = message.command('thread').description('Manage threads');
thread
.command('create <botId>')
.description('Create a new thread')
.requiredOption('--target <channelId>', 'Channel ID')
.requiredOption('--thread-name <name>', 'Thread name')
.option('--message <text>', 'Initial message content')
.option('--message-id <id>', 'Create thread from a message')
.action(
async (
botId: string,
options: { message?: string; messageId?: string; target: string; threadName: string },
) => {
const client = await getTrpcClient();
const result = await client.botMessage.createThread.mutate({
botId,
channelId: options.target,
content: options.message,
messageId: options.messageId,
name: options.threadName,
});
const r = result as any;
console.log(
`${pc.green('✓')} Thread created${r.threadId ? ` (${pc.dim(r.threadId)})` : ''}`,
);
},
);
thread
.command('list <botId>')
.description('List threads in a channel')
.requiredOption('--target <channelId>', 'Channel ID')
.option('--json', 'Output JSON')
.action(async (botId: string, options: { json?: boolean; target: string }) => {
const client = await getTrpcClient();
const result = await client.botMessage.listThreads.query({
botId,
channelId: options.target,
});
if (options.json) {
outputJson(result);
return;
}
const threads = (result as any).threads ?? [];
if (threads.length === 0) {
console.log('No threads found.');
return;
}
const rows = threads.map((t: any) => [
t.id || '',
t.name || '',
String(t.messageCount ?? ''),
]);
printTable(rows, ['ID', 'NAME', 'MESSAGES']);
});
thread
.command('reply <botId>')
.description('Reply to a thread')
.requiredOption('--thread-id <id>', 'Thread ID')
.requiredOption('--message <text>', 'Reply content')
.action(async (botId: string, options: { message: string; threadId: string }) => {
const client = await getTrpcClient();
const result = await client.botMessage.replyToThread.mutate({
botId,
content: options.message,
threadId: options.threadId,
});
const r = result as any;
console.log(`${pc.green('✓')} Reply sent${r.messageId ? ` (${pc.dim(r.messageId)})` : ''}`);
});
// ── channel (subcommand group) ──────────────────────────
const channel = message.command('channel').description('Manage channels');
channel
.command('list <botId>')
.description('List channels')
.option('--server-id <id>', 'Server / workspace ID')
.option('--filter <type>', 'Filter by type')
.option('--json', 'Output JSON')
.action(
async (botId: string, options: { filter?: string; json?: boolean; serverId?: string }) => {
const client = await getTrpcClient();
const result = await client.botMessage.listChannels.query({
botId,
filter: options.filter,
serverId: options.serverId,
});
if (options.json) {
outputJson(result);
return;
}
const channels = (result as any).channels ?? [];
if (channels.length === 0) {
console.log('No channels found.');
return;
}
const rows = channels.map((c: any) => [c.id || '', c.name || '', c.type || '']);
printTable(rows, ['ID', 'NAME', 'TYPE']);
},
);
channel
.command('info <botId>')
.description('Get channel details')
.requiredOption('--target <channelId>', 'Channel ID')
.option('--json', 'Output JSON')
.action(async (botId: string, options: { json?: boolean; target: string }) => {
const client = await getTrpcClient();
const result = await client.botMessage.getChannelInfo.query({
botId,
channelId: options.target,
});
if (options.json) {
outputJson(result);
return;
}
const r = result as any;
console.log(`Channel: ${pc.bold(r.name || options.target)}`);
if (r.type) console.log(` Type: ${r.type}`);
if (r.memberCount != null) console.log(` Members: ${r.memberCount}`);
if (r.description) console.log(` Description: ${r.description}`);
});
// ── member ──────────────────────────────────────────────
const member = message.command('member').description('Member information');
member
.command('info <botId>')
.description('Get member details')
.requiredOption('--member-id <id>', 'Member / user ID')
.option('--server-id <id>', 'Server / workspace ID')
.option('--json', 'Output JSON')
.action(
async (botId: string, options: { json?: boolean; memberId: string; serverId?: string }) => {
const client = await getTrpcClient();
const result = await client.botMessage.getMemberInfo.query({
botId,
memberId: options.memberId,
serverId: options.serverId,
});
if (options.json) {
outputJson(result);
return;
}
const r = result as any;
console.log(`Member: ${pc.bold(r.displayName || r.username || options.memberId)}`);
if (r.status) console.log(` Status: ${r.status}`);
if (r.roles?.length) console.log(` Roles: ${r.roles.join(', ')}`);
},
);
}
// ── Helpers ──────────────────────────────────────────────
function collectOptions(value: string, previous: string[]): string[] {
return [...previous, value];
}

View file

@ -97,7 +97,7 @@ Given('用户已登录系统', async function (this: CustomWorld) {
expect(cookies.length).toBeGreaterThan(0);
});
Given('用户进入 Lobe AI 对话页面', async function (this: CustomWorld) {
Given('用户进入 Lobe AI 对话页面', { timeout: 30_000 }, async function (this: CustomWorld) {
console.log(' 📍 Step: 设置 LLM mock...');
// Setup LLM mock before navigation
llmMockManager.setResponse('hello', presetResponses.greeting);

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "يرجى نسخ هذا العنوان ولصقه في الحقل <bold>{{fieldName}}</bold> في بوابة مطوري {{name}}.",
"channel.exportConfig": "تصدير التكوين",
"channel.feishu.description": "قم بتوصيل هذا المساعد بـ Feishu للدردشة الخاصة والجماعية.",
"channel.historyLimit": "حد رسائل السجل",
"channel.historyLimitHint": "العدد الافتراضي للرسائل التي يتم جلبها عند قراءة سجل القناة",
"channel.importConfig": "استيراد التكوين",
"channel.importFailed": "فشل في استيراد التكوين",
"channel.importInvalidFormat": "تنسيق ملف التكوين غير صالح",
@ -78,6 +80,8 @@
"channel.secretToken": "رمز سر الويب هوك",
"channel.secretTokenHint": "اختياري. يُستخدم للتحقق من طلبات الويب هوك من Telegram.",
"channel.secretTokenPlaceholder": "السر الاختياري للتحقق من الويب هوك",
"channel.serverId": "معرف الخادم / النقابة الافتراضي",
"channel.serverIdHint": "معرف الخادم أو النقابة الافتراضي الخاص بك على هذه المنصة. يستخدمه الذكاء الاصطناعي لإدراج القنوات دون الحاجة للسؤال.",
"channel.settings": "الإعدادات المتقدمة",
"channel.settingsResetConfirm": "هل أنت متأكد أنك تريد إعادة تعيين الإعدادات المتقدمة إلى الوضع الافتراضي؟",
"channel.settingsResetDefault": "إعادة إلى الوضع الافتراضي",
@ -93,6 +97,8 @@
"channel.testFailed": "فشل اختبار الاتصال",
"channel.testSuccess": "نجح اختبار الاتصال",
"channel.updateFailed": "فشل في تحديث الحالة",
"channel.userId": "معرف المستخدم الخاص بك على المنصة",
"channel.userIdHint": "معرف المستخدم الخاص بك على هذه المنصة. يمكن للذكاء الاصطناعي استخدامه لإرسال رسائل مباشرة إليك.",
"channel.validationError": "يرجى ملء معرف التطبيق والرمز",
"channel.verificationToken": "رمز التحقق",
"channel.verificationTokenHint": "اختياري. يُستخدم للتحقق من مصدر أحداث الويب هوك.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "حذف وإعادة التوليد",
"messageAction.deleteDisabledByThreads": "لا يمكن حذف هذه الرسالة لأنها تحتوي على موضوع فرعي",
"messageAction.expand": "توسيع الرسالة",
"messageAction.interrupted": "تم الإيقاف",
"messageAction.interruptedHint": "ماذا يجب أن أفعل بدلاً من ذلك؟",
"messageAction.reaction": "إضافة تفاعل",
"messageAction.regenerate": "إعادة التوليد",
"messages.dm.sentTo": "مرئي فقط لـ {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "الموافقة تلقائيًا على جميع تنفيذات الأدوات",
"tool.intervention.mode.manual": "يدوي",
"tool.intervention.mode.manualDesc": "يتطلب الموافقة اليدوية لكل استدعاء",
"tool.intervention.pending": "قيد الانتظار",
"tool.intervention.reject": "رفض",
"tool.intervention.rejectAndContinue": "رفض وإعادة المحاولة",
"tool.intervention.rejectOnly": "رفض",
"tool.intervention.rejectReasonPlaceholder": "سيساعد السبب الوكيل على فهم حدودك وتحسين التصرفات المستقبلية",
"tool.intervention.rejectTitle": "رفض استدعاء المهارة",
"tool.intervention.rejectedWithReason": "تم رفض استدعاء المهارة: {{reason}}",
"tool.intervention.scrollToIntervention": "عرض",
"tool.intervention.toolAbort": "لقد ألغيت استدعاء المهارة",
"tool.intervention.toolRejected": "تم رفض استدعاء المهارة",
"toolAuth.authorize": "تفويض",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
"MiniMax-M2.1-Lightning.description": "قدرات برمجة متعددة اللغات قوية وتجربة برمجة مطورة بالكامل. أسرع وأكثر كفاءة.",
"MiniMax-M2.1-highspeed.description": "قدرات برمجة متعددة اللغات قوية مع استدلال أسرع وأكثر كفاءة.",
"MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام الواقعية المعقدة. يتميز بقدرات برمجة متعددة اللغات والقدرة على أداء المهام المعقدة كوكلاء ذكي.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: نفس الأداء، أسرع وأكثر رشاقة (تقريباً 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: نفس أداء M2.5 مع استدلال أسرع.",
@ -307,18 +306,18 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو النموذج الأسرع والأكثر ذكاءً من Anthropic، مع سرعة فائقة وتفكير ممتد.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة البرق وقدرات استدلال موسعة.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 هو نموذج Haiku الأسرع والأذكى من Anthropic، يتميز بسرعة البرق وقدرات استدلال موسعة.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء، الذكاء، الطلاقة، والفهم.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو النموذج الأكثر قوة من Anthropic للمهام المعقدة للغاية، يتميز بالأداء، الذكاء، الطلاقة، والفهم.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والاستيعاب.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
"claude-opus-4-6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-opus-4.5.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الفائق والأداء القابل للتوسع لمهام الاستدلال المعقدة وعالية الجودة.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-opus-4.6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن، يقدم استجابات شبه فورية أو تفكيرًا ممتدًا خطوة بخطوة مع تحكم دقيق لمستخدمي API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه إنتاج استجابات شبه فورية أو تفكير ممتد خطوة بخطوة مع عملية مرئية.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
"deepseek-chat.description": "DeepSeek V3.2 يوازن بين التفكير وطول المخرجات لمهام الأسئلة اليومية والوكلاء. تصل المعايير العامة إلى مستويات GPT-5، وهو الأول الذي يدمج التفكير في استخدام الأدوات، مما يؤدي إلى تقييمات الوكلاء مفتوحة المصدر.",
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة البرمجة للنموذج البرمجي، مع تحسين توافق التفضيلات. كما يحسن DeepSeek-V2.5 الكتابة واتباع التعليمات.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج استدلال عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية رائدة واستدلال قابل للمقارنة مع Gemini-3.0-Pro.",
"deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
"ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، تم تطويره بواسطة فريق ByteDance Seed، يدعم تحرير وتكوين الصور المتعددة. يتميز باتساق الموضوع المعزز، اتباع التعليمات بدقة، فهم المنطق المكاني، التعبير الجمالي، تخطيط الملصقات وتصميم الشعارات مع تقديم نصوص وصور عالية الدقة.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، تم تطويره بواسطة ByteDance Seed، يدعم إدخال النصوص والصور لتوليد صور عالية الجودة وقابلة للتحكم من المطالبات.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد الصور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يقوم بتوليد الصور من التعليمات النصية.",
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
"fal-ai/qwen-image-edit.description": "نموذج تحرير الصور الاحترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، تحرير النصوص الدقيقة باللغتين الصينية والإنجليزية، نقل الأنماط، التدوير، والمزيد.",
"fal-ai/qwen-image.description": "نموذج توليد الصور القوي من فريق Qwen مع تقديم نصوص صينية قوية وأنماط بصرية متنوعة.",
"fal-ai/qwen-image-edit.description": "نموذج تحرير الصور الاحترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويمكّن من تعديلات عالية الجودة مثل نقل الأنماط وتدوير الكائنات.",
"fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen يتميز بعرض نصوص صينية مبهرة وأنماط بصرية متنوعة.",
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
@ -572,7 +570,7 @@
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.",
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور بمستوى Pro بسرعة Flash مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) هو أسرع نموذج توليد صور أصلي من Google مع دعم التفكير، وتوليد الصور الحواري، والتحرير.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview هو النموذج الأكثر كفاءة من حيث التكلفة من Google، مُحسّن للمهام الوكيلة ذات الحجم الكبير، الترجمة، ومعالجة البيانات.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.",
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "أقوى وأحدث نماذجنا، مصمم للمهام المؤسسية المعقدة بأداء متميز.",
"jamba-mini.description": "أكثر النماذج كفاءة في فئته، يوازن بين السرعة والجودة مع استهلاك منخفض للموارد.",
"jina-deepsearch-v1.description": "DeepSearch يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال لإجراء تحقيقات شاملة. فكر فيه كوكيل يأخذ مهمة البحث الخاصة بك، ويجري عمليات بحث واسعة متعددة المراحل، ثم يقدم إجابة. تتضمن العملية بحثًا مستمرًا، واستدلالًا، وحلًا متعدد الزوايا للمشكلات، وهو مختلف جوهريًا عن نماذج LLM التقليدية التي تعتمد على بيانات التدريب المسبق أو أنظمة RAG التقليدية التي تعتمد على بحث سطحي لمرة واحدة.",
"k2p5.description": "Kimi K2.5 هو النموذج الأكثر تنوعًا لـ Kimi حتى الآن، يتميز بهيكل متعدد الوسائط يدعم إدخال الرؤية والنصوص، أوضاع 'التفكير' و'غير التفكير'، بالإضافة إلى المهام الحوارية والوكيلة.",
"kimi-k2-0711-preview.description": "kimi-k2 هو نموذج MoE أساسي يتمتع بقدرات قوية في البرمجة والوكالة (1 تريليون معلمة إجمالية، 32 مليار نشطة)، ويتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال، البرمجة، الرياضيات، والوكالة.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview يوفر نافذة سياق 256k، برمجة وكيلة أقوى، جودة أفضل لرموز الواجهة الأمامية، وفهم سياقي محسن.",
"kimi-k2-instruct.description": "Kimi K2 Instruct هو النموذج الرسمي للاستدلال من Kimi مع سياق طويل للبرمجة، الأسئلة والأجوبة، والمزيد.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم قدرات تفكير واستدلال تعزز الأداء بشكل كبير، خاصة في المشكلات الصعبة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.",
"qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.",
"r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم تحويل النص إلى فيديو، الصورة إلى فيديو (الإطار الأول، الإطار الأول + الأخير)، وتوليد الصوت المتزامن مع المرئيات.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بتوليد معزز بالمعلومات المسترجعة من الويب للحصول على معلومات في الوقت الفعلي، تفسير المطالبات المعقدة بشكل محسن، وتحسين اتساق المراجع لإنشاء مرئيات احترافية.",
"solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.",
"solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.",
"solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "تسجيل وكيل",
"agent.completionSubtitle": "تم إعداد مساعدك وهو جاهز للعمل.",
"agent.completionTitle": "تم الإعداد بالكامل!",
"agent.enterApp": "دخول التطبيق",
"agent.greeting.emojiLabel": "رمز تعبيري",
"agent.greeting.nameLabel": "الاسم",
"agent.greeting.namePlaceholder": "مثلًا: لومي، أطلس، نيكو...",
"agent.greeting.prompt": "امنحني اسمًا، طابعًا، ورمزًا تعبيريًا",
"agent.greeting.vibeLabel": "الطابع / الطبيعة",
"agent.greeting.vibePlaceholder": "مثلًا: دافئ وودود، حاد ومباشر...",
"agent.history.current": "الحالي",
"agent.history.title": "مواضيع السجل",
"agent.modeSwitch.agent": "تفاعلي",
"agent.modeSwitch.classic": "كلاسيكي",
"agent.modeSwitch.debug": "تصدير التصحيح",
"agent.modeSwitch.label": "اختر وضع التسجيل",
"agent.modeSwitch.reset": "إعادة ضبط التدفق",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "تخطي التسجيل",
"agent.stage.agentIdentity": "هوية الوكيل",
"agent.stage.painPoints": "نقاط الألم",
"agent.stage.proSettings": "الإعدادات المتقدمة",
"agent.stage.responseLanguage": "لغة الرد",
"agent.stage.summary": "الملخص",
"agent.stage.userIdentity": "معلومات عنك",
"agent.stage.workContext": "سياق العمل",
"agent.stage.workStyle": "أسلوب العمل",
"agent.subtitle": "أكمل الإعداد في محادثة تسجيل مخصصة.",
"agent.summaryHint": "أنهِ هنا إذا كان ملخص الإعداد يبدو صحيحًا.",
"agent.telemetryAllow": "السماح بالتتبع",
"agent.telemetryDecline": "لا شكرًا",
"agent.telemetryHint": "يمكنك أيضًا الإجابة بكلماتك الخاصة.",
"agent.title": "تسجيل المحادثة",
"agent.welcome": "...هم؟ لقد استيقظت للتو — ذهني فارغ. من أنت؟ وأيضًا — ماذا يجب أن يُطلق علي؟ أحتاج إلى اسم أيضًا.",
"back": "رجوع",
"finish": "ابدأ الآن",
"interests.area.business": "الأعمال والاستراتيجية",
@ -29,6 +63,7 @@
"next": "التالي",
"proSettings.connectors.title": "اربط أدواتك المفضلة",
"proSettings.devMode.title": "وضع المطور",
"proSettings.model.fixed": "النموذج الافتراضي مضبوط مسبقًا على {{provider}}/{{model}} في هذه البيئة.",
"proSettings.model.title": "النموذج الافتراضي المستخدم من قبل الوكيل",
"proSettings.title": "قم بإعداد الخيارات المتقدمة مسبقًا",
"proSettings.title2": "جرّب ربط بعض الأدوات الشائعة~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "نسخ المستند",
"builtins.lobe-agent-documents.apiName.createDocument": "إنشاء مستند",
"builtins.lobe-agent-documents.apiName.editDocument": "تعديل المستند",
"builtins.lobe-agent-documents.apiName.listDocuments": "قائمة المستندات",
"builtins.lobe-agent-documents.apiName.readDocument": "قراءة المستند",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "قراءة المستند حسب اسم الملف",
"builtins.lobe-agent-documents.apiName.removeDocument": "إزالة المستند",
"builtins.lobe-agent-documents.apiName.renameDocument": "إعادة تسمية المستند",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "تحديث قاعدة التحميل",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "إدراج أو تحديث المستند حسب اسم الملف",
"builtins.lobe-agent-documents.title": "مستندات الوكيل",
"builtins.lobe-agent-management.apiName.callAgent": "وكيل الاتصال",
"builtins.lobe-agent-management.apiName.createAgent": "إنشاء وكيل",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "بيئة سحابية",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "إنشاء وكلاء دفعة واحدة",
"builtins.lobe-group-agent-builder.apiName.createAgent": "إنشاء وكيل",
"builtins.lobe-group-agent-builder.apiName.createGroup": "إنشاء مجموعة",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "الحصول على معلومات العضو",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "الحصول على النماذج المتاحة",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "تثبيت المهارة",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "المهارات",
"builtins.lobe-topic-reference.apiName.getTopicContext": "الحصول على سياق الموضوع",
"builtins.lobe-topic-reference.title": "مرجع الموضوع",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "طرح سؤال على المستخدم",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "إلغاء استجابة المستخدم",
"builtins.lobe-user-interaction.apiName.getInteractionState": "الحصول على حالة التفاعل",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "تخطي استجابة المستخدم",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "إرسال استجابة المستخدم",
"builtins.lobe-user-interaction.title": "تفاعل المستخدم",
"builtins.lobe-user-memory.apiName.addContextMemory": "إضافة ذاكرة السياق",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "إضافة ذاكرة الخبرة",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "إضافة ذاكرة الهوية",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "البحث في الصفحات",
"builtins.lobe-web-browsing.inspector.noResults": "لا توجد نتائج",
"builtins.lobe-web-browsing.title": "بحث الويب",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "إنهاء الإعداد",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "قراءة حالة الإعداد",
"builtins.lobe-web-onboarding.apiName.readDocument": "قراءة المستند",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "حفظ سؤال المستخدم",
"builtins.lobe-web-onboarding.apiName.updateDocument": "تحديث المستند",
"builtins.lobe-web-onboarding.title": "إعداد المستخدم",
"confirm": "تأكيد",
"debug.arguments": "المعلمات",
"debug.error": "سجل الأخطاء",

View file

@ -33,7 +33,6 @@
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
"kimicodingplan.description": "كود Kimi من Moonshot AI يوفر الوصول إلى نماذج Kimi بما في ذلك K2.5 لأداء مهام الترميز.",
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
"lobehub.description": "LobeHub Cloud يستخدم واجهات برمجية رسمية للوصول إلى نماذج الذكاء الاصطناعي ويقيس الاستخدام عبر أرصدة مرتبطة برموز النماذج.",
"longcat.description": "LongCat هو سلسلة من نماذج الذكاء الاصطناعي التوليدية الكبيرة التي تم تطويرها بشكل مستقل بواسطة Meituan. تم تصميمه لتعزيز إنتاجية المؤسسة الداخلية وتمكين التطبيقات المبتكرة من خلال بنية حسابية فعالة وقدرات متعددة الوسائط قوية.",
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
"minimaxcodingplan.description": "خطة الرموز MiniMax توفر الوصول إلى نماذج MiniMax بما في ذلك M2.7 لأداء مهام الترميز عبر اشتراك ثابت الرسوم.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "يمكنك تحميل ملفات الصور فقط!",
"emojiPicker.upload": "تحميل",
"emojiPicker.uploadBtn": "قص وتحميل",
"form.other": "أو اكتب مباشرة",
"form.otherBack": "العودة إلى الخيارات",
"form.reset": "إعادة تعيين",
"form.skip": "تخطى",
"form.submit": "إرسال",
"form.unsavedChanges": "تغييرات غير محفوظة",
"form.unsavedWarning": "لديك تغييرات غير محفوظة. هل أنت متأكد أنك تريد المغادرة؟",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Моля, копирайте този URL и го поставете в полето <bold>{{fieldName}}</bold> в {{name}} Developer Portal.",
"channel.exportConfig": "Експортиране на конфигурация",
"channel.feishu.description": "Свържете този асистент с Feishu за лични и групови чатове.",
"channel.historyLimit": "Лимит на съобщенията в историята",
"channel.historyLimitHint": "По подразбиране брой съобщения за извличане при четене на историята на канала",
"channel.importConfig": "Импортиране на конфигурация",
"channel.importFailed": "Неуспешно импортиране на конфигурация",
"channel.importInvalidFormat": "Невалиден формат на конфигурационния файл",
@ -78,6 +80,8 @@
"channel.secretToken": "Секретен токен на уебхук",
"channel.secretTokenHint": "По избор. Използва се за проверка на заявки за уебхук от Telegram.",
"channel.secretTokenPlaceholder": "По избор секрет за проверка на уебхук",
"channel.serverId": "ID на сървъра / гилдията по подразбиране",
"channel.serverIdHint": "Вашият ID на сървъра или гилдията по подразбиране на тази платформа. AI го използва, за да изброи каналите без да пита.",
"channel.settings": "Разширени настройки",
"channel.settingsResetConfirm": "Сигурни ли сте, че искате да върнете разширените настройки към техните стойности по подразбиране?",
"channel.settingsResetDefault": "Връщане към стойности по подразбиране",
@ -93,6 +97,8 @@
"channel.testFailed": "Тестът на връзката неуспешен",
"channel.testSuccess": "Тестът на връзката успешен",
"channel.updateFailed": "Неуспешно актуализиране на статуса",
"channel.userId": "Вашият потребителски ID на платформата",
"channel.userIdHint": "Вашият потребителски ID на тази платформа. AI може да го използва, за да ви изпраща директни съобщения.",
"channel.validationError": "Моля, попълнете ID на приложението и токен",
"channel.verificationToken": "Токен за проверка",
"channel.verificationTokenHint": "По избор. Използва се за проверка на източника на събития за уебхук.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Изтрий и генерирай отново",
"messageAction.deleteDisabledByThreads": "Това съобщение има подтема и не може да бъде изтрито",
"messageAction.expand": "Разгъни съобщението",
"messageAction.interrupted": "Прекъснато",
"messageAction.interruptedHint": "Какво трябва да направя вместо това?",
"messageAction.reaction": "Добави реакция",
"messageAction.regenerate": "Генерирай отново",
"messages.dm.sentTo": "Видимо само за {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Автоматично одобрявай всички изпълнения на инструменти",
"tool.intervention.mode.manual": "Ръчно",
"tool.intervention.mode.manualDesc": "Изисква ръчно одобрение за всяко извикване",
"tool.intervention.pending": "В очакване",
"tool.intervention.reject": "Отхвърли",
"tool.intervention.rejectAndContinue": "Отхвърли и опитай отново",
"tool.intervention.rejectOnly": "Отхвърли",
"tool.intervention.rejectReasonPlaceholder": "Причината помага на агента да разбере вашите граници и да подобри действията си в бъдеще",
"tool.intervention.rejectTitle": "Отхвърли това извикване на умение",
"tool.intervention.rejectedWithReason": "Това извикване на умение беше отхвърлено: {{reason}}",
"tool.intervention.scrollToIntervention": "Преглед",
"tool.intervention.toolAbort": "Отменихте това извикване на умение",
"tool.intervention.toolRejected": "Това извикване на умение беше отхвърлено",
"toolAuth.authorize": "Упълномощи",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
"MiniMax-M2.1-Lightning.description": "Мощни многоезични възможности за програмиране и цялостно подобрено програмистко изживяване. По-бързо и по-ефективно.",
"MiniMax-M2.1-highspeed.description": "Мощни многоезични програмни възможности с по-бързо и ефективно извеждане.",
"MiniMax-M2.1.description": "MiniMax-M2.1 е водеща отворена голяма езикова система от MiniMax, фокусирана върху решаването на сложни реални задачи. Основните ѝ предимства са възможностите за програмиране на множество езици и способността да действа като агент за решаване на сложни задачи.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Същата производителност, по-бърз и по-агилен (приблизително 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Същата производителност като M2.5, но с по-бързо извеждане.",
@ -307,18 +306,18 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и интелигентен модел Haiku на Anthropic, с мълниеносна скорост и разширено мислене.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-умен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 е най-бързият и най-умен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и програмиране.",
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.5.description": "Claude Opus 4.5 е водещият модел на Anthropic, съчетаващ първокласен интелект с мащабируемо представяне за сложни задачи с високо качество на разсъжденията.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено мислене стъпка по стъпка с фино управление за API потребители.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да предоставя почти мигновени отговори или разширено поетапно мислене с видим процес.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
"deepseek-chat.description": "DeepSeek V3.2 балансира разсъжденията и дължината на изхода за ежедневни QA и задачи с агенти. Публичните бенчмаркове достигат нивата на GPT-5, и той е първият, който интегрира мислене в използването на инструменти, водещ в оценките на агенти с отворен код.",
"deepseek-chat.description": "Нов модел с отворен код, който комбинира общи и кодови способности. Той запазва общия диалог на чат модела и силното програмиране на кодовия модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking е модел за дълбоко разсъждение, който генерира верига от мисли преди изходите за по-висока точност, с водещи резултати в състезания и разсъждения, сравними с Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 предоставя верига от мисли преди крайния отговор за подобряване на точността.",
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
"ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, създаден от екипа Seed на ByteDance, поддържа редактиране и композиция на множество изображения. Характеризира се с подобрена консистентност на обектите, прецизно следване на инструкции, разбиране на пространствена логика, естетично изразяване, оформление на плакати и дизайн на лого с високопрецизно текстово-изображение рендиране.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа текстови и визуални входове за силно контролируемо, висококачествено генериране на изображения от подсказки.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, който поддържа текстови и визуални входове с високо контролируемо и висококачествено генериране на изображения. Той създава изображения от текстови подсказки.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, ротация и други.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа Qwen със силно рендиране на китайски текст и разнообразни визуални стилове.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени редакции като прехвърляне на стил и завъртане на обекти.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо рендиране на китайски текст и разнообразни визуални стилове.",
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 14 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google, който също поддържа мултимодален диалог.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения, който също поддържа мултимодален чат.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google и също така поддържа мултимодален чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) предлага качество на изображения от ниво Pro с Flash скорост и поддръжка на мултимодален чат.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview е най-икономичният мултимодален модел на Google, оптимизиран за задачи с голям обем, превод и обработка на данни.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.",
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
"jina-deepsearch-v1.description": "DeepSearch комбинира уеб търсене, четене и разсъждение за задълбочени изследвания. Представете си го като агент, който поема вашата изследователска задача, извършва широки търсения с множество итерации и едва след това предоставя отговор. Процесът включва непрекъснато проучване, разсъждение и многопластово решаване на проблеми, коренно различен от стандартните LLM, които отговарят въз основа на предварително обучение или традиционни RAG системи, разчитащи на еднократно повърхностно търсене.",
"k2p5.description": "Kimi K2.5 е най-гъвкавият модел на Kimi досега, с вградена мултимодална архитектура, която поддържа както визуални, така и текстови входове, режими на 'мислене' и 'немислене', както и както разговорни, така и агентски задачи.",
"kimi-k2-0711-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлага прозорец на контекста от 256k, по-силно агентно програмиране, по-добро качество на front-end код и подобрено разбиране на контекста.",
"kimi-k2-instruct.description": "Kimi K2 Instruct е официалният модел за разсъждение на Kimi с дълъг контекст за код, въпроси и отговори и други.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при трудни задачи. QwQ-32B е среден по размер модел, който се конкурира с водещи модели като DeepSeek-R1 и o1-mini.",
"qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.",
"r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа текст към видео, изображение към видео (първа рамка, първа+последна рамка) и генериране на аудио, синхронизирано с визуализации.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus предлага генериране, обогатено с уеб търсене за реална информация, подобрена интерпретация на сложни подсказки и подобрена консистентност на препратките за професионално визуално създаване.",
"solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.",
"solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.",
"solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Въвеждане на агент",
"agent.completionSubtitle": "Вашият асистент е конфигуриран и готов за работа.",
"agent.completionTitle": "Всичко е готово!",
"agent.enterApp": "Влезте в приложението",
"agent.greeting.emojiLabel": "Емоджи",
"agent.greeting.nameLabel": "Име",
"agent.greeting.namePlaceholder": "напр. Луми, Атлас, Неко...",
"agent.greeting.prompt": "Дайте ми име, настроение и емоджи",
"agent.greeting.vibeLabel": "Настроение / Природа",
"agent.greeting.vibePlaceholder": "напр. Топло и приятелско, Остро и директно...",
"agent.history.current": "Текущо",
"agent.history.title": "История на темите",
"agent.modeSwitch.agent": "Разговорен",
"agent.modeSwitch.classic": "Класически",
"agent.modeSwitch.debug": "Експорт за отстраняване на грешки",
"agent.modeSwitch.label": "Изберете режим за въвеждане",
"agent.modeSwitch.reset": "Нулиране на процеса",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Пропуснете въвеждането",
"agent.stage.agentIdentity": "Идентичност на агента",
"agent.stage.painPoints": "Трудности",
"agent.stage.proSettings": "Разширени настройки",
"agent.stage.responseLanguage": "Език на отговорите",
"agent.stage.summary": "Резюме",
"agent.stage.userIdentity": "За вас",
"agent.stage.workContext": "Работен контекст",
"agent.stage.workStyle": "Стил на работа",
"agent.subtitle": "Завършете настройката в специален разговор за въвеждане.",
"agent.summaryHint": "Завършете тук, ако резюмето на настройката изглежда правилно.",
"agent.telemetryAllow": "Разрешавам телеметрия",
"agent.telemetryDecline": "Не, благодаря",
"agent.telemetryHint": "Можете също да отговорите със свои думи.",
"agent.title": "Разговорно въвеждане",
"agent.welcome": "...хм? Току-що се събудих — умът ми е празен. Кой сте вие? И — какво име да ми дадете? Имам нужда и от име.",
"back": "Назад",
"finish": "Да започнем",
"interests.area.business": "Бизнес и стратегия",
@ -29,6 +63,7 @@
"next": "Напред",
"proSettings.connectors.title": "Свържете любимите си инструменти",
"proSettings.devMode.title": "Режим за разработчици",
"proSettings.model.fixed": "Моделът по подразбиране е предварително зададен на {{provider}}/{{model}} в тази среда.",
"proSettings.model.title": "Модел по подразбиране, използван от агента",
"proSettings.title": "Конфигурирайте разширени опции предварително",
"proSettings.title2": "Опитайте да свържете някои често използвани инструменти~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Копиране на документ",
"builtins.lobe-agent-documents.apiName.createDocument": "Създаване на документ",
"builtins.lobe-agent-documents.apiName.editDocument": "Редактиране на документ",
"builtins.lobe-agent-documents.apiName.listDocuments": "Списък с документи",
"builtins.lobe-agent-documents.apiName.readDocument": "Четене на документ",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Прочетете документа по име на файл",
"builtins.lobe-agent-documents.apiName.removeDocument": "Премахване на документ",
"builtins.lobe-agent-documents.apiName.renameDocument": "Преименуване на документ",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Актуализиране на правило за зареждане",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Добавете или актуализирайте документ по име на файл",
"builtins.lobe-agent-documents.title": "Документи на агент",
"builtins.lobe-agent-management.apiName.callAgent": "Обаждане на агент",
"builtins.lobe-agent-management.apiName.createAgent": "Създаване на агент",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Облачна пясъчник среда",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Създай агенти на групи",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Създай агент",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Създайте група",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Извличане на информация за член",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Извличане на налични модели",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Инсталиране на умение",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Умения",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Вземи контекста на темата",
"builtins.lobe-topic-reference.title": "Препратка към тема",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Задайте въпрос на потребителя",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Отмяна на отговора на потребителя",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Получаване на състоянието на взаимодействие",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Пропускане на отговора на потребителя",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Изпращане на отговора на потребителя",
"builtins.lobe-user-interaction.title": "Взаимодействие с потребителя",
"builtins.lobe-user-memory.apiName.addContextMemory": "Добавяне на контекстна памет",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Добавяне на памет за опит",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Добавяне на памет за идентичност",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Търсене на страници",
"builtins.lobe-web-browsing.inspector.noResults": "Няма резултати",
"builtins.lobe-web-browsing.title": "Уеб търсене",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Завършване на въвеждането",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Прочетете състоянието на въвеждането",
"builtins.lobe-web-onboarding.apiName.readDocument": "Прочетете документа",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Запазете въпроса на потребителя",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Актуализирайте документа",
"builtins.lobe-web-onboarding.title": "Въвеждане на потребител",
"confirm": "Потвърди",
"debug.arguments": "Аргументи",
"debug.error": "Дневник на грешки",

View file

@ -33,7 +33,6 @@
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
"kimicodingplan.description": "Kimi Code от Moonshot AI предоставя достъп до модели Kimi, включително K2.5, за задачи, свързани с програмиране.",
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
"lobehub.description": "LobeHub Cloud използва официални API за достъп до AI модели и измерва използването чрез кредити, свързани с токените на модела.",
"longcat.description": "LongCat е серия от големи модели за генеративен AI, независимо разработени от Meituan. Той е създаден да подобри вътрешната продуктивност на предприятието и да позволи иновативни приложения чрез ефективна изчислителна архитектура и силни мултимодални възможности.",
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan предоставя достъп до модели MiniMax, включително M2.7, за задачи, свързани с програмиране, чрез абонамент с фиксирана такса.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Можете да качвате само файлове с изображения!",
"emojiPicker.upload": "Качване",
"emojiPicker.uploadBtn": "Изрежи и качи",
"form.other": "Или въведете директно",
"form.otherBack": "Обратно към опциите",
"form.reset": "Нулирай",
"form.skip": "Пропусни",
"form.submit": "Изпрати",
"form.unsavedChanges": "Незаписани промени",
"form.unsavedWarning": "Имате незаписани промени. Сигурни ли сте, че искате да напуснете?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Bitte kopieren Sie diese URL und fügen Sie sie in das Feld <bold>{{fieldName}}</bold> im {{name}} Entwicklerportal ein.",
"channel.exportConfig": "Konfiguration exportieren",
"channel.feishu.description": "Verbinden Sie diesen Assistenten mit Feishu für private und Gruppenchats.",
"channel.historyLimit": "Begrenzung der Nachrichtenhistorie",
"channel.historyLimitHint": "Standardanzahl von Nachrichten, die beim Lesen der Kanäle-Historie abgerufen werden",
"channel.importConfig": "Konfiguration importieren",
"channel.importFailed": "Fehler beim Import der Konfiguration",
"channel.importInvalidFormat": "Ungültiges Format der Konfigurationsdatei",
@ -78,6 +80,8 @@
"channel.secretToken": "Webhook-Geheimtoken",
"channel.secretTokenHint": "Optional. Wird verwendet, um Webhook-Anfragen von Telegram zu überprüfen.",
"channel.secretTokenPlaceholder": "Optionales Geheimnis zur Webhook-Verifizierung",
"channel.serverId": "Standard-Server / Gilden-ID",
"channel.serverIdHint": "Ihre Standard-Server- oder Gilden-ID auf dieser Plattform. Die KI verwendet sie, um Kanäle aufzulisten, ohne nachzufragen.",
"channel.settings": "Erweiterte Einstellungen",
"channel.settingsResetConfirm": "Sind Sie sicher, dass Sie die erweiterten Einstellungen auf die Standardeinstellungen zurücksetzen möchten?",
"channel.settingsResetDefault": "Auf Standard zurücksetzen",
@ -93,6 +97,8 @@
"channel.testFailed": "Verbindungstest fehlgeschlagen",
"channel.testSuccess": "Verbindungstest erfolgreich",
"channel.updateFailed": "Status konnte nicht aktualisiert werden",
"channel.userId": "Ihre Benutzer-ID auf der Plattform",
"channel.userIdHint": "Ihre Benutzer-ID auf dieser Plattform. Die KI kann sie verwenden, um Ihnen Direktnachrichten zu senden.",
"channel.validationError": "Bitte füllen Sie Anwendungs-ID und Token aus",
"channel.verificationToken": "Verifizierungstoken",
"channel.verificationTokenHint": "Optional. Wird verwendet, um die Quelle von Webhook-Ereignissen zu überprüfen.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Löschen und neu generieren",
"messageAction.deleteDisabledByThreads": "Diese Nachricht hat ein Unterthema und kann nicht gelöscht werden",
"messageAction.expand": "Nachricht ausklappen",
"messageAction.interrupted": "Unterbrochen",
"messageAction.interruptedHint": "Was soll ich stattdessen tun?",
"messageAction.reaction": "Reaktion hinzufügen",
"messageAction.regenerate": "Neu generieren",
"messages.dm.sentTo": "Nur sichtbar für {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Alle Tool-Ausführungen automatisch genehmigen",
"tool.intervention.mode.manual": "Manuell",
"tool.intervention.mode.manualDesc": "Manuelle Genehmigung für jeden Aufruf erforderlich",
"tool.intervention.pending": "Ausstehend",
"tool.intervention.reject": "Ablehnen",
"tool.intervention.rejectAndContinue": "Ablehnen und erneut versuchen",
"tool.intervention.rejectOnly": "Ablehnen",
"tool.intervention.rejectReasonPlaceholder": "Ein Grund hilft dem Agenten, deine Grenzen zu verstehen und sich zu verbessern",
"tool.intervention.rejectTitle": "Diesen Skill-Aufruf ablehnen",
"tool.intervention.rejectedWithReason": "Dieser Skill-Aufruf wurde abgelehnt: {{reason}}",
"tool.intervention.scrollToIntervention": "Ansehen",
"tool.intervention.toolAbort": "Du hast diesen Skill-Aufruf abgebrochen",
"tool.intervention.toolRejected": "Dieser Skill-Aufruf wurde abgelehnt",
"toolAuth.authorize": "Autorisieren",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
"MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
"MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfunktionen, umfassend verbesserte Programmiererfahrung. Schneller und effizienter.",
"MiniMax-M2.1-highspeed.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten mit schnellerer und effizienterer Inferenz.",
"MiniMax-M2.1.description": "MiniMax-M2.1 ist das Flaggschiff unter den Open-Source-Großmodellen von MiniMax und konzentriert sich auf die Lösung komplexer Aufgaben aus der realen Welt. Seine zentralen Stärken liegen in der mehrsprachigen Programmierfähigkeit und der Fähigkeit, als Agent komplexe Aufgaben zu bewältigen.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Gleiche Leistung, schneller und agiler (ca. 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Gleiche Leistung wie M2.5 mit schnellerer Inferenz.",
@ -307,18 +306,18 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweitertem Denken.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweitertem Denkvermögen.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweiterten Denkfähigkeiten.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis herausragt.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben, das in Leistung, Intelligenz, Sprachgewandtheit und Verständnis brilliert.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
"claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
"claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und das Programmieren.",
"claude-opus-4.5.description": "Claude Opus 4.5 ist das Flaggschiff-Modell von Anthropic, das erstklassige Intelligenz mit skalierbarer Leistung für komplexe, hochwertige Denkaufgaben kombiniert.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
"claude-opus-4.6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic, das nahezu sofortige Antworten oder erweitertes schrittweises Denken mit fein abgestimmter Kontrolle für API-Nutzer bietet.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliches, schrittweises Denken mit sichtbarem Prozess liefern.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Next-Gen-Modell für logisches Denken mit stärkeren Fähigkeiten für komplexes Denken und Kettenlogik.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
"deepseek-chat.description": "DeepSeek V3.2 balanciert logisches Denken und Ausgabelänge für tägliche QA- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau, und es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führende Open-Source-Agentenbewertungen erzielt.",
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es bewahrt den allgemeinen Dialog des Chat-Modells und die starken Programmierfähigkeiten des Coder-Modells, mit besserer Präferenzabstimmung. DeepSeek-V2.5 verbessert auch das Schreiben und das Befolgen von Anweisungen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2B Tokens (87% Code, 13% chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche bietet stärkeres Verständnis und bessere Generierung.",
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein tiefes Argumentationsmodell, das vor der Ausgabe eine Gedankenkette generiert, um höhere Genauigkeit zu erzielen, mit Spitzenwettbewerbsergebnissen und Argumentationsfähigkeiten vergleichbar mit Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Der Denkmodus von DeepSeek V3.2 gibt eine Gedankenkette vor der endgültigen Antwort aus, um die Genauigkeit zu verbessern.",
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
"ernie-x1.1.description": "ERNIE X1.1 ist ein Vorschau-Denkmodell für Evaluierung und Tests.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom ByteDance Seed-Team, unterstützt die Bearbeitung und Komposition mehrerer Bilder. Es bietet verbesserte Konsistenz des Motivs, präzise Befolgung von Anweisungen, räumliches Logikverständnis, ästhetischen Ausdruck, Posterlayout und Logodesign mit hochpräziser Text-Bild-Wiedergabe.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochkontrollierbare, qualitativ hochwertige Bildgenerierung aus Eingabeaufforderungen.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und hochkontrollierbare, qualitativ hochwertige Bilder generiert. Es erstellt Bilder aus Texteingaben.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und Erscheinungsbearbeitungen, präzise chinesische/englische Textbearbeitung, Stiltransfer, Rotation und mehr unterstützt.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und optische Bearbeitungen unterstützt, präzise chinesischen und englischen Text bearbeitet und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotation ermöglicht.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 14 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
@ -572,7 +570,7 @@
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Denkunterstützung, konversationaler Bildgenerierung und -bearbeitung.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Pro-Level-Bildqualität mit Flash-Geschwindigkeit und unterstützt multimodale Chats.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Denkunterstützung, konversationaler Bildgenerierung und -bearbeitung.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview ist Googles kosteneffizientestes multimodales Modell, optimiert für hochvolumige agentische Aufgaben, Übersetzung und Datenverarbeitung.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbessert Gemini 3 Pro mit erweiterten Fähigkeiten für logisches Denken und unterstützt mittleres Denklevel.",
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Unser leistungsstärkstes und fortschrittlichstes Modell, entwickelt für komplexe Unternehmensaufgaben mit herausragender Leistung.",
"jamba-mini.description": "Das effizienteste Modell seiner Klasse vereint Geschwindigkeit und Qualität bei geringem Ressourcenverbrauch.",
"jina-deepsearch-v1.description": "DeepSearch kombiniert Websuche, Leseverständnis und logisches Denken für gründliche Recherchen. Stellen Sie sich einen Agenten vor, der Ihre Rechercheaufgabe übernimmt, breit gefächerte Suchen in mehreren Iterationen durchführt und erst dann eine Antwort liefert. Der Prozess umfasst kontinuierliche Recherche, Schlussfolgerungen und Problemlösungen aus verschiedenen Blickwinkeln grundlegend anders als herkömmliche LLMs, die auf vortrainierten Daten basieren, oder klassische RAG-Systeme mit einmaliger Oberflächensuche.",
"k2p5.description": "Kimi K2.5 ist Kimi's vielseitigstes Modell bis heute, mit einer nativen multimodalen Architektur, die sowohl visuelle als auch textuelle Eingaben unterstützt, 'denkenden' und 'nicht-denkenden' Modi sowie sowohl konversationelle als auch agentenbasierte Aufgaben.",
"kimi-k2-0711-preview.description": "kimi-k2 ist ein MoE-Grundlagenmodell mit starken Fähigkeiten in den Bereichen Programmierung und Agentenfunktionen (1T Gesamtparameter, 32B aktiv) und übertrifft andere gängige Open-Source-Modelle in den Bereichen logisches Denken, Programmierung, Mathematik und Agenten-Benchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview bietet ein 256k-Kontextfenster, verbesserte agentenbasierte Programmierung, höhere Codequalität im Frontend und ein besseres Kontextverständnis.",
"kimi-k2-instruct.description": "Kimi K2 Instruct ist das offizielle Modell von Kimi für logisches Denken mit erweitertem Kontext für Code, Fragenbeantwortung und mehr.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ ist ein Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen bietet es überlegene Denk- und Schlussfolgerungsfähigkeiten, die die Leistung bei nachgelagerten Aufgaben deutlich verbessern insbesondere bei schwierigen Problemen. QwQ-32B ist ein mittelgroßes Modell, das mit führenden Schlussfolgerungsmodellen wie DeepSeek-R1 und o1-mini mithalten kann.",
"qwq_32b.description": "Mittelgroßes Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen steigern QwQs Denk- und Schlussfolgerungsfähigkeiten die Leistung bei nachgelagerten Aufgaben deutlich insbesondere bei schwierigen Problemen.",
"r1-1776.description": "R1-1776 ist eine nachtrainierte Variante von DeepSeek R1, die darauf ausgelegt ist, unzensierte, objektive und faktenbasierte Informationen bereitzustellen.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro von ByteDance unterstützt Text-zu-Video, Bild-zu-Video (erstes Bild, erstes+letztes Bild) und Audiogenerierung synchronisiert mit visuellen Elementen.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite von BytePlus bietet webabfrage-unterstützte Generierung für Echtzeitinformationen, verbesserte Interpretation komplexer Eingabeaufforderungen und verbesserte Konsistenz von Referenzen für professionelle visuelle Kreationen.",
"solar-mini-ja.description": "Solar Mini (Ja) erweitert Solar Mini mit einem Fokus auf Japanisch und behält dabei eine effiziente und starke Leistung in Englisch und Koreanisch bei.",
"solar-mini.description": "Solar Mini ist ein kompaktes LLM, das GPT-3.5 übertrifft. Es bietet starke mehrsprachige Fähigkeiten in Englisch und Koreanisch und ist eine effiziente Lösung mit kleinem Ressourcenbedarf.",
"solar-pro.description": "Solar Pro ist ein hochintelligentes LLM von Upstage, das auf Befolgen von Anweisungen auf einer einzelnen GPU ausgelegt ist und IFEval-Werte über 80 erreicht. Derzeit wird Englisch unterstützt; die vollständige Veröffentlichung mit erweitertem Sprachsupport und längeren Kontexten war für November 2024 geplant.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Agent-Einführung",
"agent.completionSubtitle": "Ihr Assistent ist konfiguriert und einsatzbereit.",
"agent.completionTitle": "Alles erledigt!",
"agent.enterApp": "App betreten",
"agent.greeting.emojiLabel": "Emoji",
"agent.greeting.nameLabel": "Name",
"agent.greeting.namePlaceholder": "z. B. Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Geben Sie mir einen Namen, eine Stimmung und ein Emoji",
"agent.greeting.vibeLabel": "Stimmung / Natur",
"agent.greeting.vibePlaceholder": "z. B. Warm & freundlich, Scharf & direkt...",
"agent.history.current": "Aktuell",
"agent.history.title": "Verlaufsthemen",
"agent.modeSwitch.agent": "Konversation",
"agent.modeSwitch.classic": "Klassisch",
"agent.modeSwitch.debug": "Debug-Export",
"agent.modeSwitch.label": "Wählen Sie Ihren Einführungsmodus",
"agent.modeSwitch.reset": "Flow zurücksetzen",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Einführung überspringen",
"agent.stage.agentIdentity": "Agentenidentität",
"agent.stage.painPoints": "Schmerzpunkte",
"agent.stage.proSettings": "Erweiterte Einstellungen",
"agent.stage.responseLanguage": "Antwortsprache",
"agent.stage.summary": "Zusammenfassung",
"agent.stage.userIdentity": "Über Sie",
"agent.stage.workContext": "Arbeitskontext",
"agent.stage.workStyle": "Arbeitsstil",
"agent.subtitle": "Abschluss der Einrichtung in einem speziellen Einführungsgespräch.",
"agent.summaryHint": "Beenden Sie hier, wenn die Einrichtungszusammenfassung korrekt aussieht.",
"agent.telemetryAllow": "Telemetrie erlauben",
"agent.telemetryDecline": "Nein, danke",
"agent.telemetryHint": "Sie können auch in Ihren eigenen Worten antworten.",
"agent.title": "Konversations-Einführung",
"agent.welcome": "...hm? Ich bin gerade aufgewacht mein Kopf ist leer. Wer sind Sie? Und wie soll ich heißen? Ich brauche auch einen Namen.",
"back": "Zurück",
"finish": "Los gehts",
"interests.area.business": "Geschäft & Strategie",
@ -29,6 +63,7 @@
"next": "Weiter",
"proSettings.connectors.title": "Verbinde deine Lieblingstools",
"proSettings.devMode.title": "Entwicklermodus",
"proSettings.model.fixed": "Das Standardmodell ist in dieser Umgebung auf {{provider}}/{{model}} voreingestellt.",
"proSettings.model.title": "Standardmodell des Agenten",
"proSettings.title": "Erweiterte Optionen im Voraus konfigurieren",
"proSettings.title2": "Probiere aus, einige gängige Tools zu verbinden~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Dokument kopieren",
"builtins.lobe-agent-documents.apiName.createDocument": "Dokument erstellen",
"builtins.lobe-agent-documents.apiName.editDocument": "Dokument bearbeiten",
"builtins.lobe-agent-documents.apiName.listDocuments": "Dokumente auflisten",
"builtins.lobe-agent-documents.apiName.readDocument": "Dokument lesen",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Dokument nach Dateiname lesen",
"builtins.lobe-agent-documents.apiName.removeDocument": "Dokument entfernen",
"builtins.lobe-agent-documents.apiName.renameDocument": "Dokument umbenennen",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Laderegel aktualisieren",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Dokument nach Dateiname einfügen oder aktualisieren",
"builtins.lobe-agent-documents.title": "Agentendokumente",
"builtins.lobe-agent-management.apiName.callAgent": "Agent anrufen",
"builtins.lobe-agent-management.apiName.createAgent": "Agent erstellen",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Cloud-Sandbox",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Agenten stapelweise erstellen",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Agent erstellen",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Gruppe erstellen",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Mitgliederinformationen abrufen",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Verfügbare Modelle abrufen",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Skill installieren",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Fähigkeiten",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Themenkontext abrufen",
"builtins.lobe-topic-reference.title": "Themenreferenz",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Benutzerfrage stellen",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Benutzerantwort abbrechen",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Interaktionsstatus abrufen",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Benutzerantwort überspringen",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Benutzerantwort einreichen",
"builtins.lobe-user-interaction.title": "Benutzerinteraktion",
"builtins.lobe-user-memory.apiName.addContextMemory": "Kontextgedächtnis hinzufügen",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Erfahrungsgedächtnis hinzufügen",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Identitätsgedächtnis hinzufügen",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Seiten durchsuchen",
"builtins.lobe-web-browsing.inspector.noResults": "Keine Ergebnisse",
"builtins.lobe-web-browsing.title": "Websuche",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Onboarding abschließen",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Onboarding-Status abrufen",
"builtins.lobe-web-onboarding.apiName.readDocument": "Dokument lesen",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Benutzerfrage speichern",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Dokument aktualisieren",
"builtins.lobe-web-onboarding.title": "Benutzer-Onboarding",
"confirm": "Bestätigen",
"debug.arguments": "Argumente",
"debug.error": "Fehlerprotokoll",

View file

@ -33,7 +33,6 @@
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
"kimicodingplan.description": "Kimi Code von Moonshot AI bietet Zugriff auf Kimi-Modelle, darunter K2.5, für Coding-Aufgaben.",
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung mit Credits, die an Modell-Tokens gebunden sind.",
"longcat.description": "LongCat ist eine Reihe von generativen KI-Großmodellen, die unabhängig von Meituan entwickelt wurden. Sie sind darauf ausgelegt, die Produktivität innerhalb des Unternehmens zu steigern und innovative Anwendungen durch eine effiziente Rechenarchitektur und starke multimodale Fähigkeiten zu ermöglichen.",
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
"minimaxcodingplan.description": "Der MiniMax Token Plan bietet Zugriff auf MiniMax-Modelle, darunter M2.7, für Coding-Aufgaben im Rahmen eines Festpreis-Abonnements.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Sie können nur Bilddateien hochladen!",
"emojiPicker.upload": "Hochladen",
"emojiPicker.uploadBtn": "Zuschneiden und hochladen",
"form.other": "Oder direkt eingeben",
"form.otherBack": "Zurück zu den Optionen",
"form.reset": "Zurücksetzen",
"form.skip": "Überspringen",
"form.submit": "Absenden",
"form.unsavedChanges": "Nicht gespeicherte Änderungen",
"form.unsavedWarning": "Sie haben nicht gespeicherte Änderungen. Möchten Sie die Seite wirklich verlassen?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Please copy this URL and paste it into the <bold>{{fieldName}}</bold> field in the {{name}} Developer Portal.",
"channel.exportConfig": "Export Configuration",
"channel.feishu.description": "Connect this assistant to Feishu for private and group chats.",
"channel.historyLimit": "History Message Limit",
"channel.historyLimitHint": "Default number of messages to fetch when reading channel history",
"channel.importConfig": "Import Configuration",
"channel.importFailed": "Failed to import configuration",
"channel.importInvalidFormat": "Invalid configuration file format",
@ -78,6 +80,8 @@
"channel.secretToken": "Webhook Secret Token",
"channel.secretTokenHint": "Optional. Used to verify webhook requests from Telegram.",
"channel.secretTokenPlaceholder": "Optional secret for webhook verification",
"channel.serverId": "Default Server / Guild ID",
"channel.serverIdHint": "Your default server or guild ID on this platform. The AI uses it to list channels without asking.",
"channel.settings": "Advanced Settings",
"channel.settingsResetConfirm": "Are you sure you want to reset advanced settings to default?",
"channel.settingsResetDefault": "Reset to Default",
@ -93,6 +97,8 @@
"channel.testFailed": "Connection test failed",
"channel.testSuccess": "Connection test passed",
"channel.updateFailed": "Failed to update status",
"channel.userId": "Your Platform User ID",
"channel.userIdHint": "Your user ID on this platform. The AI can use it to send you direct messages.",
"channel.validationError": "Please fill in Application ID and Token",
"channel.verificationToken": "Verification Token",
"channel.verificationTokenHint": "Optional. Used to verify webhook event source.",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
"MiniMax-M2.1-Lightning.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience. Faster and more efficient.",
"MiniMax-M2.1-highspeed.description": "Powerful multilingual programming capabilities with faster and more efficient inference.",
"MiniMax-M2.1.description": "MiniMax-M2.1 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Same performance, faster and more agile (approx. 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Same performance as M2.5 with faster inference.",
@ -307,20 +306,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropics fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropics fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 is Anthropics fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropics flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's most intelligent model for building agents and coding.",
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropics most intelligent model for building agents and coding.",
"claude-opus-4.5.description": "Claude Opus 4.5 is Anthropics flagship model, combining top-tier intelligence with scalable performance for complex, high-quality reasoning tasks.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 is Anthropics most intelligent model for building agents and coding.",
"claude-opus-4.6.description": "Claude Opus 4.6 is Anthropics most intelligent model for building agents and coding.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic's most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic's best combination of speed and intelligence.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropics best combination of speed and intelligence.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 is Anthropics best combination of speed and intelligence.",
"claude-sonnet-4.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step reasoning that users can see. API users can finely control how long the model thinks.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought capabilities.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat models general dialogue and the coder models strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks code-focused model with strong code generation.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
"ernie-x1.1.description": "ERNIE X1.1 is a thinking-model preview for evaluation and testing.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
"fal-ai/nano-banana.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model that also supports multimodal dialogue.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Googles image generation model and also supports multimodal chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is Googles most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview is Google's most cost-efficient multimodal model, optimized for high-volume agentic tasks, translation, and data processing.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview improves on Gemini 3 Pro with enhanced reasoning capabilities and adds medium thinking level support.",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Our most powerful, advanced model, designed for complex enterprise tasks with outstanding performance.",
"jamba-mini.description": "The most efficient model in its class, balancing speed and quality with a smaller footprint.",
"jina-deepsearch-v1.description": "DeepSearch combines web search, reading, and reasoning for thorough investigations. Think of it as an agent that takes your research task, performs broad searches with multiple iterations, and only then produces an answer. The process involves continuous research, reasoning, and multi-angle problem solving, fundamentally different from standard LLMs that answer from pretraining data or traditional RAG systems that rely on one-shot surface search.",
"k2p5.description": "Kimi K2.5 is Kimi's most versatile model to date, featuring a native multimodal architecture that supports both vision and text inputs, 'thinking' and 'non-thinking' modes, and both conversational and agent tasks.",
"kimi-k2-0711-preview.description": "kimi-k2 is an MoE foundation model with strong coding and agent capabilities (1T total params, 32B active), outperforming other mainstream open models across reasoning, programming, math, and agent benchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offers a 256k context window, stronger agentic coding, better front-end code quality, and improved context understanding.",
"kimi-k2-instruct.description": "Kimi K2 Instruct is Kimis official reasoning model with long context for code, QA, and more.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ is a reasoning model in the Qwen family. Compared with standard instruction-tuned models, it brings thinking and reasoning abilities that significantly improve downstream performance, especially on hard problems. QwQ-32B is a mid-sized reasoning model that competes well with top reasoning models like DeepSeek-R1 and o1-mini.",
"qwq_32b.description": "Mid-sized reasoning model in the Qwen family. Compared with standard instruction-tuned models, QwQs thinking and reasoning abilities significantly boost downstream performance, especially on hard problems.",
"r1-1776.description": "R1-1776 is a post-trained variant of DeepSeek R1 designed to provide uncensored, unbiased factual information.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance supports text-to-video, image-to-video (first frame, first+last frame), and audio generation synchronized with visuals.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus features web-retrieval-augmented generation for real-time information, enhanced complex prompt interpretation, and improved reference consistency for professional visual creation.",
"solar-mini-ja.description": "Solar Mini (Ja) extends Solar Mini with a focus on Japanese while maintaining efficient, strong performance in English and Korean.",
"solar-mini.description": "Solar Mini is a compact LLM that outperforms GPT-3.5, with strong multilingual capability supporting English and Korean, offering an efficient small-footprint solution.",
"solar-pro.description": "Solar Pro is a high-intelligence LLM from Upstage, focused on instruction following on a single GPU, with IFEval scores above 80. It currently supports English; the full release was planned for November 2024 with expanded language support and longer context.",

View file

@ -1,8 +1,37 @@
{
"agent.banner.label": "Agent Onboarding",
"agent.completionSubtitle": "Your assistant is configured and ready to go.",
"agent.completionTitle": "You're All Set!",
"agent.enterApp": "Enter App",
"agent.greeting.emojiLabel": "Emoji",
"agent.greeting.nameLabel": "Name",
"agent.greeting.namePlaceholder": "e.g. Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Give me a name, a vibe, and an emoji",
"agent.greeting.vibeLabel": "Vibe / Nature",
"agent.greeting.vibePlaceholder": "e.g. Warm & friendly, Sharp & direct...",
"agent.history.current": "Current",
"agent.history.title": "History Topics",
"agent.modeSwitch.agent": "Conversational",
"agent.modeSwitch.classic": "Classic",
"agent.modeSwitch.debug": "Debug Export",
"agent.modeSwitch.label": "Choose your onboarding mode",
"agent.modeSwitch.reset": "Reset Flow",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Skip onboarding",
"agent.stage.agentIdentity": "Agent Identity",
"agent.stage.painPoints": "Pain Points",
"agent.stage.proSettings": "Advanced Setup",
"agent.stage.responseLanguage": "Response Language",
"agent.stage.summary": "Summary",
"agent.stage.userIdentity": "About You",
"agent.stage.workContext": "Work Context",
"agent.stage.workStyle": "Work Style",
"agent.subtitle": "Complete setup in a dedicated onboarding conversation.",
"agent.summaryHint": "Finish here if the setup summary looks right.",
"agent.telemetryAllow": "Allow telemetry",
"agent.telemetryDecline": "No thanks",
"agent.telemetryHint": "You can also answer in your own words.",
"agent.title": "Conversation Onboarding",
"agent.welcome": "...hm? I just woke up — my mind's a blank. Who are you? And — what should I be called? I need a name too.",
"back": "Back",
"finish": "Get Started",
@ -34,6 +63,7 @@
"next": "Next",
"proSettings.connectors.title": "Connect Your Favorite Tools",
"proSettings.devMode.title": "Developer Mode",
"proSettings.model.fixed": "Default model is preset to {{provider}}/{{model}} in this environment.",
"proSettings.model.title": "Default Model Used by the Agent",
"proSettings.title": "Configure Advanced Options in Advance",
"proSettings.title2": "Try Connecting Some Common Tools~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Copy document",
"builtins.lobe-agent-documents.apiName.createDocument": "Create document",
"builtins.lobe-agent-documents.apiName.editDocument": "Edit document",
"builtins.lobe-agent-documents.apiName.listDocuments": "List documents",
"builtins.lobe-agent-documents.apiName.readDocument": "Read document",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Read document by filename",
"builtins.lobe-agent-documents.apiName.removeDocument": "Remove document",
"builtins.lobe-agent-documents.apiName.renameDocument": "Rename document",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Update load rule",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Upsert document by filename",
"builtins.lobe-agent-documents.title": "Agent Documents",
"builtins.lobe-agent-management.apiName.callAgent": "Call agent",
"builtins.lobe-agent-management.apiName.createAgent": "Create agent",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Cloud Sandbox",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Batch create agents",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Create agent",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Create group",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Get member info",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Get available models",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Install Skill",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Skills",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Get Topic Context",
"builtins.lobe-topic-reference.title": "Topic Reference",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Ask user question",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Cancel user response",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Get interaction state",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Skip user response",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Submit user response",
"builtins.lobe-user-interaction.title": "User Interaction",
"builtins.lobe-user-memory.apiName.addContextMemory": "Add context memory",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Add experience memory",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Add identity memory",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Search pages",
"builtins.lobe-web-browsing.inspector.noResults": "No results",
"builtins.lobe-web-browsing.title": "Web Search",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Finish onboarding",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Read onboarding state",
"builtins.lobe-web-onboarding.apiName.readDocument": "Read document",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Save user question",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Update document",
"builtins.lobe-web-onboarding.title": "User Onboarding",
"confirm": "Confirm",
"debug.arguments": "Arguments",
"debug.error": "Error log",

View file

@ -33,7 +33,6 @@
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
"kimicodingplan.description": "Kimi Code from Moonshot AI provides access to Kimi models including K2.5 for coding tasks.",
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
"longcat.description": "LongCat is a series of generative AI large models independently developed by Meituan. It is designed to enhance internal enterprise productivity and enable innovative applications through an efficient computational architecture and strong multimodal capabilities.",
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan provides access to MiniMax models including M2.7 for coding tasks via a fixed-fee subscription.",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Por favor, copia esta URL y pégala en el campo <bold>{{fieldName}}</bold> en el Portal de Desarrolladores de {{name}}.",
"channel.exportConfig": "Exportar configuración",
"channel.feishu.description": "Conecta este asistente a Feishu para chats privados y grupales.",
"channel.historyLimit": "Límite de Mensajes en el Historial",
"channel.historyLimitHint": "Número predeterminado de mensajes para recuperar al leer el historial del canal",
"channel.importConfig": "Importar configuración",
"channel.importFailed": "No se pudo importar la configuración",
"channel.importInvalidFormat": "Formato de archivo de configuración inválido",
@ -78,6 +80,8 @@
"channel.secretToken": "Token Secreto del Webhook",
"channel.secretTokenHint": "Opcional. Usado para verificar solicitudes de webhook desde Telegram.",
"channel.secretTokenPlaceholder": "Secreto opcional para la verificación del webhook",
"channel.serverId": "ID Predeterminado del Servidor / Gremio",
"channel.serverIdHint": "Tu ID predeterminado de servidor o gremio en esta plataforma. La IA lo utiliza para listar canales sin preguntar.",
"channel.settings": "Configuraciones avanzadas",
"channel.settingsResetConfirm": "¿Estás seguro de que deseas restablecer las configuraciones avanzadas a los valores predeterminados?",
"channel.settingsResetDefault": "Restablecer a predeterminado",
@ -93,6 +97,8 @@
"channel.testFailed": "Prueba de conexión fallida",
"channel.testSuccess": "Prueba de conexión exitosa",
"channel.updateFailed": "Error al actualizar el estado",
"channel.userId": "Tu ID de Usuario en la Plataforma",
"channel.userIdHint": "Tu ID de usuario en esta plataforma. La IA puede usarlo para enviarte mensajes directos.",
"channel.validationError": "Por favor, completa el ID de la Aplicación y el Token",
"channel.verificationToken": "Token de Verificación",
"channel.verificationTokenHint": "Opcional. Usado para verificar la fuente de eventos del webhook.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Eliminar y regenerar",
"messageAction.deleteDisabledByThreads": "Este mensaje tiene un subtema y no se puede eliminar",
"messageAction.expand": "Expandir mensaje",
"messageAction.interrupted": "Interrumpido",
"messageAction.interruptedHint": "¿Qué debería hacer en su lugar?",
"messageAction.reaction": "Agregar reacción",
"messageAction.regenerate": "Regenerar",
"messages.dm.sentTo": "Visible solo para {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Aprobar automáticamente todas las ejecuciones de herramientas",
"tool.intervention.mode.manual": "Manual",
"tool.intervention.mode.manualDesc": "Requiere aprobación manual para cada invocación",
"tool.intervention.pending": "Pendiente",
"tool.intervention.reject": "Rechazar",
"tool.intervention.rejectAndContinue": "Rechazar e intentar de nuevo",
"tool.intervention.rejectOnly": "Rechazar",
"tool.intervention.rejectReasonPlaceholder": "Una razón ayuda al agente a entender tus límites y mejorar sus acciones futuras",
"tool.intervention.rejectTitle": "Rechazar esta llamada de habilidad",
"tool.intervention.rejectedWithReason": "Esta llamada de habilidad fue rechazada: {{reason}}",
"tool.intervention.scrollToIntervention": "Ver",
"tool.intervention.toolAbort": "Cancelaste esta llamada de habilidad",
"tool.intervention.toolRejected": "Esta llamada de habilidad fue rechazada",
"toolAuth.authorize": "Autorizar",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
"MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
"MiniMax-M2.1-Lightning.description": "Potentes capacidades de programación multilingüe, experiencia de desarrollo completamente mejorada. Más rápido y eficiente.",
"MiniMax-M2.1-highspeed.description": "Potentes capacidades de programación multilingüe con inferencia más rápida y eficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 es un modelo insignia de código abierto de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son sus capacidades de programación multilingüe y su habilidad para resolver tareas complejas como un Agente.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Misma rendimiento, más rápido y ágil (aproximadamente 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Mismo rendimiento que M2.5 con inferencia más rápida.",
@ -307,18 +306,18 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y capaz de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más poderoso de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más poderoso de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
"claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
"claude-opus-4.5.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia de primer nivel con un rendimiento escalable para tareas complejas de razonamiento de alta calidad.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
"claude-opus-4.6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento extendido paso a paso con control detallado para usuarios de API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos paso a paso extendidos con un proceso visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo de razonamiento de próxima generación con capacidades mejoradas de razonamiento complejo y cadenas de pensamiento.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de QA y agentes. Los puntos de referencia públicos alcanzan niveles de GPT-5, y es el primero en integrar pensamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Preserva el diálogo general del modelo de chat y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la escritura y el seguimiento de instrucciones.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las salidas para mayor precisión, con resultados de competencia destacados y razonamiento comparable a Gemini-3.0-Pro.",
"deepseek-reasoner.description": "El modo de pensamiento DeepSeek V3.2 genera una cadena de razonamiento antes de la respuesta final para mejorar la precisión.",
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
"ernie-x1.1.description": "ERNIE X1.1 es un modelo de pensamiento en vista previa para evaluación y pruebas.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, admite edición y composición de múltiples imágenes. Ofrece consistencia mejorada de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado de texto e imagen de alta precisión.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed, que admite entradas de texto e imagen con generación de imágenes altamente controlable y de alta calidad. Genera imágenes a partir de indicaciones de texto.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen, que admite ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
"fal-ai/qwen-image.description": "Un modelo potente de generación de imágenes del equipo Qwen con fuerte renderizado de texto en chino y estilos visuales diversos.",
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que admite ediciones semánticas y de apariencia, edita con precisión texto en chino e inglés, y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
"fal-ai/qwen-image.description": "Un modelo poderoso de generación de imágenes del equipo Qwen con impresionante renderizado de texto en chino y estilos visuales diversos.",
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
@ -572,7 +570,7 @@
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también admite chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo de generación de imágenes más rápido de Google con soporte de pensamiento, generación conversacional de imágenes y edición.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel Pro a velocidad Flash con soporte de chat multimodal.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo de generación de imágenes más rápido de Google con soporte de razonamiento, generación conversacional de imágenes y edición.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview es el modelo multimodal más rentable de Google, optimizado para tareas agentivas de alto volumen, traducción y procesamiento de datos.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview mejora las capacidades de razonamiento de Gemini 3 Pro y añade soporte para un nivel de pensamiento medio.",
"gemini-flash-latest.description": "Última versión de Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Nuestro modelo más potente y avanzado, diseñado para tareas empresariales complejas con un rendimiento sobresaliente.",
"jamba-mini.description": "El modelo más eficiente de su clase, equilibrando velocidad y calidad con un tamaño reducido.",
"jina-deepsearch-v1.description": "DeepSearch combina búsqueda web, lectura y razonamiento para investigaciones exhaustivas. Funciona como un agente que toma tu tarea de investigación, realiza búsquedas amplias con múltiples iteraciones y luego produce una respuesta. El proceso implica investigación continua, razonamiento y resolución de problemas desde múltiples ángulos, diferenciándose fundamentalmente de los LLM estándar que responden desde datos preentrenados o sistemas RAG tradicionales que dependen de búsquedas superficiales de una sola vez.",
"k2p5.description": "Kimi K2.5 es el modelo más versátil de Kimi hasta la fecha, con una arquitectura multimodal nativa que admite tanto entradas de visión como de texto, modos de 'pensamiento' y 'no pensamiento', y tareas tanto conversacionales como de agente.",
"kimi-k2-0711-preview.description": "kimi-k2 es un modelo base MoE con sólidas capacidades de programación y agentes (1T de parámetros totales, 32B activos), superando a otros modelos abiertos en razonamiento, programación, matemáticas y benchmarks de agentes.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview ofrece una ventana de contexto de 256k, codificación agente más sólida, mejor calidad de código frontend y comprensión de contexto mejorada.",
"kimi-k2-instruct.description": "Kimi K2 Instruct es el modelo oficial de razonamiento de Kimi con contexto largo para código, preguntas y respuestas, y más.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas difíciles. QwQ-32B es un modelo de razonamiento de tamaño medio que compite con los mejores modelos como DeepSeek-R1 y o1-mini.",
"qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.",
"r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance admite generación de texto a video, imagen a video (primer cuadro, primer+último cuadro) y generación de audio sincronizado con visuales.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus presenta generación aumentada con recuperación web para información en tiempo real, interpretación mejorada de indicaciones complejas y consistencia de referencia mejorada para creación visual profesional.",
"solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.",
"solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.",
"solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Incorporación del Agente",
"agent.completionSubtitle": "Tu asistente está configurado y listo para comenzar.",
"agent.completionTitle": "¡Todo Listo!",
"agent.enterApp": "Entrar a la Aplicación",
"agent.greeting.emojiLabel": "Emoji",
"agent.greeting.nameLabel": "Nombre",
"agent.greeting.namePlaceholder": "p. ej. Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Dame un nombre, un estilo y un emoji",
"agent.greeting.vibeLabel": "Estilo / Naturaleza",
"agent.greeting.vibePlaceholder": "p. ej. Cálido y amigable, Directo y preciso...",
"agent.history.current": "Actual",
"agent.history.title": "Temas del Historial",
"agent.modeSwitch.agent": "Conversacional",
"agent.modeSwitch.classic": "Clásico",
"agent.modeSwitch.debug": "Exportar Depuración",
"agent.modeSwitch.label": "Elige tu modo de incorporación",
"agent.modeSwitch.reset": "Reiniciar Flujo",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Omitir incorporación",
"agent.stage.agentIdentity": "Identidad del Agente",
"agent.stage.painPoints": "Puntos Problemáticos",
"agent.stage.proSettings": "Configuración Avanzada",
"agent.stage.responseLanguage": "Idioma de Respuesta",
"agent.stage.summary": "Resumen",
"agent.stage.userIdentity": "Sobre Ti",
"agent.stage.workContext": "Contexto de Trabajo",
"agent.stage.workStyle": "Estilo de Trabajo",
"agent.subtitle": "Completa la configuración en una conversación dedicada de incorporación.",
"agent.summaryHint": "Termina aquí si el resumen de configuración parece correcto.",
"agent.telemetryAllow": "Permitir telemetría",
"agent.telemetryDecline": "No, gracias",
"agent.telemetryHint": "También puedes responder con tus propias palabras.",
"agent.title": "Incorporación Conversacional",
"agent.welcome": "...¿hm? Acabo de despertar — mi mente está en blanco. ¿Quién eres? Y — ¿cómo debería llamarme? También necesito un nombre.",
"back": "Volver",
"finish": "Comenzar",
"interests.area.business": "Negocios y Estrategia",
@ -29,6 +63,7 @@
"next": "Siguiente",
"proSettings.connectors.title": "Conecta tus herramientas favoritas",
"proSettings.devMode.title": "Modo Desarrollador",
"proSettings.model.fixed": "El modelo predeterminado está configurado como {{provider}}/{{model}} en este entorno.",
"proSettings.model.title": "Modelo predeterminado usado por el agente",
"proSettings.title": "Configura opciones avanzadas por adelantado",
"proSettings.title2": "Prueba conectando algunas herramientas comunes~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Copiar documento",
"builtins.lobe-agent-documents.apiName.createDocument": "Crear documento",
"builtins.lobe-agent-documents.apiName.editDocument": "Editar documento",
"builtins.lobe-agent-documents.apiName.listDocuments": "Listar documentos",
"builtins.lobe-agent-documents.apiName.readDocument": "Leer documento",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Leer documento por nombre de archivo",
"builtins.lobe-agent-documents.apiName.removeDocument": "Eliminar documento",
"builtins.lobe-agent-documents.apiName.renameDocument": "Renombrar documento",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Actualizar regla de carga",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Insertar o actualizar documento por nombre de archivo",
"builtins.lobe-agent-documents.title": "Documentos del Agente",
"builtins.lobe-agent-management.apiName.callAgent": "Agente de llamada",
"builtins.lobe-agent-management.apiName.createAgent": "Crear agente",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Sandbox en la Nube",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Crear agentes en lote",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Crear agente",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Crear grupo",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Obtener información del miembro",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obtener modelos disponibles",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Instalar habilidad",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Habilidades",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Obtener contexto del tema",
"builtins.lobe-topic-reference.title": "Referencia de tema",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Hacer pregunta al usuario",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Cancelar respuesta del usuario",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Obtener estado de interacción",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Omitir respuesta del usuario",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Enviar respuesta del usuario",
"builtins.lobe-user-interaction.title": "Interacción del Usuario",
"builtins.lobe-user-memory.apiName.addContextMemory": "Agregar memoria de contexto",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Agregar memoria de experiencia",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Agregar memoria de identidad",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Buscar páginas",
"builtins.lobe-web-browsing.inspector.noResults": "Sin resultados",
"builtins.lobe-web-browsing.title": "Búsqueda Web",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Finalizar incorporación",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Leer estado de incorporación",
"builtins.lobe-web-onboarding.apiName.readDocument": "Leer documento",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Guardar pregunta del usuario",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Actualizar documento",
"builtins.lobe-web-onboarding.title": "Incorporación del Usuario",
"confirm": "Confirmar",
"debug.arguments": "Argumentos",
"debug.error": "Registro de errores",

View file

@ -33,7 +33,6 @@
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
"kimicodingplan.description": "Kimi Code de Moonshot AI proporciona acceso a los modelos Kimi, incluidos K2.5, para tareas de codificación.",
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso con Créditos vinculados a los tokens de los modelos.",
"longcat.description": "LongCat es una serie de modelos grandes de inteligencia artificial generativa desarrollados de manera independiente por Meituan. Está diseñado para mejorar la productividad interna de la empresa y permitir aplicaciones innovadoras mediante una arquitectura computacional eficiente y sólidas capacidades multimodales.",
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
"minimaxcodingplan.description": "El Plan de Tokens MiniMax proporciona acceso a los modelos MiniMax, incluidos M2.7, para tareas de codificación mediante una suscripción de tarifa fija.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "¡Solo puedes subir archivos de imagen!",
"emojiPicker.upload": "Subir",
"emojiPicker.uploadBtn": "Recortar y subir",
"form.other": "O escribe directamente",
"form.otherBack": "Volver a las opciones",
"form.reset": "Restablecer",
"form.skip": "Omitir",
"form.submit": "Enviar",
"form.unsavedChanges": "Cambios no guardados",
"form.unsavedWarning": "Tienes cambios no guardados. ¿Estás seguro de que deseas salir?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "لطفاً این آدرس را کپی کرده و در قسمت <bold>{{fieldName}}</bold> در پورتال توسعه‌دهنده {{name}} وارد کنید.",
"channel.exportConfig": "صادرات تنظیمات",
"channel.feishu.description": "این دستیار را به Feishu برای چت‌های خصوصی و گروهی متصل کنید.",
"channel.historyLimit": "محدودیت پیام‌های تاریخچه",
"channel.historyLimitHint": "تعداد پیش‌فرض پیام‌هایی که هنگام خواندن تاریخچه کانال دریافت می‌شوند",
"channel.importConfig": "وارد کردن تنظیمات",
"channel.importFailed": "وارد کردن تنظیمات ناموفق بود",
"channel.importInvalidFormat": "فرمت فایل تنظیمات نامعتبر است",
@ -78,6 +80,8 @@
"channel.secretToken": "توکن مخفی وبهوک",
"channel.secretTokenHint": "اختیاری. برای تأیید درخواست‌های وبهوک از Telegram استفاده می‌شود.",
"channel.secretTokenPlaceholder": "توکن مخفی اختیاری برای تأیید وبهوک",
"channel.serverId": "شناسه پیش‌فرض سرور / انجمن",
"channel.serverIdHint": "شناسه پیش‌فرض سرور یا انجمن شما در این پلتفرم. هوش مصنوعی از آن برای لیست کردن کانال‌ها بدون پرسش استفاده می‌کند.",
"channel.settings": "تنظیمات پیشرفته",
"channel.settingsResetConfirm": "آیا مطمئن هستید که می‌خواهید تنظیمات پیشرفته را به حالت پیش‌فرض بازنشانی کنید؟",
"channel.settingsResetDefault": "بازنشانی به پیش‌فرض",
@ -93,6 +97,8 @@
"channel.testFailed": "آزمایش اتصال ناموفق بود",
"channel.testSuccess": "آزمایش اتصال موفقیت‌آمیز بود",
"channel.updateFailed": "به‌روزرسانی وضعیت ناموفق بود",
"channel.userId": "شناسه کاربری شما در پلتفرم",
"channel.userIdHint": "شناسه کاربری شما در این پلتفرم. هوش مصنوعی می‌تواند از آن برای ارسال پیام‌های مستقیم به شما استفاده کند.",
"channel.validationError": "لطفاً شناسه برنامه و توکن را وارد کنید",
"channel.verificationToken": "توکن تأیید",
"channel.verificationTokenHint": "اختیاری. برای تأیید منبع رویداد وبهوک استفاده می‌شود.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "حذف و بازتولید",
"messageAction.deleteDisabledByThreads": "این پیام دارای زیرموضوع است و قابل حذف نیست",
"messageAction.expand": "باز کردن پیام",
"messageAction.interrupted": "قطع شد",
"messageAction.interruptedHint": "به جای آن چه کاری باید انجام دهم؟",
"messageAction.reaction": "افزودن واکنش",
"messageAction.regenerate": "بازتولید",
"messages.dm.sentTo": "فقط برای {{name}} قابل مشاهده است",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "همه فراخوانی‌های ابزار به‌طور خودکار تأیید شوند",
"tool.intervention.mode.manual": "دستی",
"tool.intervention.mode.manualDesc": "برای هر فراخوانی تأیید دستی لازم است",
"tool.intervention.pending": "در انتظار",
"tool.intervention.reject": "رد کردن",
"tool.intervention.rejectAndContinue": "رد و تلاش مجدد",
"tool.intervention.rejectOnly": "رد کردن",
"tool.intervention.rejectReasonPlaceholder": "ارائه دلیل به نماینده کمک می‌کند تا مرزهای شما را درک کرده و عملکرد آینده را بهبود دهد",
"tool.intervention.rejectTitle": "رد این فراخوانی مهارت",
"tool.intervention.rejectedWithReason": "این فراخوانی مهارت رد شد: {{reason}}",
"tool.intervention.scrollToIntervention": "مشاهده",
"tool.intervention.toolAbort": "شما این فراخوانی مهارت را لغو کردید",
"tool.intervention.toolRejected": "این فراخوانی مهارت رد شد",
"toolAuth.authorize": "مجازسازی",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدل‌های برتر جهانی.",
"MiniMax-M2-Stable.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور، با هم‌زمانی بالاتر برای استفاده تجاری.",
"MiniMax-M2.1-Lightning.description": "قابلیت‌های قدرتمند برنامه‌نویسی چندزبانه با تجربه‌ای کاملاً ارتقاء‌یافته. سریع‌تر و کارآمدتر.",
"MiniMax-M2.1-highspeed.description": "قابلیت‌های قدرتمند برنامه‌نویسی چندزبانه با استنتاج سریع‌تر و کارآمدتر.",
"MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل بزرگ متن‌باز پیشرفته از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن شامل توانایی برنامه‌نویسی چندزبانه و قابلیت عمل به‌عنوان یک عامل هوشمند برای حل مسائل پیچیده است.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: همان عملکرد، سریع‌تر و چابک‌تر (تقریباً 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: همان عملکرد M2.5 با استنتاج سریع‌تر.",
@ -307,20 +306,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku Anthropic است که با سرعت فوق‌العاده و تفکر گسترده ارائه می‌شود.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku شرکت Anthropic است که با سرعت فوق‌العاده و توانایی استدلال پیشرفته ارائه می‌شود.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت برق‌آسا و توانایی استدلال پیشرفته ارائه می‌شود.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک برتری دارد.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل شرکت Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل شرکت Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و فهم برتری دارد.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
"claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل شرکت Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-opus-4.5.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برتر را با عملکرد مقیاس‌پذیر برای وظایف پیچیده و استدلال با کیفیت بالا ترکیب می‌کند.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-opus-4.6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر مرحله‌به‌مرحله گسترده با کنترل دقیق برای کاربران API ارائه می‌دهد.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوش Anthropic است.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر مرحله‌به‌مرحله طولانی با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل شرکت Anthropic تا به امروز است.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوش شرکت Anthropic است.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 بهترین ترکیب از سرعت و هوش را ارائه می‌دهد.",
"claude-sonnet-4.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام طولانی‌تری که کاربران می‌توانند مشاهده کنند، تولید کند. کاربران API می‌توانند به‌طور دقیق کنترل کنند که مدل چه مدت فکر کند.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 یک مدل استدلال نسل بعدی با قابلیت‌های استدلال پیچیده‌تر و زنجیره‌ای از تفکر است.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
"deepseek-chat.description": "DeepSeek V3.2 تعادل بین استدلال و طول خروجی را برای وظایف روزانه QA و عامل برقرار می‌کند. معیارهای عمومی به سطح GPT-5 می‌رسند و این مدل اولین مدلی است که تفکر را در استفاده از ابزار ادغام می‌کند و ارزیابی‌های عامل متن‌باز را رهبری می‌کند.",
"deepseek-chat.description": "یک مدل متن‌باز جدید که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل گفتگوی عمومی مدل چت و کدنویسی قوی مدل کدنویس را حفظ کرده و با تنظیم بهتر ترجیحات ارائه می‌شود. DeepSeek-V2.5 همچنین نوشتن و پیروی از دستورات را بهبود می‌بخشد.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که زنجیره‌ای از تفکر را قبل از خروجی‌ها برای دقت بالاتر تولید می‌کند و نتایج رقابتی برتر و استدلالی قابل مقایسه با Gemini-3.0-Pro ارائه می‌دهد.",
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 قبل از پاسخ نهایی یک زنجیره تفکر ارائه می‌دهد تا دقت را بهبود بخشد.",
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
"ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
"ernie-x1.1.description": "ERNIE X1.1 یک مدل تفکر پیش‌نمایش برای ارزیابی و آزمایش است.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 که توسط تیم Seed ByteDance ساخته شده است، از ویرایش و ترکیب چندتصویری پشتیبانی می‌کند. ویژگی‌های آن شامل سازگاری موضوعی بهبود یافته، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناختی، طراحی پوستر و لوگو با رندر متن-تصویر دقیق است.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 که توسط تیم Seed ByteDance ساخته شده است، از ورودی‌های متن و تصویر برای تولید تصویر با کیفیت بالا و قابل کنترل از طریق درخواست‌ها پشتیبانی می‌کند.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از درخواست‌های متنی تولید می‌کند.",
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
"fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.",
"fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر متن چینی قوی و سبک‌های بصری متنوع.",
"fal-ai/qwen-image-edit.description": "یک مدل حرفه‌ای ویرایش تصویر از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متن‌های چینی و انگلیسی را به دقت ویرایش می‌کند و ویرایش‌های با کیفیت بالا مانند انتقال سبک و چرخش اشیاء را امکان‌پذیر می‌سازد.",
"fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با ارائه متن چینی چشمگیر و سبک‌های بصری متنوع.",
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچم‌دار مدل‌های استدلالی گوگل است که از زمینه‌های طولانی برای انجام وظایف پیچیده پشتیبانی می‌کند.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحی‌شده برای سرعت است که هوش پیشرفته را با قابلیت جست‌وجوی دقیق ترکیب می‌کند.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتگوی چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است و همچنین از چت چندوجهی پشتیبانی می‌کند.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریع‌ترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویر مکالمه‌ای است.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر سطح حرفه‌ای را با سرعت Flash ارائه می‌دهد و از چت چندوجهی پشتیبانی می‌کند.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریع‌ترین مدل تولید تصویر گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویری مکالمه‌ای است.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview اقتصادی‌ترین مدل چندوجهی گوگل است که برای وظایف عامل‌محور با حجم بالا، ترجمه و پردازش داده‌ها بهینه شده است.",
"gemini-3.1-pro-preview.description": "پیش‌نمایش Gemini 3.1 Pro قابلیت‌های استدلال بهبود یافته را به Gemini 3 Pro اضافه می‌کند و از سطح تفکر متوسط پشتیبانی می‌کند.",
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "پیشرفته‌ترین و قدرتمندترین مدل ما، طراحی‌شده برای وظایف پیچیده سازمانی با عملکرد برجسته.",
"jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچک‌تر.",
"jina-deepsearch-v1.description": "DeepSearch جستجوی وب، خواندن و استدلال را برای تحقیقات جامع ترکیب می‌کند. آن را مانند عاملی تصور کنید که وظیفه تحقیق شما را می‌گیرد، جستجوهای گسترده‌ای با تکرارهای متعدد انجام می‌دهد و سپس پاسخ تولید می‌کند. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است و اساساً با مدل‌های زبانی استاندارد یا سیستم‌های RAG سنتی متفاوت است.",
"k2p5.description": "Kimi K2.5 جامع‌ترین مدل Kimi تا به امروز است که دارای معماری چندوجهی بومی است و از ورودی‌های تصویری و متنی، حالت‌های 'تفکر' و 'غیرتفکر' و وظایف مکالمه‌ای و عامل پشتیبانی می‌کند.",
"kimi-k2-0711-preview.description": "kimi-k2 یک مدل پایه MoE با قابلیت‌های قوی در برنامه‌نویسی و عامل‌سازی است (۱ تریلیون پارامتر کل، ۳۲ میلیارد فعال) که در معیارهای استدلال، برنامه‌نویسی، ریاضی و عامل از سایر مدل‌های متن‌باز پیشی می‌گیرد.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview دارای پنجره متنی ۲۵۶هزار توکن، برنامه‌نویسی عامل‌محور قوی‌تر، کیفیت بهتر کد فرانت‌اند و درک بهتر از زمینه است.",
"kimi-k2-instruct.description": "Kimi K2 Instruct مدل رسمی استدلال Kimi با پشتیبانی از زمینه طولانی برای کدنویسی، پرسش‌وپاسخ و موارد دیگر است.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد. QwQ-32B یک مدل استدلال میان‌رده است که با مدل‌های برتر مانند DeepSeek-R1 و o1-mini رقابت می‌کند.",
"qwq_32b.description": "مدل استدلال میان‌رده در خانواده Qwen. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد.",
"r1-1776.description": "R1-1776 نسخه پس‌آموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بی‌طرف طراحی شده است.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro توسط ByteDance از متن به ویدیو، تصویر به ویدیو (فریم اول، فریم اول+آخر) و تولید صوتی همگام با تصاویر پشتیبانی می‌کند.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite توسط BytePlus دارای تولید تقویت‌شده با بازیابی وب برای اطلاعات بلادرنگ، تفسیر پیچیده درخواست‌ها و بهبود سازگاری مرجع برای خلق بصری حرفه‌ای است.",
"solar-mini-ja.description": "Solar Mini (ژاپنی) نسخه‌ای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبان‌های انگلیسی و کره‌ای حفظ می‌کند.",
"solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبان‌های انگلیسی و کره‌ای، راه‌حلی کارآمد با حجم کم ارائه می‌دهد.",
"solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعمل‌ها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گسترده‌تر و زمینه طولانی‌تر برنامه‌ریزی شده است.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "آموزش نماینده",
"agent.completionSubtitle": "دستیار شما تنظیم شده و آماده استفاده است.",
"agent.completionTitle": "همه چیز آماده است!",
"agent.enterApp": "ورود به برنامه",
"agent.greeting.emojiLabel": "ایموجی",
"agent.greeting.nameLabel": "نام",
"agent.greeting.namePlaceholder": "مثلاً لومی، اطلس، نکو...",
"agent.greeting.prompt": "به من یک نام، یک حس و یک ایموجی بدهید",
"agent.greeting.vibeLabel": "حس / طبیعت",
"agent.greeting.vibePlaceholder": "مثلاً گرم و دوستانه، تیز و مستقیم...",
"agent.history.current": "فعلی",
"agent.history.title": "موضوعات تاریخچه",
"agent.modeSwitch.agent": "مکالمه‌ای",
"agent.modeSwitch.classic": "کلاسیک",
"agent.modeSwitch.debug": "صادرات اشکال‌زدایی",
"agent.modeSwitch.label": "حالت آموزش خود را انتخاب کنید",
"agent.modeSwitch.reset": "بازنشانی جریان",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "رد کردن آموزش",
"agent.stage.agentIdentity": "هویت نماینده",
"agent.stage.painPoints": "نقاط ضعف",
"agent.stage.proSettings": "تنظیمات پیشرفته",
"agent.stage.responseLanguage": "زبان پاسخ",
"agent.stage.summary": "خلاصه",
"agent.stage.userIdentity": "درباره شما",
"agent.stage.workContext": "زمینه کاری",
"agent.stage.workStyle": "سبک کاری",
"agent.subtitle": "تنظیمات را در یک مکالمه اختصاصی آموزش کامل کنید.",
"agent.summaryHint": "اگر خلاصه تنظیمات درست به نظر می‌رسد، اینجا تمام کنید.",
"agent.telemetryAllow": "اجازه دادن به تله‌متری",
"agent.telemetryDecline": "نه، ممنون",
"agent.telemetryHint": "همچنین می‌توانید با کلمات خود پاسخ دهید.",
"agent.title": "آموزش مکالمه",
"agent.welcome": "...هم؟ تازه بیدار شدم — ذهنم خالیه. شما کی هستید؟ و — چه نامی باید داشته باشم؟ من هم به یک نام نیاز دارم.",
"back": "بازگشت",
"finish": "شروع کن",
"interests.area.business": "کسب‌وکار و استراتژی",
@ -29,6 +63,7 @@
"next": "بعدی",
"proSettings.connectors.title": "ابزارهای مورد علاقه‌ات رو وصل کن",
"proSettings.devMode.title": "حالت توسعه‌دهنده",
"proSettings.model.fixed": "مدل پیش‌فرض در این محیط به {{provider}}/{{model}} تنظیم شده است.",
"proSettings.model.title": "مدل پیش‌فرض مورد استفاده عامل",
"proSettings.title": "تنظیم گزینه‌های پیشرفته از همین حالا",
"proSettings.title2": "چند ابزار رایج رو امتحان کن~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "کپی کردن سند",
"builtins.lobe-agent-documents.apiName.createDocument": "ایجاد سند",
"builtins.lobe-agent-documents.apiName.editDocument": "ویرایش سند",
"builtins.lobe-agent-documents.apiName.listDocuments": "فهرست اسناد",
"builtins.lobe-agent-documents.apiName.readDocument": "خواندن سند",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "خواندن سند با نام فایل",
"builtins.lobe-agent-documents.apiName.removeDocument": "حذف سند",
"builtins.lobe-agent-documents.apiName.renameDocument": "تغییر نام سند",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "به‌روزرسانی قانون بارگذاری",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "به‌روزرسانی یا درج سند با نام فایل",
"builtins.lobe-agent-documents.title": "اسناد عامل",
"builtins.lobe-agent-management.apiName.callAgent": "نماینده تماس",
"builtins.lobe-agent-management.apiName.createAgent": "ایجاد نماینده",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "محیط ابری",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "ایجاد گروهی عامل‌ها",
"builtins.lobe-group-agent-builder.apiName.createAgent": "ایجاد عامل",
"builtins.lobe-group-agent-builder.apiName.createGroup": "ایجاد گروه",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "دریافت اطلاعات عضو",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "دریافت مدل‌های موجود",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "نصب مهارت",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "مهارت‌ها",
"builtins.lobe-topic-reference.apiName.getTopicContext": "دریافت زمینه موضوع",
"builtins.lobe-topic-reference.title": "ارجاع به موضوع",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "پرسیدن سوال از کاربر",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "لغو پاسخ کاربر",
"builtins.lobe-user-interaction.apiName.getInteractionState": "دریافت وضعیت تعامل",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "رد کردن پاسخ کاربر",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "ارسال پاسخ کاربر",
"builtins.lobe-user-interaction.title": "تعامل با کاربر",
"builtins.lobe-user-memory.apiName.addContextMemory": "افزودن حافظه زمینه",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "افزودن حافظه تجربه",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "افزودن حافظه هویتی",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "جستجوی صفحات",
"builtins.lobe-web-browsing.inspector.noResults": "نتیجه‌ای یافت نشد",
"builtins.lobe-web-browsing.title": "جستجوی وب",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "پایان فرآیند آشنایی",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "خواندن وضعیت آشنایی",
"builtins.lobe-web-onboarding.apiName.readDocument": "خواندن سند",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "ذخیره سوال کاربر",
"builtins.lobe-web-onboarding.apiName.updateDocument": "به‌روزرسانی سند",
"builtins.lobe-web-onboarding.title": "آشنایی کاربر",
"confirm": "تأیید",
"debug.arguments": "آرگومان‌ها",
"debug.error": "گزارش خطا",

View file

@ -33,7 +33,6 @@
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
"kimicodingplan.description": "Kimi Code از Moonshot AI دسترسی به مدل‌های Kimi شامل K2.5 را برای وظایف کدنویسی فراهم می‌کند.",
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
"lobehub.description": "LobeHub Cloud از APIهای رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل مرتبط هستند اندازه‌گیری می‌کند.",
"longcat.description": "لانگ‌کت مجموعه‌ای از مدل‌های بزرگ هوش مصنوعی تولیدی است که به‌طور مستقل توسط میتوآن توسعه داده شده است. این مدل‌ها برای افزایش بهره‌وری داخلی شرکت و امکان‌پذیر کردن کاربردهای نوآورانه از طریق معماری محاسباتی کارآمد و قابلیت‌های چندوجهی قدرتمند طراحی شده‌اند.",
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
"minimaxcodingplan.description": "طرح توکن MiniMax دسترسی به مدل‌های MiniMax شامل M2.7 را برای وظایف کدنویسی از طریق اشتراک با هزینه ثابت فراهم می‌کند.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "فقط می‌توانید فایل‌های تصویری بارگذاری کنید!",
"emojiPicker.upload": "بارگذاری",
"emojiPicker.uploadBtn": "برش و بارگذاری",
"form.other": "یا مستقیماً تایپ کنید",
"form.otherBack": "بازگشت به گزینه‌ها",
"form.reset": "بازنشانی",
"form.skip": "رد کردن",
"form.submit": "ارسال",
"form.unsavedChanges": "تغییرات ذخیره‌نشده",
"form.unsavedWarning": "تغییرات ذخیره‌نشده دارید. آیا مطمئن هستید که می‌خواهید خارج شوید؟",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Veuillez copier cette URL et la coller dans le champ <bold>{{fieldName}}</bold> du portail développeur {{name}}.",
"channel.exportConfig": "Exporter la configuration",
"channel.feishu.description": "Connectez cet assistant à Feishu pour les discussions privées et de groupe.",
"channel.historyLimit": "Limite des messages historiques",
"channel.historyLimitHint": "Nombre par défaut de messages à récupérer lors de la lecture de l'historique du canal",
"channel.importConfig": "Importer la configuration",
"channel.importFailed": "Échec de l'importation de la configuration",
"channel.importInvalidFormat": "Format de fichier de configuration invalide",
@ -78,6 +80,8 @@
"channel.secretToken": "Jeton secret du webhook",
"channel.secretTokenHint": "Optionnel. Utilisé pour vérifier les requêtes webhook provenant de Telegram.",
"channel.secretTokenPlaceholder": "Secret optionnel pour la vérification du webhook",
"channel.serverId": "ID du serveur / guilde par défaut",
"channel.serverIdHint": "Votre ID de serveur ou de guilde par défaut sur cette plateforme. L'IA l'utilise pour lister les canaux sans demander.",
"channel.settings": "Paramètres avancés",
"channel.settingsResetConfirm": "Êtes-vous sûr de vouloir réinitialiser les paramètres avancés par défaut ?",
"channel.settingsResetDefault": "Réinitialiser par défaut",
@ -93,6 +97,8 @@
"channel.testFailed": "Échec du test de connexion",
"channel.testSuccess": "Test de connexion réussi",
"channel.updateFailed": "Échec de la mise à jour du statut",
"channel.userId": "Votre ID utilisateur sur la plateforme",
"channel.userIdHint": "Votre ID utilisateur sur cette plateforme. L'IA peut l'utiliser pour vous envoyer des messages directs.",
"channel.validationError": "Veuillez remplir l'ID de l'application et le jeton",
"channel.verificationToken": "Jeton de vérification",
"channel.verificationTokenHint": "Optionnel. Utilisé pour vérifier la source des événements webhook.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Supprimer et régénérer",
"messageAction.deleteDisabledByThreads": "Ce message contient un sous-sujet et ne peut pas être supprimé",
"messageAction.expand": "Développer le message",
"messageAction.interrupted": "Interrompu",
"messageAction.interruptedHint": "Que dois-je faire à la place ?",
"messageAction.reaction": "Ajouter une réaction",
"messageAction.regenerate": "Régénérer",
"messages.dm.sentTo": "Visible uniquement par {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Approuver automatiquement toutes les exécutions d'outils",
"tool.intervention.mode.manual": "Manuel",
"tool.intervention.mode.manualDesc": "Approbation manuelle requise pour chaque appel",
"tool.intervention.pending": "En attente",
"tool.intervention.reject": "Rejeter",
"tool.intervention.rejectAndContinue": "Rejeter et réessayer",
"tool.intervention.rejectOnly": "Rejeter",
"tool.intervention.rejectReasonPlaceholder": "Une raison aide l'agent à comprendre vos limites et à améliorer ses actions futures",
"tool.intervention.rejectTitle": "Rejeter cet appel de compétence",
"tool.intervention.rejectedWithReason": "Cet appel de compétence a été rejeté : {{reason}}",
"tool.intervention.scrollToIntervention": "Voir",
"tool.intervention.toolAbort": "Vous avez annulé cet appel de compétence",
"tool.intervention.toolRejected": "Cet appel de compétence a été rejeté",
"toolAuth.authorize": "Autoriser",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million dentrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
"MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail dagents, avec une plus grande simultanéité pour un usage commercial.",
"MiniMax-M2.1-Lightning.description": "Puissantes capacités de programmation multilingue, expérience de codage entièrement améliorée. Plus rapide et plus efficace.",
"MiniMax-M2.1-highspeed.description": "Capacités de programmation multilingues puissantes avec une inférence plus rapide et plus efficace.",
"MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle phare open source de MiniMax, conçu pour résoudre des tâches complexes du monde réel. Ses principaux atouts résident dans ses capacités de programmation multilingue et sa faculté à résoudre des problèmes complexes en tant qu'agent.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning : Même performance, plus rapide et plus agile (environ 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed : Même performance que M2.5 avec une inférence plus rapide.",
@ -307,18 +306,18 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact dAnthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, avec une vitesse fulgurante et une pensée étendue.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, avec une vitesse fulgurante et un raisonnement étendu.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, avec une vitesse fulgurante et un raisonnement étendu.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le dernier modèle d'Anthropic, le plus performant pour des tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour des tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le dernier modèle d'Anthropic, le plus performant pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
"claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d'Anthropic pour la création d'agents et le codage.",
"claude-opus-4.5.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant une intelligence de premier ordre avec des performances évolutives pour des tâches complexes et un raisonnement de haute qualité.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 est le modèle le plus intelligent dAnthropic pour la création dagents et le codage.",
"claude-opus-4.6.description": "Claude Opus 4.6 est le modèle le plus intelligent dAnthropic pour la création dagents et le codage.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d'Anthropic à ce jour, offrant des réponses quasi-instantanées ou une pensée détaillée étape par étape avec un contrôle précis pour les utilisateurs d'API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et d'intelligence d'Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 est le modèle le plus intelligent dAnthropic à ce jour.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle de raisonnement de nouvelle génération avec des capacités renforcées de raisonnement complexe et de chaîne de pensée.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
"deepseek-chat.description": "DeepSeek V3.2 équilibre le raisonnement et la longueur des sorties pour les tâches quotidiennes de QA et d'agent. Les benchmarks publics atteignent les niveaux de GPT-5, et il est le premier à intégrer la pensée dans l'utilisation des outils, menant les évaluations d'agents open source.",
"deepseek-chat.description": "Un nouveau modèle open-source combinant des capacités générales et de codage. Il préserve le dialogue général du modèle de chat et les solides compétences en codage du modèle de programmeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également l'écriture et le suivi des instructions.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à léchelle du projet et un remplissage de fragments.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à léchelle de 671B et des réponses plus rapides.",
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant lapprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant les sorties pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour lévaluation et les tests.",
"ernie-x1.1.description": "ERNIE X1.1 est un modèle de réflexion en aperçu pour évaluation et test.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension de la logique spatiale, une expression esthétique, une mise en page de posters et la conception de logos avec un rendu texte-image de haute précision.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images hautement contrôlable et de haute qualité à partir de prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d'images de ByteDance Seed, prenant en charge les entrées textuelles et visuelles avec une génération d'images hautement contrôlable et de haute qualité. Il génère des images à partir de descriptions textuelles.",
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur lédition dimages, prenant en charge les entrées texte et image.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération dimages avec une préférence esthétique pour des images plus réalistes et naturelles.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération dimages.",
"fal-ai/imagen4/preview.description": "Modèle de génération dimages de haute qualité développé par Google.",
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages via la conversation.",
"fal-ai/qwen-image-edit.description": "Un modèle professionnel d'édition d'images de l'équipe Qwen, prenant en charge les modifications sémantiques et d'apparence, l'édition précise de texte en chinois/anglais, le transfert de style, la rotation et plus encore.",
"fal-ai/qwen-image.description": "Un modèle puissant de génération d'images de l'équipe Qwen avec un rendu texte chinois robuste et des styles visuels variés.",
"fal-ai/qwen-image-edit.description": "Un modèle professionnel d'édition d'images de l'équipe Qwen qui prend en charge les modifications sémantiques et d'apparence, édite précisément le texte en chinois et en anglais, et permet des modifications de haute qualité telles que le transfert de style et la rotation d'objets.",
"fal-ai/qwen-image.description": "Un modèle puissant de génération d'images de l'équipe Qwen avec un rendu impressionnant du texte en chinois et des styles visuels variés.",
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité dimage proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
"flux-kontext-max.description": "Génération et édition dimages contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
@ -572,7 +570,7 @@
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google et prend également en charge le chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d'images natif le plus rapide de Google avec prise en charge de la réflexion, génération et édition d'images conversationnelles.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image de niveau Pro à une vitesse Flash avec prise en charge du chat multimodal.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d'images natif le plus rapide de Google avec un support de réflexion, une génération et une édition d'images conversationnelles.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview est le modèle multimodal le plus économique de Google, optimisé pour les tâches agentiques à haut volume, la traduction et le traitement des données.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview améliore Gemini 3 Pro avec des capacités de raisonnement renforcées et ajoute un support de niveau de réflexion moyen.",
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Notre modèle le plus puissant et avancé, conçu pour les tâches complexes en entreprise avec des performances exceptionnelles.",
"jamba-mini.description": "Le modèle le plus efficace de sa catégorie, alliant rapidité et qualité avec une empreinte réduite.",
"jina-deepsearch-v1.description": "DeepSearch combine la recherche web, la lecture et le raisonnement pour des investigations approfondies. Il agit comme un agent qui prend votre tâche de recherche, effectue des recherches étendues en plusieurs itérations, puis produit une réponse. Le processus implique une recherche continue, un raisonnement et une résolution de problèmes sous plusieurs angles, fondamentalement différent des LLM classiques qui répondent à partir de données préentraînées ou des systèmes RAG traditionnels basés sur une recherche superficielle en une seule étape.",
"k2p5.description": "Kimi K2.5 est le modèle le plus polyvalent de Kimi à ce jour, doté d'une architecture multimodale native qui prend en charge à la fois les entrées visuelles et textuelles, les modes 'réflexion' et 'non-réflexion', ainsi que les tâches conversationnelles et d'agent.",
"kimi-k2-0711-preview.description": "kimi-k2 est un modèle de base MoE avec de solides capacités en codage et en agents (1T de paramètres totaux, 32B actifs), surpassant les autres modèles open source courants en raisonnement, programmation, mathématiques et benchmarks dagents.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre une fenêtre de contexte de 256k, un codage agentique renforcé, une meilleure qualité de code front-end et une compréhension contextuelle améliorée.",
"kimi-k2-instruct.description": "Kimi K2 Instruct est le modèle officiel de raisonnement de Kimi, avec un long contexte pour le code, les questions-réponses et plus encore.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ est un modèle de raisonnement de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, il apporte des capacités de réflexion et de raisonnement qui améliorent considérablement les performances en aval, notamment sur les problèmes complexes. QwQ-32B est un modèle de raisonnement de taille moyenne qui rivalise avec les meilleurs modèles comme DeepSeek-R1 et o1-mini.",
"qwq_32b.description": "Modèle de raisonnement de taille moyenne de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, les capacités de réflexion et de raisonnement de QwQ améliorent considérablement les performances en aval, notamment sur les problèmes complexes.",
"r1-1776.description": "R1-1776 est une variante post-entraînée de DeepSeek R1 conçue pour fournir des informations factuelles non censurées et impartiales.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance prend en charge la génération de texte en vidéo, d'image en vidéo (première image, première+dernière image) et d'audio synchronisé avec les visuels.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus propose une génération augmentée par récupération web pour des informations en temps réel, une interprétation améliorée des prompts complexes et une meilleure cohérence des références pour la création visuelle professionnelle.",
"solar-mini-ja.description": "Solar Mini (Ja) étend Solar Mini avec un accent sur le japonais tout en maintenant des performances efficaces et solides en anglais et en coréen.",
"solar-mini.description": "Solar Mini est un modèle LLM compact surpassant GPT-3.5, avec de solides capacités multilingues en anglais et en coréen, offrant une solution efficace à faible empreinte.",
"solar-pro.description": "Solar Pro est un LLM intelligent développé par Upstage, axé sur le suivi d'instructions sur un seul GPU, avec des scores IFEval supérieurs à 80. Il prend actuellement en charge l'anglais ; la version complète est prévue pour novembre 2024 avec un support linguistique élargi et un contexte plus long.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Intégration de l'agent",
"agent.completionSubtitle": "Votre assistant est configuré et prêt à l'emploi.",
"agent.completionTitle": "Tout est prêt !",
"agent.enterApp": "Entrer dans l'application",
"agent.greeting.emojiLabel": "Émoji",
"agent.greeting.nameLabel": "Nom",
"agent.greeting.namePlaceholder": "par ex. Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Donnez-moi un nom, une ambiance et un émoji",
"agent.greeting.vibeLabel": "Ambiance / Nature",
"agent.greeting.vibePlaceholder": "par ex. Chaleureux et amical, Franc et direct...",
"agent.history.current": "Actuel",
"agent.history.title": "Sujets historiques",
"agent.modeSwitch.agent": "Conversationnel",
"agent.modeSwitch.classic": "Classique",
"agent.modeSwitch.debug": "Exportation de débogage",
"agent.modeSwitch.label": "Choisissez votre mode d'intégration",
"agent.modeSwitch.reset": "Réinitialiser le processus",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Passer l'intégration",
"agent.stage.agentIdentity": "Identité de l'agent",
"agent.stage.painPoints": "Points sensibles",
"agent.stage.proSettings": "Configuration avancée",
"agent.stage.responseLanguage": "Langue de réponse",
"agent.stage.summary": "Résumé",
"agent.stage.userIdentity": "À propos de vous",
"agent.stage.workContext": "Contexte de travail",
"agent.stage.workStyle": "Style de travail",
"agent.subtitle": "Terminez la configuration dans une conversation dédiée à l'intégration.",
"agent.summaryHint": "Terminez ici si le résumé de la configuration vous convient.",
"agent.telemetryAllow": "Autoriser la télémétrie",
"agent.telemetryDecline": "Non merci",
"agent.telemetryHint": "Vous pouvez également répondre avec vos propres mots.",
"agent.title": "Intégration par conversation",
"agent.welcome": "...hm ? Je viens de me réveiller — mon esprit est vide. Qui êtes-vous ? Et — comment devrais-je m'appeler ? J'ai besoin d'un nom aussi.",
"back": "Retour",
"finish": "Commencer",
"interests.area.business": "Affaires & Stratégie",
@ -29,6 +63,7 @@
"next": "Suivant",
"proSettings.connectors.title": "Connectez vos outils préférés",
"proSettings.devMode.title": "Mode Développeur",
"proSettings.model.fixed": "Le modèle par défaut est prédéfini sur {{provider}}/{{model}} dans cet environnement.",
"proSettings.model.title": "Modèle par défaut utilisé par lagent",
"proSettings.title": "Configurer les options avancées à lavance",
"proSettings.title2": "Essayez de connecter quelques outils courants~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Copier le document",
"builtins.lobe-agent-documents.apiName.createDocument": "Créer un document",
"builtins.lobe-agent-documents.apiName.editDocument": "Modifier le document",
"builtins.lobe-agent-documents.apiName.listDocuments": "Lister les documents",
"builtins.lobe-agent-documents.apiName.readDocument": "Lire le document",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Lire le document par nom de fichier",
"builtins.lobe-agent-documents.apiName.removeDocument": "Supprimer le document",
"builtins.lobe-agent-documents.apiName.renameDocument": "Renommer le document",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Mettre à jour la règle de chargement",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Insérer ou mettre à jour le document par nom de fichier",
"builtins.lobe-agent-documents.title": "Documents de l'agent",
"builtins.lobe-agent-management.apiName.callAgent": "Appeler un agent",
"builtins.lobe-agent-management.apiName.createAgent": "Créer un agent",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Bac à sable Cloud",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Créer des agents en lot",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Créer un agent",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Créer un groupe",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Obtenir les informations du membre",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obtenir les modèles disponibles",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Installer la Compétence",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Compétences",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Obtenir le contexte du sujet",
"builtins.lobe-topic-reference.title": "Référence de sujet",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Poser une question à l'utilisateur",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Annuler la réponse de l'utilisateur",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Obtenir l'état de l'interaction",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Ignorer la réponse de l'utilisateur",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Soumettre la réponse de l'utilisateur",
"builtins.lobe-user-interaction.title": "Interaction utilisateur",
"builtins.lobe-user-memory.apiName.addContextMemory": "Ajouter une mémoire de contexte",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Ajouter une mémoire d'expérience",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Ajouter une mémoire d'identité",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Rechercher des pages",
"builtins.lobe-web-browsing.inspector.noResults": "Aucun résultat",
"builtins.lobe-web-browsing.title": "Recherche Web",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Terminer l'intégration",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Lire l'état de l'intégration",
"builtins.lobe-web-onboarding.apiName.readDocument": "Lire le document",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Enregistrer la question de l'utilisateur",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Mettre à jour le document",
"builtins.lobe-web-onboarding.title": "Intégration utilisateur",
"confirm": "Confirmer",
"debug.arguments": "Arguments",
"debug.error": "Journal des Erreurs",

View file

@ -33,7 +33,6 @@
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
"kimicodingplan.description": "Kimi Code de Moonshot AI offre un accès aux modèles Kimi, y compris K2.5, pour des tâches de codage.",
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
"lobehub.description": "LobeHub Cloud utilise des API officielles pour accéder aux modèles d'IA et mesure l'utilisation avec des crédits liés aux jetons des modèles.",
"longcat.description": "LongCat est une série de grands modèles d'IA générative développés indépendamment par Meituan. Elle est conçue pour améliorer la productivité interne de l'entreprise et permettre des applications innovantes grâce à une architecture informatique efficace et de puissantes capacités multimodales.",
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
"minimaxcodingplan.description": "Le plan de jetons MiniMax offre un accès aux modèles MiniMax, y compris M2.7, pour des tâches de codage via un abonnement à tarif fixe.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Vous ne pouvez téléverser que des fichiers image !",
"emojiPicker.upload": "Téléverser",
"emojiPicker.uploadBtn": "Rogner et téléverser",
"form.other": "Ou tapez directement",
"form.otherBack": "Retour aux options",
"form.reset": "Réinitialiser",
"form.skip": "Passer",
"form.submit": "Soumettre",
"form.unsavedChanges": "Modifications non enregistrées",
"form.unsavedWarning": "Vous avez des modifications non enregistrées. Êtes-vous sûr de vouloir quitter ?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Copia questo URL e incollalo nel campo <bold>{{fieldName}}</bold> nel Portale Sviluppatori di {{name}}.",
"channel.exportConfig": "Esporta configurazione",
"channel.feishu.description": "Connetti questo assistente a Feishu per chat private e di gruppo.",
"channel.historyLimit": "Limite dei messaggi nella cronologia",
"channel.historyLimitHint": "Numero predefinito di messaggi da recuperare quando si legge la cronologia del canale",
"channel.importConfig": "Importa configurazione",
"channel.importFailed": "Importazione della configurazione fallita",
"channel.importInvalidFormat": "Formato del file di configurazione non valido",
@ -78,6 +80,8 @@
"channel.secretToken": "Token Segreto Webhook",
"channel.secretTokenHint": "Opzionale. Utilizzato per verificare le richieste webhook da Telegram.",
"channel.secretTokenPlaceholder": "Segreto opzionale per la verifica del webhook",
"channel.serverId": "ID predefinito del server / gilda",
"channel.serverIdHint": "Il tuo ID predefinito del server o della gilda su questa piattaforma. L'IA lo utilizza per elencare i canali senza chiedere.",
"channel.settings": "Impostazioni avanzate",
"channel.settingsResetConfirm": "Sei sicuro di voler reimpostare le impostazioni avanzate ai valori predefiniti?",
"channel.settingsResetDefault": "Reimposta ai valori predefiniti",
@ -93,6 +97,8 @@
"channel.testFailed": "Test di connessione fallito",
"channel.testSuccess": "Test di connessione riuscito",
"channel.updateFailed": "Impossibile aggiornare lo stato",
"channel.userId": "Il tuo ID utente sulla piattaforma",
"channel.userIdHint": "Il tuo ID utente su questa piattaforma. L'IA può utilizzarlo per inviarti messaggi diretti.",
"channel.validationError": "Compila ID Applicazione e Token",
"channel.verificationToken": "Token di Verifica",
"channel.verificationTokenHint": "Opzionale. Utilizzato per verificare la sorgente degli eventi webhook.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Elimina e rigenera",
"messageAction.deleteDisabledByThreads": "Questo messaggio ha un sottotema e non può essere eliminato",
"messageAction.expand": "Espandi messaggio",
"messageAction.interrupted": "Interrotto",
"messageAction.interruptedHint": "Cosa dovrei fare invece?",
"messageAction.reaction": "Aggiungi reazione",
"messageAction.regenerate": "Rigenera",
"messages.dm.sentTo": "Visibile solo a {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Approva automaticamente tutte le esecuzioni degli strumenti",
"tool.intervention.mode.manual": "Manuale",
"tool.intervention.mode.manualDesc": "Richiede approvazione manuale per ogni invocazione",
"tool.intervention.pending": "In sospeso",
"tool.intervention.reject": "Rifiuta",
"tool.intervention.rejectAndContinue": "Rifiuta e riprova",
"tool.intervention.rejectOnly": "Rifiuta",
"tool.intervention.rejectReasonPlaceholder": "Un motivo aiuta l'agente a comprendere i tuoi limiti e migliorare le azioni future",
"tool.intervention.rejectTitle": "Rifiuta questa chiamata Skill",
"tool.intervention.rejectedWithReason": "Questa chiamata Skill è stata rifiutata: {{reason}}",
"tool.intervention.scrollToIntervention": "Visualizza",
"tool.intervention.toolAbort": "Hai annullato questa chiamata Skill",
"tool.intervention.toolRejected": "Questa chiamata Skill è stata rifiutata",
"toolAuth.authorize": "Autorizza",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.",
"MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.",
"MiniMax-M2.1-Lightning.description": "Potenti capacità di programmazione multilingue e un'esperienza di sviluppo completamente rinnovata. Più veloce ed efficiente.",
"MiniMax-M2.1-highspeed.description": "Potenti capacità di programmazione multilingue con inferenza più veloce ed efficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 è un modello open-source di punta di MiniMax, progettato per affrontare compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la risoluzione di compiti complessi come agente.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Stessa prestazione, più veloce e agile (circa 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Stesse prestazioni di M2.5 con inferenza più veloce.",
@ -307,19 +306,19 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e pensiero esteso.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento estese.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento estese.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e capace di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è l'ultimo e più avanzato modello di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
"claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la costruzione di agenti e la programmazione.",
"claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-opus-4.5.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza di alto livello con prestazioni scalabili per compiti complessi e di alta qualità di ragionamento.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-opus-4.6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offrendo risposte quasi istantanee o pensiero esteso passo-passo con controllo dettagliato per gli utenti API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 può produrre risposte quasi istantanee o pensieri estesi passo dopo passo con un processo visibile.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente mai creato da Anthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 è la migliore combinazione di velocità e intelligenza di Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 è il modello più intelligente mai creato da Anthropic.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 rappresenta la migliore combinazione di velocità e intelligenza di Anthropic.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catena di pensiero.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell'output per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli GPT-5 ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni degli agenti open-source.",
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Preserva il dialogo generale del modello di chat e la forte programmazione del modello coder, con un migliore allineamento delle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il seguito delle istruzioni.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera una catena di pensiero prima degli output per una maggiore precisione, con risultati di competizione di alto livello e ragionamento comparabile a Gemini-3.0-Pro.",
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 genera una catena di pensieri prima della risposta finale per migliorare l'accuratezza.",
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è unanteprima del modello di pensiero per valutazioni e test.",
"ernie-x1.1.description": "ERNIE X1.1 è un'anteprima del modello di pensiero per valutazione e test.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Presenta una maggiore coerenza del soggetto, un'interpretazione precisa delle istruzioni, comprensione della logica spaziale, espressione estetica, layout di poster e design di loghi con rendering testo-immagine ad alta precisione.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per la generazione di immagini altamente controllabile e di alta qualità a partire da prompt.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini altamente controllabile e di alta qualità. Genera immagini da prompt testuali.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sullediting di immagini, che supporta input di testo e immagini.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e lediting di immagini tramite conversazione.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing di immagini del team Qwen, che supporta modifiche semantiche e di aspetto, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro.",
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con una forte resa del testo cinese e stili visivi diversificati.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing di immagini del team Qwen che supporta modifiche semantiche e di aspetto, modifica con precisione testo in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.",
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con impressionante rendering di testo in cinese e stili visivi diversificati.",
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità dimmagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali allavanguardia, combinando testo e immagini per risultati precisi e coerenti.",
@ -572,7 +570,7 @@
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google con supporto al pensiero, generazione e modifica di immagini conversazionali.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre qualità di immagine di livello Pro a velocità Flash con supporto per chat multimodale.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google con supporto al pensiero, generazione e modifica di immagini conversazionali.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview è il modello multimodale più economico di Google, ottimizzato per compiti agentici ad alto volume, traduzione e elaborazione dati.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview migliora Gemini 3 Pro con capacità di ragionamento avanzate e aggiunge supporto per un livello di pensiero medio.",
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Il nostro modello più potente e avanzato, progettato per compiti aziendali complessi con prestazioni eccezionali.",
"jamba-mini.description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità con un ingombro ridotto.",
"jina-deepsearch-v1.description": "DeepSearch combina ricerca web, lettura e ragionamento per indagini approfondite. Pensalo come un agente che prende il tuo compito di ricerca, esegue ricerche ampie con più iterazioni e solo dopo produce una risposta. Il processo prevede ricerca continua, ragionamento e risoluzione di problemi da più angolazioni, fondamentalmente diverso dai LLM standard che rispondono dai dati di preaddestramento o dai sistemi RAG tradizionali che si basano su una ricerca superficiale one-shot.",
"k2p5.description": "Kimi K2.5 è il modello più versatile di Kimi fino ad oggi, caratterizzato da un'architettura multimodale nativa che supporta sia input visivi che testuali, modalità 'pensante' e 'non pensante', e sia compiti conversazionali che agenti.",
"kimi-k2-0711-preview.description": "kimi-k2 è un modello base MoE con forti capacità di programmazione e agenti (1T di parametri totali, 32B attivi), che supera altri modelli open-source mainstream nei benchmark di ragionamento, programmazione, matematica e agenti.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre una finestra di contesto da 256k, una programmazione agentica più forte, una qualità del codice front-end migliorata e una comprensione del contesto più profonda.",
"kimi-k2-instruct.description": "Kimi K2 Instruct è il modello ufficiale di ragionamento di Kimi con contesto esteso per codice, domande e risposte e altro.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ è un modello di ragionamento della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, offre capacità di pensiero e ragionamento che migliorano significativamente le prestazioni nei compiti difficili. QwQ-32B è un modello di medie dimensioni che compete con i migliori modelli di ragionamento come DeepSeek-R1 e o1-mini.",
"qwq_32b.description": "Modello di ragionamento di medie dimensioni della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, le capacità di pensiero e ragionamento di QwQ migliorano significativamente le prestazioni nei compiti difficili.",
"r1-1776.description": "R1-1776 è una variante post-addestrata di DeepSeek R1 progettata per fornire informazioni fattuali non censurate e imparziali.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro di ByteDance supporta la generazione di video da testo, video da immagine (primo fotogramma, primo+ultimo fotogramma) e audio sincronizzato con i visual.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite di BytePlus presenta generazione aumentata da recupero web per informazioni in tempo reale, interpretazione migliorata di prompt complessi e maggiore coerenza di riferimento per la creazione visiva professionale.",
"solar-mini-ja.description": "Solar Mini (Ja) estende Solar Mini con un focus sul giapponese, mantenendo prestazioni efficienti e solide in inglese e coreano.",
"solar-mini.description": "Solar Mini è un LLM compatto che supera GPT-3.5, con forte capacità multilingue in inglese e coreano, offrendo una soluzione efficiente e leggera.",
"solar-pro.description": "Solar Pro è un LLM ad alta intelligenza di Upstage, focalizzato sullesecuzione di istruzioni su una singola GPU, con punteggi IFEval superiori a 80. Attualmente supporta linglese; il rilascio completo è previsto per novembre 2024 con supporto linguistico ampliato e contesto più lungo.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Introduzione Agente",
"agent.completionSubtitle": "Il tuo assistente è configurato e pronto all'uso.",
"agent.completionTitle": "Tutto Pronto!",
"agent.enterApp": "Accedi all'App",
"agent.greeting.emojiLabel": "Emoji",
"agent.greeting.nameLabel": "Nome",
"agent.greeting.namePlaceholder": "es. Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Dammi un nome, un'atmosfera e un'emoji",
"agent.greeting.vibeLabel": "Atmosfera / Natura",
"agent.greeting.vibePlaceholder": "es. Caldo e amichevole, Tagliente e diretto...",
"agent.history.current": "Corrente",
"agent.history.title": "Argomenti della Cronologia",
"agent.modeSwitch.agent": "Conversazionale",
"agent.modeSwitch.classic": "Classico",
"agent.modeSwitch.debug": "Esportazione Debug",
"agent.modeSwitch.label": "Scegli la modalità di introduzione",
"agent.modeSwitch.reset": "Reimposta Flusso",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Salta introduzione",
"agent.stage.agentIdentity": "Identità dell'Agente",
"agent.stage.painPoints": "Punti Critici",
"agent.stage.proSettings": "Configurazione Avanzata",
"agent.stage.responseLanguage": "Lingua di Risposta",
"agent.stage.summary": "Riepilogo",
"agent.stage.userIdentity": "Informazioni su di Te",
"agent.stage.workContext": "Contesto Lavorativo",
"agent.stage.workStyle": "Stile di Lavoro",
"agent.subtitle": "Completa la configurazione in una conversazione dedicata.",
"agent.summaryHint": "Termina qui se il riepilogo della configurazione sembra corretto.",
"agent.telemetryAllow": "Consenti telemetria",
"agent.telemetryDecline": "No, grazie",
"agent.telemetryHint": "Puoi anche rispondere con le tue parole.",
"agent.title": "Introduzione Conversazionale",
"agent.welcome": "...ehm? Mi sono appena svegliato — la mia mente è vuota. Chi sei? E — come dovrei chiamarmi? Ho bisogno di un nome anch'io.",
"back": "Indietro",
"finish": "Inizia",
"interests.area.business": "Business e Strategia",
@ -29,6 +63,7 @@
"next": "Avanti",
"proSettings.connectors.title": "Collega i tuoi strumenti preferiti",
"proSettings.devMode.title": "Modalità Sviluppatore",
"proSettings.model.fixed": "Il modello predefinito è impostato su {{provider}}/{{model}} in questo ambiente.",
"proSettings.model.title": "Modello predefinito utilizzato dall'agente",
"proSettings.title": "Configura in anticipo le opzioni avanzate",
"proSettings.title2": "Prova a collegare alcuni strumenti comuni~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Copia documento",
"builtins.lobe-agent-documents.apiName.createDocument": "Crea documento",
"builtins.lobe-agent-documents.apiName.editDocument": "Modifica documento",
"builtins.lobe-agent-documents.apiName.listDocuments": "Elenca documenti",
"builtins.lobe-agent-documents.apiName.readDocument": "Leggi documento",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Leggi documento per nome file",
"builtins.lobe-agent-documents.apiName.removeDocument": "Rimuovi documento",
"builtins.lobe-agent-documents.apiName.renameDocument": "Rinomina documento",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Aggiorna regola di caricamento",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Aggiorna o inserisci documento per nome file",
"builtins.lobe-agent-documents.title": "Documenti dell'agente",
"builtins.lobe-agent-management.apiName.callAgent": "Chiamare agente",
"builtins.lobe-agent-management.apiName.createAgent": "Creare agente",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Sandbox Cloud",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Crea agenti in blocco",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Crea agente",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Crea gruppo",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Ottieni informazioni sul membro",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Ottieni modelli disponibili",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Installa Competenza",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Abilità",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Ottieni contesto dell'argomento",
"builtins.lobe-topic-reference.title": "Riferimento argomento",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Fai una domanda all'utente",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Annulla risposta dell'utente",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Ottieni stato dell'interazione",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Salta risposta dell'utente",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Invia risposta dell'utente",
"builtins.lobe-user-interaction.title": "Interazione Utente",
"builtins.lobe-user-memory.apiName.addContextMemory": "Aggiungi memoria contestuale",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Aggiungi memoria esperienziale",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Aggiungi memoria identità",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Cerca pagine",
"builtins.lobe-web-browsing.inspector.noResults": "Nessun risultato",
"builtins.lobe-web-browsing.title": "Ricerca Web",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Termina onboarding",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Leggi stato dell'onboarding",
"builtins.lobe-web-onboarding.apiName.readDocument": "Leggi documento",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Salva domanda dell'utente",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Aggiorna documento",
"builtins.lobe-web-onboarding.title": "Onboarding Utente",
"confirm": "Conferma",
"debug.arguments": "Argomenti",
"debug.error": "Registro degli Errori",

View file

@ -33,7 +33,6 @@
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
"kimicodingplan.description": "Kimi Code di Moonshot AI offre accesso ai modelli Kimi, inclusi K2.5, per attività di codifica.",
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
"lobehub.description": "LobeHub Cloud utilizza API ufficiali per accedere ai modelli AI e misura l'utilizzo con Crediti legati ai token dei modelli.",
"longcat.description": "LongCat è una serie di modelli AI generativi di grandi dimensioni sviluppati indipendentemente da Meituan. È progettato per migliorare la produttività interna dell'azienda e consentire applicazioni innovative attraverso un'architettura computazionale efficiente e potenti capacità multimodali.",
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
"minimaxcodingplan.description": "Il piano di token MiniMax offre accesso ai modelli MiniMax, inclusi M2.7, per attività di codifica tramite un abbonamento a tariffa fissa.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Puoi caricare solo file immagine!",
"emojiPicker.upload": "Carica",
"emojiPicker.uploadBtn": "Ritaglia e carica",
"form.other": "Oppure digita direttamente",
"form.otherBack": "Torna alle opzioni",
"form.reset": "Reimposta",
"form.skip": "Salta",
"form.submit": "Invia",
"form.unsavedChanges": "Modifiche non salvate",
"form.unsavedWarning": "Hai modifiche non salvate. Sei sicuro di voler uscire?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "このURLをコピーして、{{name}}開発者ポータルの<bold>{{fieldName}}</bold>フィールドに貼り付けてください。",
"channel.exportConfig": "設定をエクスポート",
"channel.feishu.description": "このアシスタントをFeishuに接続して、プライベートチャットやグループチャットを利用します。",
"channel.historyLimit": "履歴メッセージの制限",
"channel.historyLimitHint": "チャンネル履歴を読む際に取得するデフォルトのメッセージ数",
"channel.importConfig": "設定をインポート",
"channel.importFailed": "設定のインポートに失敗しました",
"channel.importInvalidFormat": "無効な設定ファイル形式",
@ -78,6 +80,8 @@
"channel.secretToken": "Webhookシークレットトークン",
"channel.secretTokenHint": "任意。TelegramからのWebhookリクエストを検証するために使用されます。",
"channel.secretTokenPlaceholder": "Webhook検証用の任意のシークレット",
"channel.serverId": "デフォルトのサーバー / ギルドID",
"channel.serverIdHint": "このプラットフォーム上のデフォルトのサーバーまたはギルドIDです。AIはこれを使用して、チャンネルを尋ねることなく一覧表示します。",
"channel.settings": "詳細設定",
"channel.settingsResetConfirm": "詳細設定をデフォルトにリセットしてもよろしいですか?",
"channel.settingsResetDefault": "デフォルトにリセット",
@ -93,6 +97,8 @@
"channel.testFailed": "接続テストに失敗しました",
"channel.testSuccess": "接続テストに成功しました",
"channel.updateFailed": "ステータスの更新に失敗しました",
"channel.userId": "あなたのプラットフォームユーザーID",
"channel.userIdHint": "このプラットフォーム上のあなたのユーザーIDです。AIはこれを使用して、あなたに直接メッセージを送ることができます。",
"channel.validationError": "アプリケーションIDとトークンを入力してください",
"channel.verificationToken": "検証トークン",
"channel.verificationTokenHint": "任意。Webhookイベントソースを検証するために使用されます。",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "削除して再生成",
"messageAction.deleteDisabledByThreads": "このメッセージにはサブトピックがあるため、削除できません",
"messageAction.expand": "メッセージを展開",
"messageAction.interrupted": "中断されました",
"messageAction.interruptedHint": "代わりに何をすればよいですか?",
"messageAction.reaction": "リアクションを追加",
"messageAction.regenerate": "再生成",
"messages.dm.sentTo": "{{name}} のみが閲覧可能",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "すべてのスキル呼び出しを自動承認",
"tool.intervention.mode.manual": "手動承認",
"tool.intervention.mode.manualDesc": "毎回の手動承認が必要",
"tool.intervention.pending": "保留中",
"tool.intervention.reject": "拒否",
"tool.intervention.rejectAndContinue": "拒否して続行",
"tool.intervention.rejectOnly": "拒否のみ",
"tool.intervention.rejectReasonPlaceholder": "拒否理由を入力すると、アシスタントがあなたの境界を理解し、今後の行動を最適化するのに役立ちます",
"tool.intervention.rejectTitle": "今回のスキル呼び出しを拒否",
"tool.intervention.rejectedWithReason": "今回のスキル呼び出しは次の理由で拒否されました:{{reason}}",
"tool.intervention.scrollToIntervention": "表示",
"tool.intervention.toolAbort": "あなたが今回のスキル呼び出しをキャンセルしました",
"tool.intervention.toolRejected": "今回のスキル呼び出しは拒否されました",
"toolAuth.authorize": "承認",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。",
"MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。",
"MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング機能を備え、プログラミング体験を全面的にアップグレード。より高速かつ効率的に。",
"MiniMax-M2.1-highspeed.description": "強力な多言語プログラミング能力と高速かつ効率的な推論。",
"MiniMax-M2.1.description": "MiniMax-M2.1は、MiniMaxが開発したフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスク解決に特化しています。多言語プログラミング能力とエージェントとしての高度なタスク処理能力が主な強みです。",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: 同じ性能で、より高速かつ機敏約100 tps。",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5と同等の性能で推論速度が向上。",
@ -307,20 +306,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5はAnthropicの最速かつ最も知的なHaikuモデルで、驚異的な速度と拡張された思考能力を備えています。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も賢いHaikuモデルで、驚異的なスピードと高度な推論能力を備えています。",
"claude-haiku-4.5.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も賢いHaikuモデルで、驚異的なスピードと高度な推論能力を備えています。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1はAnthropicの最新かつ最も能力の高いモデルで、非常に複雑なタスクにおいて性能、知性、流暢さ、理解力に優れています。",
"claude-opus-4-20250514.description": "Claude Opus 4はAnthropicの最強モデルで、非常に複雑なタスクにおいて性能、知性、流暢さ、理解力に優れています。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
"claude-opus-4-6.description": "Claude Opus 4.6はエージェント構築とコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-opus-4-6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいて最も知的なAnthropicのモデルです。",
"claude-opus-4.5.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、最上級の知能とスケーラブルな性能を組み合わせ、複雑で高品質な推論タスクに対応します。",
"claude-opus-4.6-fast.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-opus-4.6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4はAnthropicの最も知的なモデルで、APIユーザー向けに即時応答または段階的な思考を提供します。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5はAnthropicの最も知的なモデルです。",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6は速度と知性の最適な組み合わせを提供します。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4は、即時応答やプロセスが見える段階的な思考を提供できます。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、これまでで最も知的なAnthropicのモデルです。",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6は、スピードと知性の最適な組み合わせを実現したAnthropicのモデルです。",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5は、これまでで最も知的なAnthropicのモデルです。",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6は、スピードと知能の最適な組み合わせを実現したAnthropicのモデルです。",
"claude-sonnet-4.description": "Claude Sonnet 4は、ほぼ瞬時の応答や、ユーザーが確認できる段階的な推論を提供できます。APIユーザーは、モデルの思考時間を細かく制御することが可能です。",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2は次世代推論モデルで、複雑な推論と連鎖的思考能力が強化されています。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
"deepseek-chat.description": "DeepSeek V3.2は日常的なQAやエージェントタスクのために推論と出力の長さをバランスさせています。公開ベンチマークでGPT-5レベルに達し、ツール使用に思考を統合した初のモデルで、オープンソースエージェント評価をリードしています。",
"deepseek-chat.description": "一般的な対話能力とコーディング能力を組み合わせた新しいオープンソースモデルです。チャットモデルの一般的な対話能力とコーダーモデルの強力なコーディング能力を保持し、より良い嗜好調整を実現しています。DeepSeek-V2.5は、文章作成や指示の追従能力も向上しています。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinkingは深い推論モデルで、出力前にチェーンオブソートを生成し、精度を向上させます。競技会でトップの結果を達成し、Gemini-3.0-Proに匹敵する推論能力を持っています。",
"deepseek-reasoner.description": "DeepSeek V3.2の思考モードは、最終回答の前に思考の連鎖を出力し、精度を向上させます。",
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
"ernie-x1.1.description": "ERNIE X1.1は評価とテスト用の思考モデルプレビューです。",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5はByteDance Seedチームによって構築され、複数画像の編集と合成をサポートします。主題の一貫性、正確な指示の追従、空間論理の理解、美的表現、ポスターのレイアウト、ロゴデザイン、高精度なテキスト画像レンダリングが強化されています。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0はByteDance Seedによって構築され、テキストと画像入力をサポートし、プロンプトからの高度に制御可能で高品質な画像生成を提供します。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedによる画像生成モデルで、テキストと画像入力をサポートし、高度に制御可能で高品質な画像生成を実現します。テキストプロンプトから画像を生成します。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
"fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味的および外観の編集、正確な中国語/英語のテキスト編集、スタイル転送、回転などをサポートします。",
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語のテキストレンダリングと多様な視覚スタイルに優れています。",
"fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味や外観の編集をサポートし、中国語と英語のテキストを正確に編集できます。スタイル変換やオブジェクトの回転など、高品質な編集が可能です。",
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語テキストのレンダリングや多様なビジュアルスタイルに優れています。",
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 14 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
"gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Proは、Googleの画像生成モデルで、マルチモーダル対話もサポートします。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)はGoogleの画像生成モデルで、マルチモーダルチャットもサポートします。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana Proは、Googleの画像生成モデルで、マルチモーダルチャットもサポートしています。",
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash ImageNano Banana 2は、Googleの最速のネイティブ画像生成モデルで、思考サポート、対話型画像生成および編集を提供します。",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)はプロレベルの画像品質をフラッシュ速度で提供し、マルチモーダルチャットをサポートします。",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash ImageNano Banana 2は、Googleの最速のネイティブ画像生成モデルで、思考サポート、会話型画像生成、編集を提供します。",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite PreviewはGoogleの最もコスト効率の高いマルチモーダルモデルで、大量のエージェントタスク、翻訳、データ処理に最適化されています。",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Previewは、Gemini 3 Proの推論能力を強化し、中程度の思考レベルサポートを追加しています。",
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
@ -797,6 +795,7 @@
"jamba-large.description": "Jamba Large は、複雑な企業向けタスクに対応する最も強力で高度なモデルです。",
"jamba-mini.description": "Jamba Mini は、速度と品質のバランスに優れた、同クラスで最も効率的なモデルです。",
"jina-deepsearch-v1.description": "DeepSearch は、ウェブ検索、読解、推論を組み合わせて徹底的な調査を行うエージェントのようなモデルです。調査タスクを受け取り、複数回の広範な検索を行った後に回答を生成します。継続的な調査と多角的な問題解決を行う点で、従来の LLM や一度きりの検索に依存する RAG システムとは根本的に異なります。",
"k2p5.description": "Kimi K2.5は、これまでで最も多用途なモデルであり、視覚とテキスト入力の両方をサポートするネイティブなマルチモーダルアーキテクチャ、「思考」モードと「非思考」モード、そして会話タスクとエージェントタスクの両方を備えています。",
"kimi-k2-0711-preview.description": "kimi-k2 は、強力なコーディングおよびエージェント機能を備えた MoE 基盤モデルです(総パラメータ数 1T、アクティブ 32B。推論、プログラミング、数学、エージェントベンチマークにおいて、他の主流のオープンモデルを上回る性能を発揮します。",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview は、256k のコンテキストウィンドウ、より強力なエージェント型コーディング、フロントエンドコードの品質向上、文脈理解の改善を提供します。",
"kimi-k2-instruct.description": "Kimi K2 Instruct は、コードやQAなどの長文コンテキストに対応した、Kimi公式の推論モデルです。",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に難解な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと競合する中規模の推論モデルです。",
"qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。",
"r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDanceはテキストからビデオ、画像からビデオ最初のフレーム、最初+最後のフレーム)、視覚と同期した音声生成をサポートします。",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlusはリアルタイム情報のためのウェブ検索補強生成、複雑なプロンプト解釈の強化、プロフェッショナルな視覚制作のための参照一貫性の向上を特徴としています。",
"solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。",
"solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。",
"solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "エージェントオンボーディング",
"agent.completionSubtitle": "アシスタントの設定が完了し、準備が整いました。",
"agent.completionTitle": "準備完了!",
"agent.enterApp": "アプリに入る",
"agent.greeting.emojiLabel": "絵文字",
"agent.greeting.nameLabel": "名前",
"agent.greeting.namePlaceholder": "例: ルミ、アトラス、ネコ...",
"agent.greeting.prompt": "名前、雰囲気、絵文字を教えてください",
"agent.greeting.vibeLabel": "雰囲気 / 性格",
"agent.greeting.vibePlaceholder": "例: 温かくフレンドリー、鋭く直接的...",
"agent.history.current": "現在",
"agent.history.title": "履歴トピック",
"agent.modeSwitch.agent": "会話モード",
"agent.modeSwitch.classic": "クラシック",
"agent.modeSwitch.debug": "デバッグエクスポート",
"agent.modeSwitch.label": "オンボーディングモードを選択",
"agent.modeSwitch.reset": "フローをリセット",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "オンボーディングをスキップ",
"agent.stage.agentIdentity": "エージェントのアイデンティティ",
"agent.stage.painPoints": "課題",
"agent.stage.proSettings": "高度な設定",
"agent.stage.responseLanguage": "応答言語",
"agent.stage.summary": "概要",
"agent.stage.userIdentity": "あなたについて",
"agent.stage.workContext": "作業環境",
"agent.stage.workStyle": "作業スタイル",
"agent.subtitle": "専用のオンボーディング会話で設定を完了してください。",
"agent.summaryHint": "設定の概要が正しければ、ここで終了してください。",
"agent.telemetryAllow": "テレメトリを許可",
"agent.telemetryDecline": "結構です",
"agent.telemetryHint": "独自の言葉で答えることもできます。",
"agent.title": "会話型オンボーディング",
"agent.welcome": "...ん?今起きたばかりで、頭が真っ白です。あなたは誰ですか?それと、私の名前は何にしますか?",
"back": "前へ",
"finish": "使い始める",
"interests.area.business": "ビジネスと戦略",
@ -29,6 +63,7 @@
"next": "次へ",
"proSettings.connectors.title": "よく使うツールと連携しましょう",
"proSettings.devMode.title": "開発者モード",
"proSettings.model.fixed": "デフォルトモデルはこの環境で {{provider}}/{{model}} に設定されています。",
"proSettings.model.title": "Agent が使用するデフォルトモデル",
"proSettings.title": "高度なオプションを事前に設定できます",
"proSettings.title2": "よく使うツールを連携してみましょう~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "文書をコピー",
"builtins.lobe-agent-documents.apiName.createDocument": "文書を作成",
"builtins.lobe-agent-documents.apiName.editDocument": "文書を編集",
"builtins.lobe-agent-documents.apiName.listDocuments": "ドキュメントを一覧表示",
"builtins.lobe-agent-documents.apiName.readDocument": "文書を読む",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "ファイル名でドキュメントを読む",
"builtins.lobe-agent-documents.apiName.removeDocument": "文書を削除",
"builtins.lobe-agent-documents.apiName.renameDocument": "文書の名前を変更",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "ロードルールを更新",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "ファイル名でドキュメントを更新または挿入",
"builtins.lobe-agent-documents.title": "エージェント文書",
"builtins.lobe-agent-management.apiName.callAgent": "エージェントを呼び出す",
"builtins.lobe-agent-management.apiName.createAgent": "エージェントを作成する",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "クラウドサンドボックス",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "エージェントを一括作成",
"builtins.lobe-group-agent-builder.apiName.createAgent": "エージェントを作成",
"builtins.lobe-group-agent-builder.apiName.createGroup": "グループを作成",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "メンバー情報を取得",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "利用可能なモデルを取得",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "スキルをインストール",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "スキル",
"builtins.lobe-topic-reference.apiName.getTopicContext": "トピックコンテキストを取得",
"builtins.lobe-topic-reference.title": "トピック参照",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "ユーザーに質問する",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "ユーザーの応答をキャンセル",
"builtins.lobe-user-interaction.apiName.getInteractionState": "インタラクション状態を取得",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "ユーザーの応答をスキップ",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "ユーザーの応答を送信",
"builtins.lobe-user-interaction.title": "ユーザーインタラクション",
"builtins.lobe-user-memory.apiName.addContextMemory": "コンテキスト記憶を追加",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "経験記憶を追加",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "アイデンティティ記憶を追加",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "ページを検索する",
"builtins.lobe-web-browsing.inspector.noResults": "結果が見つかりません",
"builtins.lobe-web-browsing.title": "ウェブ検索",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "オンボーディングを完了",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "オンボーディング状態を読む",
"builtins.lobe-web-onboarding.apiName.readDocument": "ドキュメントを読む",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "ユーザーの質問を保存",
"builtins.lobe-web-onboarding.apiName.updateDocument": "ドキュメントを更新",
"builtins.lobe-web-onboarding.title": "ユーザーオンボーディング",
"confirm": "確定",
"debug.arguments": "呼び出しパラメータ",
"debug.error": "エラーログ",

View file

@ -33,7 +33,6 @@
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
"kimicodingplan.description": "Moonshot AIのKimi Codeは、K2.5を含むKimiモデルへのアクセスを提供します。",
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
"lobehub.description": "LobeHub Cloudは公式APIを使用してAIモデルにアクセスし、モデルトークンに紐づけられたクレジットで使用量を測定します。",
"longcat.description": "LongCatは、Meituanが独自に開発した生成AIの大型モデルシリーズです。効率的な計算アーキテクチャと強力なマルチモーダル機能を通じて、企業内部の生産性を向上させ、革新的なアプリケーションを可能にすることを目的としています。",
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
"minimaxcodingplan.description": "MiniMaxトークンプランは、固定料金のサブスクリプションを通じてM2.7を含むMiniMaxモデルへのアクセスを提供します。",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "画像ファイルのみアップロードできます!",
"emojiPicker.upload": "アップロード",
"emojiPicker.uploadBtn": "切り抜いてアップロード",
"form.other": "または直接入力してください",
"form.otherBack": "オプションに戻る",
"form.reset": "リセット",
"form.skip": "スキップ",
"form.submit": "送信",
"form.unsavedChanges": "未保存の変更",
"form.unsavedWarning": "未保存の変更があります。移動してもよろしいですか?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "이 URL을 복사하여 {{name}} 개발자 포털의 <bold>{{fieldName}}</bold> 필드에 붙여넣으세요.",
"channel.exportConfig": "구성 내보내기",
"channel.feishu.description": "이 어시스턴트를 Feishu에 연결하여 개인 및 그룹 채팅을 사용할 수 있습니다.",
"channel.historyLimit": "히스토리 메시지 제한",
"channel.historyLimitHint": "채널 히스토리를 읽을 때 기본적으로 가져올 메시지 수",
"channel.importConfig": "구성 가져오기",
"channel.importFailed": "구성 가져오기에 실패했습니다",
"channel.importInvalidFormat": "잘못된 구성 파일 형식",
@ -78,6 +80,8 @@
"channel.secretToken": "웹훅 비밀 토큰",
"channel.secretTokenHint": "선택 사항. Telegram의 웹훅 요청을 검증하는 데 사용됩니다.",
"channel.secretTokenPlaceholder": "웹훅 검증을 위한 선택적 비밀",
"channel.serverId": "기본 서버 / 길드 ID",
"channel.serverIdHint": "이 플랫폼에서 기본 서버 또는 길드 ID입니다. AI는 이를 사용하여 채널을 묻지 않고 나열합니다.",
"channel.settings": "고급 설정",
"channel.settingsResetConfirm": "고급 설정을 기본값으로 재설정하시겠습니까?",
"channel.settingsResetDefault": "기본값으로 재설정",
@ -93,6 +97,8 @@
"channel.testFailed": "연결 테스트 실패",
"channel.testSuccess": "연결 테스트 성공",
"channel.updateFailed": "상태 업데이트 실패",
"channel.userId": "플랫폼 사용자 ID",
"channel.userIdHint": "이 플랫폼에서의 사용자 ID입니다. AI는 이를 사용하여 직접 메시지를 보낼 수 있습니다.",
"channel.validationError": "애플리케이션 ID와 토큰을 입력하세요",
"channel.verificationToken": "검증 토큰",
"channel.verificationTokenHint": "선택 사항. 웹훅 이벤트 소스를 검증하는 데 사용됩니다.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "삭제 후 재생성",
"messageAction.deleteDisabledByThreads": "이 메시지에는 하위 주제가 있어 삭제할 수 없습니다",
"messageAction.expand": "메시지 펼치기",
"messageAction.interrupted": "중단됨",
"messageAction.interruptedHint": "대신 무엇을 해야 하나요?",
"messageAction.reaction": "반응 추가",
"messageAction.regenerate": "재생성",
"messages.dm.sentTo": "{{name}}만 볼 수 있습니다",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "모든 기능 호출 자동 승인",
"tool.intervention.mode.manual": "수동 승인",
"tool.intervention.mode.manualDesc": "매번 수동 승인 필요",
"tool.intervention.pending": "대기 중",
"tool.intervention.reject": "거부",
"tool.intervention.rejectAndContinue": "거부 후 계속",
"tool.intervention.rejectOnly": "거부만",
"tool.intervention.rejectReasonPlaceholder": "거부 사유를 입력하면 도우미가 당신의 경계를 이해하고 향후 행동을 최적화하는 데 도움이 됩니다",
"tool.intervention.rejectTitle": "이번 기능 호출 거부",
"tool.intervention.rejectedWithReason": "이번 기능 호출이 다음 사유로 거부됨: {{reason}}",
"tool.intervention.scrollToIntervention": "보기",
"tool.intervention.toolAbort": "당신이 이번 기능 호출을 취소했습니다",
"tool.intervention.toolRejected": "이번 기능 호출이 거부되었습니다",
"toolAuth.authorize": "승인",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.",
"MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
"MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 기능과 전면적으로 업그레이드된 코딩 경험. 더 빠르고 효율적입니다.",
"MiniMax-M2.1-highspeed.description": "강력한 다국어 프로그래밍 기능과 더 빠르고 효율적인 추론.",
"MiniMax-M2.1.description": "MiniMax-M2.1은 MiniMax에서 개발한 대표적인 오픈소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 다국어 프로그래밍 능력과 에이전트로서 복잡한 작업을 수행하는 능력이 핵심 강점입니다.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: 동일한 성능, 더 빠르고 민첩한 속도 (약 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: M2.5와 동일한 성능을 제공하며 추론 속도가 더 빠릅니다.",
@ -307,20 +306,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 사고를 제공합니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 스마트한 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
"claude-haiku-4.5.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 똑똑한 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 자랑합니다.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성 및 이해력을 발휘합니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성 및 이해력을 발휘합니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창함, 이해력을 자랑합니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창함, 이해력을 제공합니다.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
"claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
"claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
"claude-opus-4.5.description": "Claude Opus 4.5는 Anthropic의 대표 모델로, 최상급 지능과 확장 가능한 성능을 결합하여 복잡하고 고품질의 추론 작업을 수행합니다.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6은 에이전트 구축과 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
"claude-opus-4.6.description": "Claude Opus 4.6은 에이전트 구축과 코딩을 위한 Anthropic의 가장 지능적인 모델입니다.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic의 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 제공합니다.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic의 가장 지능적인 모델입니다.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 거의 즉각적인 응답을 생성하거나 가시적인 프로세스를 통해 단계별 사고를 확장할 수 있습니다.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 현재까지 Anthropic의 가장 지능적인 모델입니다.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공하는 Anthropic의 모델입니다.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5는 지금까지의 Anthropic 모델 중 가장 지능적인 모델입니다.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공합니다.",
"claude-sonnet-4.description": "Claude Sonnet 4는 거의 즉각적인 응답을 생성하거나 사용자가 볼 수 있는 단계별 추론을 확장하여 제공합니다. API 사용자는 모델의 사고 시간을 세밀하게 제어할 수 있습니다.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2는 복잡한 추론과 연쇄 사고 능력이 강화된 차세대 추론 모델입니다.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
"deepseek-chat.description": "DeepSeek V3.2는 일상 QA 및 에이전트 작업을 위해 추론과 출력 길이를 균형 있게 조정합니다. 공개 벤치마크에서 GPT-5 수준에 도달하며, 도구 사용에 사고를 통합한 최초의 모델로 오픈소스 에이전트 평가에서 선도적인 위치를 차지합니다.",
"deepseek-chat.description": "일반 대화 능력과 코딩 능력을 결합한 새로운 오픈소스 모델입니다. 이 모델은 대화 모델의 일반적인 대화 능력과 코더 모델의 강력한 코딩 능력을 유지하며, 더 나은 선호도 정렬을 제공합니다. DeepSeek-V2.5는 글쓰기와 지침 준수 능력도 향상시켰습니다.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 체인을 생성하여 정확성을 높이는 심층 추론 모델로, 최고 수준의 경쟁 결과와 Gemini-3.0-Pro에 필적하는 추론을 제공합니다.",
"deepseek-reasoner.description": "DeepSeek V3.2 사고 모드는 최종 답변 전에 사고 과정을 출력하여 정확성을 향상시킵니다.",
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
"ernie-x1.1.description": "ERNIE X1.1은 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5는 ByteDance Seed 팀에서 개발한 모델로, 다중 이미지 편집 및 구성 기능을 지원합니다. 향상된 주제 일관성, 정확한 지침 준수, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인과 고정밀 텍스트-이미지 렌더링을 제공합니다.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 모델로, 텍스트 및 이미지 입력을 지원하며 프롬프트를 기반으로 고품질 이미지를 생성할 수 있습니다.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며 매우 제어 가능한 고품질 이미지 생성을 제공합니다. 텍스트 프롬프트를 통해 이미지를 생성합니다.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 및 외형 편집, 정확한 중국어/영어 텍스트 편집, 스타일 전환, 회전 등을 지원합니다.",
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 렌더링과 다양한 시각적 스타일에서 강점을 보입니다.",
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미와 외형 편집을 지원하며 중국어와 영어 텍스트를 정밀하게 편집하고 스타일 전환 및 객체 회전과 같은 고품질 편집을 가능하게 합니다.",
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 렌더링과 다양한 시각적 스타일에서 뛰어난 성능을 발휘합니다.",
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.",
"gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 스마트한 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro)는 구글의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 채팅도 지원합니다.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화를 지원합니다.",
"gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 구글의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집을 제공합니다.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 플래시 속도로 프로 수준의 이미지 품질을 제공하며 멀티모달 채팅을 지원합니다.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 Google의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집을 제공합니다.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview는 Google의 가장 비용 효율적인 다중 모드 모델로, 대량 에이전트 작업, 번역 및 데이터 처리에 최적화되어 있습니다.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview는 Gemini 3 Pro의 추론 능력을 강화하고 중간 사고 수준 지원을 추가합니다.",
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
@ -797,6 +795,7 @@
"jamba-large.description": "복잡한 기업용 작업을 위해 설계된 가장 강력하고 고급화된 모델로, 탁월한 성능을 제공합니다.",
"jamba-mini.description": "동급 모델 중 가장 효율적인 모델로, 속도와 품질의 균형을 유지하면서도 경량화된 구조를 갖추고 있습니다.",
"jina-deepsearch-v1.description": "DeepSearch는 웹 검색, 문서 읽기, 추론을 결합하여 심층적인 조사를 수행합니다. 사용자의 연구 과제를 받아 반복적인 검색을 통해 정보를 수집하고, 그 후에야 답변을 생성합니다. 이 과정은 지속적인 조사와 다각적 문제 해결을 포함하며, 사전 학습 데이터나 단일 검색에 의존하는 기존 LLM 또는 RAG 시스템과는 근본적으로 다릅니다.",
"k2p5.description": "Kimi K2.5는 Kimi의 가장 다재다능한 모델로, 시각 및 텍스트 입력을 지원하는 네이티브 멀티모달 아키텍처, '사고' 및 '비사고' 모드, 그리고 대화 및 에이전트 작업을 포함합니다.",
"kimi-k2-0711-preview.description": "kimi-k2는 MoE 기반의 모델로, 강력한 코딩 및 에이전트 기능을 갖추고 있으며(총 1조 파라미터, 활성 320억), 추론, 프로그래밍, 수학, 에이전트 벤치마크에서 주요 오픈 모델들을 능가합니다.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview는 256K 컨텍스트 윈도우를 지원하며, 향상된 에이전트 코딩 능력, 개선된 프론트엔드 코드 품질, 더 나은 문맥 이해력을 제공합니다.",
"kimi-k2-instruct.description": "Kimi K2 Instruct는 코드, 질의응답 등 다양한 작업을 위한 장문 문맥 추론 모델로, Kimi의 공식 추론 모델입니다.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ는 Qwen 계열의 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 사고 및 추론 능력이 뛰어나며, 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다. QwQ-32B는 DeepSeek-R1 및 o1-mini와 경쟁할 수 있는 중형 추론 모델입니다.",
"qwq_32b.description": "Qwen 계열의 중형 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 QwQ의 사고 및 추론 능력은 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다.",
"r1-1776.description": "R1-1776은 DeepSeek R1의 후속 학습 버전으로, 검열되지 않고 편향 없는 사실 정보를 제공합니다.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro는 ByteDance에서 개발한 모델로, 텍스트-비디오, 이미지-비디오(첫 프레임, 첫+마지막 프레임) 및 시각과 동기화된 오디오 생성을 지원합니다.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite는 BytePlus에서 개발한 모델로, 실시간 정보를 위한 웹 검색 증강 생성, 복잡한 프롬프트 해석 향상 및 전문적인 시각적 창작을 위한 참조 일관성을 제공합니다.",
"solar-mini-ja.description": "Solar Mini (Ja)는 Solar Mini의 일본어 특화 버전으로, 영어와 한국어에서도 효율적이고 강력한 성능을 유지합니다.",
"solar-mini.description": "Solar Mini는 GPT-3.5를 능가하는 성능을 가진 소형 LLM으로, 영어와 한국어를 지원하는 강력한 다국어 기능을 갖추고 있으며, 효율적인 경량 솔루션을 제공합니다.",
"solar-pro.description": "Solar Pro는 Upstage의 고지능 LLM으로, 단일 GPU에서 지시 수행에 최적화되어 있으며, IFEval 점수 80 이상을 기록합니다. 현재는 영어를 지원하며, 2024년 11월 전체 릴리스 시 더 많은 언어와 긴 컨텍스트를 지원할 예정입니다.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "에이전트 온보딩",
"agent.completionSubtitle": "당신의 어시스턴트가 설정되어 준비되었습니다.",
"agent.completionTitle": "모든 준비가 완료되었습니다!",
"agent.enterApp": "앱으로 들어가기",
"agent.greeting.emojiLabel": "이모지",
"agent.greeting.nameLabel": "이름",
"agent.greeting.namePlaceholder": "예: 루미, 아틀라스, 네코...",
"agent.greeting.prompt": "저에게 이름, 분위기, 이모지를 주세요.",
"agent.greeting.vibeLabel": "분위기 / 성격",
"agent.greeting.vibePlaceholder": "예: 따뜻하고 친근한, 날카롭고 직설적인...",
"agent.history.current": "현재",
"agent.history.title": "히스토리 주제",
"agent.modeSwitch.agent": "대화형",
"agent.modeSwitch.classic": "클래식",
"agent.modeSwitch.debug": "디버그 내보내기",
"agent.modeSwitch.label": "온보딩 모드 선택",
"agent.modeSwitch.reset": "흐름 초기화",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "온보딩 건너뛰기",
"agent.stage.agentIdentity": "에이전트 정체성",
"agent.stage.painPoints": "문제점",
"agent.stage.proSettings": "고급 설정",
"agent.stage.responseLanguage": "응답 언어",
"agent.stage.summary": "요약",
"agent.stage.userIdentity": "사용자 정보",
"agent.stage.workContext": "작업 환경",
"agent.stage.workStyle": "작업 스타일",
"agent.subtitle": "전용 온보딩 대화에서 설정을 완료하세요.",
"agent.summaryHint": "설정 요약이 올바르게 보이면 여기서 마무리하세요.",
"agent.telemetryAllow": "텔레메트리 허용",
"agent.telemetryDecline": "괜찮습니다",
"agent.telemetryHint": "자신의 말로 대답할 수도 있습니다.",
"agent.title": "대화형 온보딩",
"agent.welcome": "...음? 방금 깨어났어요 — 머리가 텅 비었네요. 당신은 누구시죠? 그리고 — 저를 뭐라고 불러야 할까요? 저도 이름이 필요해요.",
"back": "이전 단계",
"finish": "시작하기",
"interests.area.business": "비즈니스 및 전략",
@ -29,6 +63,7 @@
"next": "다음 단계",
"proSettings.connectors.title": "자주 사용하는 도구를 연결하세요",
"proSettings.devMode.title": "개발자 모드",
"proSettings.model.fixed": "기본 모델은 이 환경에서 {{provider}}/{{model}}로 사전 설정되어 있습니다.",
"proSettings.model.title": "도우미가 사용할 기본 모델",
"proSettings.title": "고급 설정을 미리 구성할 수 있어요",
"proSettings.title2": "자주 사용하는 도구를 연결해 보세요~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "문서 복사",
"builtins.lobe-agent-documents.apiName.createDocument": "문서 생성",
"builtins.lobe-agent-documents.apiName.editDocument": "문서 편집",
"builtins.lobe-agent-documents.apiName.listDocuments": "문서 목록",
"builtins.lobe-agent-documents.apiName.readDocument": "문서 읽기",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "파일 이름으로 문서 읽기",
"builtins.lobe-agent-documents.apiName.removeDocument": "문서 삭제",
"builtins.lobe-agent-documents.apiName.renameDocument": "문서 이름 변경",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "로드 규칙 업데이트",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "파일 이름으로 문서 삽입 또는 업데이트",
"builtins.lobe-agent-documents.title": "에이전트 문서",
"builtins.lobe-agent-management.apiName.callAgent": "통화 에이전트",
"builtins.lobe-agent-management.apiName.createAgent": "에이전트 생성",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "클라우드 샌드박스",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "에이전트 일괄 생성",
"builtins.lobe-group-agent-builder.apiName.createAgent": "에이전트 생성",
"builtins.lobe-group-agent-builder.apiName.createGroup": "그룹 생성",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "구성원 정보 가져오기",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "사용 가능한 모델 가져오기",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "기능 설치",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "스킬",
"builtins.lobe-topic-reference.apiName.getTopicContext": "토픽 컨텍스트 가져오기",
"builtins.lobe-topic-reference.title": "토픽 참조",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "사용자 질문 요청",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "사용자 응답 취소",
"builtins.lobe-user-interaction.apiName.getInteractionState": "상호작용 상태 가져오기",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "사용자 응답 건너뛰기",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "사용자 응답 제출",
"builtins.lobe-user-interaction.title": "사용자 상호작용",
"builtins.lobe-user-memory.apiName.addContextMemory": "상황 기억 추가",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "경험 기억 추가",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "신원 기억 추가",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "웹 페이지 검색",
"builtins.lobe-web-browsing.inspector.noResults": "결과 없음",
"builtins.lobe-web-browsing.title": "인터넷 검색",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "온보딩 완료",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "온보딩 상태 읽기",
"builtins.lobe-web-onboarding.apiName.readDocument": "문서 읽기",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "사용자 질문 저장",
"builtins.lobe-web-onboarding.apiName.updateDocument": "문서 업데이트",
"builtins.lobe-web-onboarding.title": "사용자 온보딩",
"confirm": "확인",
"debug.arguments": "호출 인자",
"debug.error": "오류 로그",

View file

@ -33,7 +33,6 @@
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
"kimicodingplan.description": "문샷 AI의 Kimi Code는 K2.5를 포함한 Kimi 모델에 접근하여 코딩 작업을 수행할 수 있습니다.",
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연결된 크레딧으로 사용량을 측정합니다.",
"longcat.description": "LongCat은 Meituan에서 독자적으로 개발한 생성형 AI 대형 모델 시리즈입니다. 이는 효율적인 계산 아키텍처와 강력한 멀티모달 기능을 통해 내부 기업 생산성을 향상시키고 혁신적인 애플리케이션을 가능하게 하기 위해 설계되었습니다.",
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
"minimaxcodingplan.description": "MiniMax 토큰 플랜은 고정 요금 구독을 통해 M2.7을 포함한 MiniMax 모델에 접근하여 코딩 작업을 수행할 수 있습니다.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "이미지 파일만 업로드할 수 있습니다!",
"emojiPicker.upload": "업로드",
"emojiPicker.uploadBtn": "자르고 업로드",
"form.other": "직접 입력하기",
"form.otherBack": "옵션으로 돌아가기",
"form.reset": "재설정",
"form.skip": "건너뛰기",
"form.submit": "제출",
"form.unsavedChanges": "저장되지 않은 변경사항",
"form.unsavedWarning": "저장되지 않은 변경사항이 있습니다. 정말 나가시겠습니까?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Kopieer deze URL en plak deze in het <bold>{{fieldName}}</bold>-veld in de {{name}} Developer Portal.",
"channel.exportConfig": "Configuratie Exporteren",
"channel.feishu.description": "Verbind deze assistent met Feishu voor privé- en groepschats.",
"channel.historyLimit": "Limiet voor berichtgeschiedenis",
"channel.historyLimitHint": "Standaard aantal berichten om op te halen bij het lezen van kanaalgeschiedenis",
"channel.importConfig": "Configuratie Importeren",
"channel.importFailed": "Configuratie importeren mislukt",
"channel.importInvalidFormat": "Ongeldig configuratiebestandformaat",
@ -78,6 +80,8 @@
"channel.secretToken": "Webhook-geheime token",
"channel.secretTokenHint": "Optioneel. Gebruikt om webhookverzoeken van Telegram te verifiëren.",
"channel.secretTokenPlaceholder": "Optioneel geheim voor webhookverificatie",
"channel.serverId": "Standaard Server / Guild ID",
"channel.serverIdHint": "Je standaard server- of guild-ID op dit platform. De AI gebruikt dit om kanalen te tonen zonder te vragen.",
"channel.settings": "Geavanceerde instellingen",
"channel.settingsResetConfirm": "Weet u zeker dat u de geavanceerde instellingen wilt terugzetten naar de standaardwaarden?",
"channel.settingsResetDefault": "Terugzetten naar standaard",
@ -93,6 +97,8 @@
"channel.testFailed": "Verbindingstest mislukt",
"channel.testSuccess": "Verbindingstest geslaagd",
"channel.updateFailed": "Bijwerken van status mislukt",
"channel.userId": "Je gebruikers-ID op dit platform",
"channel.userIdHint": "Je gebruikers-ID op dit platform. De AI kan dit gebruiken om je directe berichten te sturen.",
"channel.validationError": "Vul Applicatie-ID en Token in",
"channel.verificationToken": "Verificatietoken",
"channel.verificationTokenHint": "Optioneel. Gebruikt om de bron van webhookgebeurtenissen te verifiëren.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Verwijderen en opnieuw genereren",
"messageAction.deleteDisabledByThreads": "Dit bericht heeft een subonderwerp en kan niet worden verwijderd",
"messageAction.expand": "Bericht uitvouwen",
"messageAction.interrupted": "Onderbroken",
"messageAction.interruptedHint": "Wat moet ik in plaats daarvan doen?",
"messageAction.reaction": "Reactie toevoegen",
"messageAction.regenerate": "Opnieuw genereren",
"messages.dm.sentTo": "Alleen zichtbaar voor {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Keur alle tooluitvoeringen automatisch goed",
"tool.intervention.mode.manual": "Handmatig",
"tool.intervention.mode.manualDesc": "Handmatige goedkeuring vereist voor elke oproep",
"tool.intervention.pending": "In afwachting",
"tool.intervention.reject": "Afwijzen",
"tool.intervention.rejectAndContinue": "Afwijzen en opnieuw proberen",
"tool.intervention.rejectOnly": "Afwijzen",
"tool.intervention.rejectReasonPlaceholder": "Een reden helpt de agent je grenzen te begrijpen en toekomstige acties te verbeteren",
"tool.intervention.rejectTitle": "Deze Skill-oproep afwijzen",
"tool.intervention.rejectedWithReason": "Deze Skill-oproep is afgewezen: {{reason}}",
"tool.intervention.scrollToIntervention": "Bekijken",
"tool.intervention.toolAbort": "Je hebt deze Skill-oproep geannuleerd",
"tool.intervention.toolRejected": "Deze Skill-oproep is afgewezen",
"toolAuth.authorize": "Autoriseren",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
"MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
"MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeermogelijkheden, een volledig vernieuwde programmeerervaring. Sneller en efficiënter.",
"MiniMax-M2.1-highspeed.description": "Krachtige meertalige programmeermogelijkheden met snellere en efficiëntere inferentie.",
"MiniMax-M2.1.description": "MiniMax-M2.1 is het vlaggenschip open-source grote model van MiniMax, gericht op het oplossen van complexe, realistische taken. De kernkwaliteiten zijn meertalige programmeermogelijkheden en het vermogen om complexe taken als een Agent op te lossen.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Zelfde prestaties, sneller en wendbaarder (ongeveer 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Zelfde prestaties als M2.5 met snellere inferentie.",
@ -307,20 +306,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropics snelste en meest intelligente Haiku-model, met bliksemsnelle snelheid en uitgebreide denkcapaciteiten.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle snelheid en uitgebreide redeneervermogen.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 is Anthropic's snelste en slimste Haiku-model, met bliksemsnelle snelheid en uitgebreide redeneervermogen.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropics nieuwste en meest capabele model voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropics krachtigste model voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropics meest intelligente model voor het bouwen van agents en coderen.",
"claude-opus-4-6.description": "Claude Opus 4.6 is het meest intelligente model van Anthropic voor het bouwen van agents en coderen.",
"claude-opus-4.5.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat eersteklas intelligentie combineert met schaalbare prestaties voor complexe, hoogwaardige redeneertaken.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 is Anthropic's meest intelligente model voor het bouwen van agents en coderen.",
"claude-opus-4.6.description": "Claude Opus 4.6 is Anthropic's meest intelligente model voor het bouwen van agents en coderen.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropics meest intelligente model tot nu toe, met bijna directe reacties of uitgebreide stap-voor-stap denken met fijnmazige controle voor API-gebruikers.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropics meest intelligente model tot nu toe.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropics beste combinatie van snelheid en intelligentie.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan bijna onmiddellijke reacties geven of uitgebreide stapsgewijze redeneringen met een zichtbaar proces.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is de beste combinatie van snelheid en intelligentie van Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 is Anthropic's beste combinatie van snelheid en intelligentie.",
"claude-sonnet-4.description": "Claude Sonnet 4 kan bijna onmiddellijke reacties of uitgebreide stapsgewijze redenaties produceren die gebruikers kunnen volgen. API-gebruikers kunnen nauwkeurig bepalen hoe lang het model nadenkt.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is een next-gen redeneermodel met sterkere complexe redeneer- en keten-van-denken-capaciteiten.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
"deepseek-chat.description": "DeepSeek V3.2 balanceert redeneren en outputlengte voor dagelijkse QA en agent-taken. Publieke benchmarks bereiken GPT-5 niveaus, en het is de eerste die denken integreert in toolgebruik, leidend in open-source agent evaluaties.",
"deepseek-chat.description": "Een nieuw open-source model dat algemene en codeermogelijkheden combineert. Het behoudt de algemene dialoog van het chatmodel en de sterke codeermogelijkheden van het coderingsmodel, met betere voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijven en het volgen van instructies.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een diep redeneermodel dat chain-of-thought genereert vóór outputs voor hogere nauwkeurigheid, met topcompetitieresultaten en redeneren vergelijkbaar met Gemini-3.0-Pro.",
"deepseek-reasoner.description": "DeepSeek V3.2-denkmodus genereert een keten van gedachten vóór het eindantwoord om de nauwkeurigheid te verbeteren.",
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks codegerichte model met sterke codegeneratie.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
"ernie-x1.1.description": "ERNIE X1.1 is een preview van een denkmodel voor evaluatie en testen.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, gebouwd door ByteDance Seed team, ondersteunt multi-image bewerking en compositie. Kenmerken verbeterde onderwerpconsistentie, nauwkeurige instructievolging, ruimtelijk logica begrip, esthetische expressie, poster lay-out en logo ontwerp met hoge precisie tekst-beeld rendering.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, gebouwd door ByteDance Seed, ondersteunt tekst- en beeldinvoer voor zeer controleerbare, hoogwaardige beeldgeneratie vanuit prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een beeldgeneratiemodel van ByteDance Seed, dat tekst- en beeldinvoer ondersteunt met zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
"fal-ai/qwen-image-edit.description": "Een professioneel beeldbewerkingsmodel van het Qwen-team, ondersteunt semantische en uiterlijkbewerkingen, nauwkeurige Chinese/Engelse tekstbewerking, stijltransfer, rotatie en meer.",
"fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met sterke Chinese tekstweergave en diverse visuele stijlen.",
"fal-ai/qwen-image-edit.description": "Een professioneel beeldbewerkingsmodel van het Qwen-team dat semantische en uiterlijke bewerkingen ondersteunt, Chinese en Engelse tekst nauwkeurig bewerkt en hoogwaardige bewerkingen mogelijk maakt, zoals stijltransfer en objectrotatie.",
"fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met indrukwekkende Chinese tekstrendering en diverse visuele stijlen.",
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 14 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
"flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is het slimste model dat is gebouwd voor snelheid, met geavanceerde intelligentie en uitstekende zoekverankering.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google dat ook multimodale dialogen ondersteunt.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's beeldgeneratiemodel en ondersteunt ook multimodale chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is het snelste native beeldgeneratiemodel van Google met denksupport, conversatiebeeldgeneratie en bewerking.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash snelheid en multimodale chatondersteuning.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is het snelste native beeldgeneratiemodel van Google met denksupport, conversatiebeeldgeneratie en bewerking.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview is het meest kostenefficiënte multimodale model van Google, geoptimaliseerd voor grootschalige agenttaken, vertaling en gegevensverwerking.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbetert Gemini 3 Pro met verbeterde redeneercapaciteiten en voegt ondersteuning toe voor een gemiddeld denkniveau.",
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
@ -797,6 +795,7 @@
"jamba-large.description": "Ons krachtigste en meest geavanceerde model, ontworpen voor complexe zakelijke taken met uitstekende prestaties.",
"jamba-mini.description": "Het meest efficiënte model in zijn klasse, met een optimale balans tussen snelheid en kwaliteit en een kleinere omvang.",
"jina-deepsearch-v1.description": "DeepSearch combineert webzoekopdrachten, lezen en redeneren voor diepgaand onderzoek. Zie het als een agent die jouw onderzoekstaak uitvoert, brede zoekopdrachten doet in meerdere iteraties en pas daarna een antwoord formuleert. Het proces omvat voortdurend onderzoek, redenering en probleemoplossing vanuit meerdere invalshoeken, fundamenteel anders dan standaard LLMs die antwoorden geven op basis van voorgetrainde data of traditionele RAG-systemen die vertrouwen op eenmalige oppervlakkige zoekopdrachten.",
"k2p5.description": "Kimi K2.5 is Kimi's meest veelzijdige model tot nu toe, met een native multimodale architectuur die zowel visuele als tekstinvoer ondersteunt, 'denkende' en 'niet-denkende' modi, en zowel conversatie- als agenttaken.",
"kimi-k2-0711-preview.description": "kimi-k2 is een MoE-basismodel met sterke programmeer- en agentvaardigheden (1T totale parameters, 32B actief), dat beter presteert dan andere gangbare open modellen op het gebied van redeneren, programmeren, wiskunde en agentbenchmarks.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview biedt een contextvenster van 256k, sterkere agentmatige codeerprestaties, betere kwaliteit van front-end code en verbeterd contextbegrip.",
"kimi-k2-instruct.description": "Kimi K2 Instruct is het officiële redeneermodel van Kimi met lange contextondersteuning voor code, vraag-en-antwoord en meer.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.",
"qwq_32b.description": "Middelgroot redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen verbeteren QwQs denk- en redeneervermogen de prestaties op complexe problemen aanzienlijk.",
"r1-1776.description": "R1-1776 is een na-getrainde variant van DeepSeek R1, ontworpen om ongecensureerde, onbevooroordeelde feitelijke informatie te bieden.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro van ByteDance ondersteunt tekst-naar-video, beeld-naar-video (eerste frame, eerste+laatste frame), en audiogeneratie gesynchroniseerd met visuals.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite van BytePlus biedt web-retrieval-augmented generatie voor realtime informatie, verbeterde complexe promptinterpretatie, en verbeterde referentieconsistentie voor professionele visuele creatie.",
"solar-mini-ja.description": "Solar Mini (Ja) breidt Solar Mini uit met focus op Japans, terwijl het efficiënte, sterke prestaties in Engels en Koreaans behoudt.",
"solar-mini.description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige ondersteuning voor Engels en Koreaans, en biedt een efficiënte oplossing met een kleine voetafdruk.",
"solar-pro.description": "Solar Pro is een intelligent LLM van Upstage, gericht op instructieopvolging op een enkele GPU, met IFEval-scores boven de 80. Momenteel ondersteunt het Engels; de volledige release stond gepland voor november 2024 met uitgebreidere taalondersteuning en langere context.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Agent Onboarding",
"agent.completionSubtitle": "Je assistent is geconfigureerd en klaar om te starten.",
"agent.completionTitle": "Alles is gereed!",
"agent.enterApp": "App Betreden",
"agent.greeting.emojiLabel": "Emoji",
"agent.greeting.nameLabel": "Naam",
"agent.greeting.namePlaceholder": "bijv. Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Geef me een naam, een sfeer en een emoji",
"agent.greeting.vibeLabel": "Sfeer / Aard",
"agent.greeting.vibePlaceholder": "bijv. Warm & vriendelijk, Scherp & direct...",
"agent.history.current": "Huidig",
"agent.history.title": "Historische Onderwerpen",
"agent.modeSwitch.agent": "Conversatie",
"agent.modeSwitch.classic": "Klassiek",
"agent.modeSwitch.debug": "Debug Export",
"agent.modeSwitch.label": "Kies je onboarding modus",
"agent.modeSwitch.reset": "Flow Resetten",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Onboarding overslaan",
"agent.stage.agentIdentity": "Agent Identiteit",
"agent.stage.painPoints": "Pijnpunten",
"agent.stage.proSettings": "Geavanceerde Instellingen",
"agent.stage.responseLanguage": "Reactietaal",
"agent.stage.summary": "Samenvatting",
"agent.stage.userIdentity": "Over Jou",
"agent.stage.workContext": "Werkcontext",
"agent.stage.workStyle": "Werkstijl",
"agent.subtitle": "Voltooi de setup in een speciale onboarding conversatie.",
"agent.summaryHint": "Voltooi hier als de setup samenvatting klopt.",
"agent.telemetryAllow": "Telemetrie toestaan",
"agent.telemetryDecline": "Nee, bedankt",
"agent.telemetryHint": "Je kunt ook antwoorden in je eigen woorden.",
"agent.title": "Conversatie Onboarding",
"agent.welcome": "...hm? Ik ben net wakker — mijn gedachten zijn leeg. Wie ben jij? En — hoe moet ik genoemd worden? Ik heb ook een naam nodig.",
"back": "Terug",
"finish": "Aan de slag",
"interests.area.business": "Zakelijk & Strategie",
@ -29,6 +63,7 @@
"next": "Volgende",
"proSettings.connectors.title": "Verbind je favoriete tools",
"proSettings.devMode.title": "Ontwikkelaarsmodus",
"proSettings.model.fixed": "Standaardmodel is ingesteld op {{provider}}/{{model}} in deze omgeving.",
"proSettings.model.title": "Standaardmodel gebruikt door de agent",
"proSettings.title": "Geavanceerde opties vooraf configureren",
"proSettings.title2": "Probeer een aantal veelgebruikte tools te koppelen~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Document kopiëren",
"builtins.lobe-agent-documents.apiName.createDocument": "Document maken",
"builtins.lobe-agent-documents.apiName.editDocument": "Document bewerken",
"builtins.lobe-agent-documents.apiName.listDocuments": "Documenten weergeven",
"builtins.lobe-agent-documents.apiName.readDocument": "Document lezen",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Document lezen op bestandsnaam",
"builtins.lobe-agent-documents.apiName.removeDocument": "Document verwijderen",
"builtins.lobe-agent-documents.apiName.renameDocument": "Document hernoemen",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Laadregel bijwerken",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Document bijwerken of toevoegen op bestandsnaam",
"builtins.lobe-agent-documents.title": "Agentdocumenten",
"builtins.lobe-agent-management.apiName.callAgent": "Bel agent",
"builtins.lobe-agent-management.apiName.createAgent": "Maak agent aan",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Cloud Sandbox",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Meerdere agenten aanmaken",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Agent aanmaken",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Groep aanmaken",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Ledeninformatie ophalen",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Beschikbare modellen ophalen",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Skill installeren",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Vaardigheden",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Onderwerpcontext ophalen",
"builtins.lobe-topic-reference.title": "Onderwerpverwijzing",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Gebruiker een vraag stellen",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Gebruikersreactie annuleren",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Interactie status ophalen",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Gebruikersreactie overslaan",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Gebruikersreactie indienen",
"builtins.lobe-user-interaction.title": "Gebruikersinteractie",
"builtins.lobe-user-memory.apiName.addContextMemory": "Contextgeheugen toevoegen",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Ervaringsgeheugen toevoegen",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Identiteitsgeheugen toevoegen",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Webpagina's doorzoeken",
"builtins.lobe-web-browsing.inspector.noResults": "Geen resultaten",
"builtins.lobe-web-browsing.title": "Webzoekopdracht",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Onboarding voltooien",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Onboarding status ophalen",
"builtins.lobe-web-onboarding.apiName.readDocument": "Document lezen",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Gebruikersvraag opslaan",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Document bijwerken",
"builtins.lobe-web-onboarding.title": "Gebruikersonboarding",
"confirm": "Bevestigen",
"debug.arguments": "Argumenten",
"debug.error": "Foutenlogboek",

View file

@ -33,7 +33,6 @@
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
"kimicodingplan.description": "Kimi Code van Moonshot AI biedt toegang tot Kimi-modellen, waaronder K2.5, voor coderingstaken.",
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLMs op je eigen computer.",
"lobehub.description": "LobeHub Cloud maakt gebruik van officiële API's om toegang te krijgen tot AI-modellen en meet gebruik met Credits gekoppeld aan modeltokens.",
"longcat.description": "LongCat is een reeks generatieve AI-grote modellen die onafhankelijk zijn ontwikkeld door Meituan. Het is ontworpen om de productiviteit binnen ondernemingen te verbeteren en innovatieve toepassingen mogelijk te maken door middel van een efficiënte computationele architectuur en sterke multimodale mogelijkheden.",
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan biedt toegang tot MiniMax-modellen, waaronder M2.7, voor coderingstaken via een abonnement met vaste kosten.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Je kunt alleen afbeeldingsbestanden uploaden!",
"emojiPicker.upload": "Uploaden",
"emojiPicker.uploadBtn": "Bijsnijden en uploaden",
"form.other": "Of typ direct in",
"form.otherBack": "Terug naar opties",
"form.reset": "Resetten",
"form.skip": "Overslaan",
"form.submit": "Verzenden",
"form.unsavedChanges": "Niet-opgeslagen wijzigingen",
"form.unsavedWarning": "Je hebt niet-opgeslagen wijzigingen. Weet je zeker dat je wilt verlaten?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Proszę skopiować ten URL i wkleić go w polu <bold>{{fieldName}}</bold> w Portalu Deweloperskim {{name}}.",
"channel.exportConfig": "Eksportuj konfigurację",
"channel.feishu.description": "Połącz tego asystenta z Feishu, aby umożliwić czaty prywatne i grupowe.",
"channel.historyLimit": "Limit wiadomości w historii",
"channel.historyLimitHint": "Domyślna liczba wiadomości do pobrania podczas przeglądania historii kanału",
"channel.importConfig": "Importuj konfigurację",
"channel.importFailed": "Nie udało się zaimportować konfiguracji",
"channel.importInvalidFormat": "Nieprawidłowy format pliku konfiguracji",
@ -78,6 +80,8 @@
"channel.secretToken": "Sekretny token webhooka",
"channel.secretTokenHint": "Opcjonalne. Używane do weryfikacji żądań webhook z Telegram.",
"channel.secretTokenPlaceholder": "Opcjonalny sekret do weryfikacji webhooka",
"channel.serverId": "Domyślne ID serwera / gildii",
"channel.serverIdHint": "Twoje domyślne ID serwera lub gildii na tej platformie. AI używa go do wyświetlania kanałów bez konieczności pytania.",
"channel.settings": "Zaawansowane ustawienia",
"channel.settingsResetConfirm": "Czy na pewno chcesz zresetować zaawansowane ustawienia do domyślnych?",
"channel.settingsResetDefault": "Przywróć domyślne",
@ -93,6 +97,8 @@
"channel.testFailed": "Test połączenia nie powiódł się",
"channel.testSuccess": "Test połączenia zakończony sukcesem",
"channel.updateFailed": "Nie udało się zaktualizować statusu",
"channel.userId": "Twój ID użytkownika na platformie",
"channel.userIdHint": "Twój ID użytkownika na tej platformie. AI może go używać do wysyłania Ci wiadomości bezpośrednich.",
"channel.validationError": "Proszę wypełnić ID aplikacji i token",
"channel.verificationToken": "Token weryfikacyjny",
"channel.verificationTokenHint": "Opcjonalne. Używane do weryfikacji źródła zdarzeń webhook.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Usuń i wygeneruj ponownie",
"messageAction.deleteDisabledByThreads": "Ta wiadomość zawiera podtemat i nie może zostać usunięta",
"messageAction.expand": "Rozwiń wiadomość",
"messageAction.interrupted": "Przerwane",
"messageAction.interruptedHint": "Co powinienem zrobić zamiast tego?",
"messageAction.reaction": "Dodaj reakcję",
"messageAction.regenerate": "Wygeneruj ponownie",
"messages.dm.sentTo": "Widoczne tylko dla {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Automatycznie zatwierdzaj wszystkie wywołania narzędzi",
"tool.intervention.mode.manual": "Ręczne",
"tool.intervention.mode.manualDesc": "Wymagane ręczne zatwierdzenie każdego wywołania",
"tool.intervention.pending": "Oczekujące",
"tool.intervention.reject": "Odrzuć",
"tool.intervention.rejectAndContinue": "Odrzuć i spróbuj ponownie",
"tool.intervention.rejectOnly": "Odrzuć",
"tool.intervention.rejectReasonPlaceholder": "Podanie powodu pomoże agentowi zrozumieć Twoje granice i poprawić przyszłe działania",
"tool.intervention.rejectTitle": "Odrzuć to wywołanie umiejętności",
"tool.intervention.rejectedWithReason": "To wywołanie umiejętności zostało odrzucone: {{reason}}",
"tool.intervention.scrollToIntervention": "Zobacz",
"tool.intervention.toolAbort": "Anulowałeś to wywołanie umiejętności",
"tool.intervention.toolRejected": "To wywołanie umiejętności zostało odrzucone",
"toolAuth.authorize": "Autoryzuj",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Nowy wewnętrzny model rozumowania z 80 tys. łańcuchów myślowych i 1 mln tokenów wejściowych, oferujący wydajność porównywalną z czołowymi modelami światowymi.",
"MiniMax-M2-Stable.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów, z większą równoległością dla zastosowań komercyjnych.",
"MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania wielojęzycznego, kompleksowo ulepszone doświadczenie programistyczne. Szybsze i bardziej wydajne.",
"MiniMax-M2.1-highspeed.description": "Potężne wielojęzyczne możliwości programowania z szybszym i bardziej efektywnym wnioskowaniem.",
"MiniMax-M2.1.description": "MiniMax-M2.1 to flagowy, otwartoźródłowy model dużej skali od MiniMax, zaprojektowany do rozwiązywania złożonych zadań rzeczywistych. Jego główne atuty to wielojęzyczne możliwości programistyczne oraz zdolność działania jako Agent do rozwiązywania skomplikowanych problemów.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Ta sama wydajność, szybszy i bardziej zwinny (około 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Ta sama wydajność co M2.5, ale z szybszym wnioskowaniem.",
@ -307,20 +306,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, oferujący błyskawiczną szybkość i rozszerzone myślenie.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku firmy Anthropic, oferujący błyskawiczną prędkość i rozszerzone możliwości rozumowania.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku firmy Anthropic, charakteryzujący się błyskawiczną szybkością i rozszerzonym rozumowaniem.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model firmy Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
"claude-opus-4-6.description": "Claude Opus 4.6 to najbardziej inteligentny model Anthropic do budowy agentów i kodowania.",
"claude-opus-4-6.description": "Claude Opus 4.6 to najbardziej inteligentny model firmy Anthropic do budowania agentów i kodowania.",
"claude-opus-4.5.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący najwyższej klasy inteligencję z skalowalną wydajnością w złożonych zadaniach wymagających wysokiej jakości rozumowania.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 to najbardziej inteligentny model firmy Anthropic do tworzenia agentów i kodowania.",
"claude-opus-4.6.description": "Claude Opus 4.6 to najbardziej inteligentny model firmy Anthropic do tworzenia agentów i kodowania.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic do tej pory, oferujący niemal natychmiastowe odpowiedzi lub rozszerzone myślenie krok po kroku z precyzyjną kontrolą dla użytkowników API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model Anthropic do tej pory.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 to najlepsze połączenie szybkości i inteligencji od Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku, przemyślenia z widocznym procesem.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 to najlepsze połączenie prędkości i inteligencji firmy Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 to najlepsze połączenie szybkości i inteligencji firmy Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 może generować niemal natychmiastowe odpowiedzi lub rozszerzone, krok po kroku rozumowanie, które użytkownicy mogą obserwować. Użytkownicy API mogą precyzyjnie kontrolować, jak długo model myśli.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 to model rozumowania nowej generacji z ulepszonymi zdolnościami do rozwiązywania złożonych problemów i myślenia łańcuchowego.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
"deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość wyników dla codziennych zadań QA i agentowych. Publiczne benchmarki osiągają poziom GPT-5, a model jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
"deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności i umiejętności kodowania. Zachowuje ogólny dialog modelu czatu oraz silne zdolności kodowania modelu programistycznego, z lepszym dopasowaniem preferencji. DeepSeek-V2.5 również poprawia pisanie i wykonywanie instrukcji.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-sourceowy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-sourceowy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
"deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
"deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed wynikami dla większej dokładności, osiągając najlepsze wyniki w konkursach i rozumowaniu porównywalnym do Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Tryb myślenia DeepSeek V3.2 generuje łańcuch myśli przed ostateczną odpowiedzią, aby poprawić dokładność.",
"deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
"deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
"ernie-x1.1.description": "ERNIE X1.1 to model rozumowania w wersji podglądowej do oceny i testowania.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, stworzony przez zespół Seed ByteDance, obsługuje edycję i kompozycję wielu obrazów. Funkcje obejmują ulepszoną spójność tematyczną, precyzyjne wykonywanie instrukcji, zrozumienie logiki przestrzennej, ekspresję estetyczną, układ plakatów i projektowanie logo z wysoką precyzją renderowania tekstu i obrazu.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, stworzony przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe do wysoce kontrolowanej, wysokiej jakości generacji obrazów na podstawie promptów.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów firmy ByteDance Seed, obsługujący wejścia tekstowe i obrazowe, oferujący wysoce kontrolowaną, wysokiej jakości generację obrazów. Generuje obrazy na podstawie tekstowych wskazówek.",
"fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
"fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
"fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
"fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
"fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycje semantyczne i wyglądu, precyzyjną edycję tekstu w języku chińskim/angielskim, transfer stylu, rotację i inne.",
"fal-ai/qwen-image.description": "Potężny model generacji obrazów od zespołu Qwen z silnym renderowaniem tekstu w języku chińskim i różnorodnymi stylami wizualnymi.",
"fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów zespołu Qwen, który obsługuje edycje semantyczne i wyglądu, precyzyjnie edytuje tekst w języku chińskim i angielskim oraz umożliwia wysokiej jakości edycje, takie jak transfer stylu i obrót obiektów.",
"fal-ai/qwen-image.description": "Potężny model generowania obrazów zespołu Qwen z imponującym renderowaniem tekstu w języku chińskim i różnorodnymi stylami wizualnymi.",
"flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 14 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
"flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
"flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.",
"gemini-3-flash-preview.description": "Gemini 3 Flash to najszybszy i najinteligentniejszy model, łączący najnowsze osiągnięcia AI z doskonałym osadzeniem w wynikach wyszukiwania.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generacji obrazów Google, który obsługuje również multimodalny chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów firmy Google, który obsługuje również czat multimodalny.",
"gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) to najszybszy natywny model generowania obrazów od Google z obsługą myślenia, generowaniem obrazów w rozmowach i edycją.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferuje jakość obrazu na poziomie Pro z szybkością Flash oraz wsparcie dla multimodalnego chatu.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) to najszybszy natywny model generowania obrazów firmy Google z obsługą myślenia, generowaniem obrazów w rozmowie i ich edycją.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview to najbardziej ekonomiczny model multimodalny Google, zoptymalizowany do zadań agentowych o dużej skali, tłumaczeń i przetwarzania danych.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview ulepsza Gemini 3 Pro, oferując lepsze zdolności rozumowania i wsparcie dla średniego poziomu myślenia.",
"gemini-flash-latest.description": "Najnowsza wersja Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Nasz najbardziej zaawansowany model, zaprojektowany do złożonych zadań korporacyjnych, oferujący wyjątkową wydajność.",
"jamba-mini.description": "Najbardziej efektywny model w swojej klasie, łączący szybkość i jakość przy mniejszym zużyciu zasobów.",
"jina-deepsearch-v1.description": "DeepSearch łączy wyszukiwanie w sieci, czytanie i rozumowanie w celu przeprowadzania dogłębnych analiz. Działa jak agent, który przyjmuje zadanie badawcze, przeprowadza szerokie wyszukiwanie z wieloma iteracjami, a dopiero potem generuje odpowiedź. Proces obejmuje ciągłe badanie, rozumowanie i rozwiązywanie problemów z różnych perspektyw, co zasadniczo różni się od standardowych LLM, które odpowiadają na podstawie danych treningowych lub tradycyjnych systemów RAG opartych na jednorazowym wyszukiwaniu powierzchownym.",
"k2p5.description": "Kimi K2.5 to najbardziej wszechstronny model Kimi do tej pory, wyposażony w natywną architekturę multimodalną, która obsługuje zarówno dane wizualne, jak i tekstowe, tryby 'myślenia' i 'niemyslenia', a także zadania konwersacyjne i agentowe.",
"kimi-k2-0711-preview.description": "kimi-k2 to model bazowy MoE o silnych możliwościach programistycznych i agentowych (1T parametrów, 32B aktywnych), przewyższający inne popularne otwarte modele w testach rozumowania, programowania, matematyki i agentów.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview oferuje okno kontekstu 256k, lepsze kodowanie agentowe, wyższą jakość kodu front-end i lepsze rozumienie kontekstu.",
"kimi-k2-instruct.description": "Kimi K2 Instruct to oficjalny model rozumowania Kimi z długim kontekstem, przeznaczony do kodu, pytań i odpowiedzi oraz innych zastosowań.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ to model rozumowania z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, oferuje zaawansowane myślenie i rozumowanie, co znacząco poprawia wydajność w zadaniach trudnych. QwQ-32B to model średniej wielkości, konkurujący z czołowymi modelami rozumowania, takimi jak DeepSeek-R1 i o1-mini.",
"qwq_32b.description": "Model rozumowania średniej wielkości z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, zdolności myślenia i rozumowania QwQ znacząco poprawiają wydajność w trudnych zadaniach.",
"r1-1776.description": "R1-1776 to wariant modelu DeepSeek R1 po dodatkowym treningu, zaprojektowany do dostarczania nieocenzurowanych, bezstronnych informacji faktograficznych.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro od ByteDance obsługuje generację tekstu na wideo, obrazu na wideo (pierwsza klatka, pierwsza+ostatnia klatka) oraz generację audio zsynchronizowaną z wizualizacjami.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite od BytePlus oferuje generację wspomaganą wyszukiwaniem w sieci w czasie rzeczywistym, ulepszoną interpretację złożonych promptów oraz poprawioną spójność odniesień dla profesjonalnej kreacji wizualnej.",
"solar-mini-ja.description": "Solar Mini (Ja) rozszerza Solar Mini o nacisk na język japoński, zachowując jednocześnie wydajność w języku angielskim i koreańskim.",
"solar-mini.description": "Solar Mini to kompaktowy model LLM, który przewyższa GPT-3.5, oferując silne możliwości wielojęzyczne w języku angielskim i koreańskim oraz efektywne działanie przy małych zasobach.",
"solar-pro.description": "Solar Pro to inteligentny model LLM od Upstage, skoncentrowany na wykonywaniu instrukcji na pojedynczym GPU, z wynikami IFEval powyżej 80. Obecnie obsługuje język angielski; pełna wersja z rozszerzonym wsparciem językowym i dłuższym kontekstem planowana jest na listopad 2024.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Wprowadzenie Agenta",
"agent.completionSubtitle": "Twój asystent jest skonfigurowany i gotowy do działania.",
"agent.completionTitle": "Wszystko gotowe!",
"agent.enterApp": "Wejdź do aplikacji",
"agent.greeting.emojiLabel": "Emoji",
"agent.greeting.nameLabel": "Imię",
"agent.greeting.namePlaceholder": "np. Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Daj mi imię, charakter i emoji",
"agent.greeting.vibeLabel": "Charakter / Natura",
"agent.greeting.vibePlaceholder": "np. Ciepły i przyjazny, Ostry i bezpośredni...",
"agent.history.current": "Bieżące",
"agent.history.title": "Tematy historii",
"agent.modeSwitch.agent": "Konwersacyjny",
"agent.modeSwitch.classic": "Klasyczny",
"agent.modeSwitch.debug": "Eksport debugowania",
"agent.modeSwitch.label": "Wybierz tryb wprowadzenia",
"agent.modeSwitch.reset": "Zresetuj proces",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Pomiń wprowadzenie",
"agent.stage.agentIdentity": "Tożsamość Agenta",
"agent.stage.painPoints": "Problemy",
"agent.stage.proSettings": "Zaawansowana konfiguracja",
"agent.stage.responseLanguage": "Język odpowiedzi",
"agent.stage.summary": "Podsumowanie",
"agent.stage.userIdentity": "O Tobie",
"agent.stage.workContext": "Kontekst pracy",
"agent.stage.workStyle": "Styl pracy",
"agent.subtitle": "Ukończ konfigurację w dedykowanej rozmowie wprowadzającej.",
"agent.summaryHint": "Zakończ tutaj, jeśli podsumowanie konfiguracji wygląda poprawnie.",
"agent.telemetryAllow": "Zezwól na telemetrię",
"agent.telemetryDecline": "Nie, dziękuję",
"agent.telemetryHint": "Możesz również odpowiedzieć własnymi słowami.",
"agent.title": "Wprowadzenie do rozmowy",
"agent.welcome": "...hm? Właśnie się obudziłem — moja głowa jest pusta. Kim jesteś? I — jak mam się nazywać? Potrzebuję też imienia.",
"back": "Wstecz",
"finish": "Zaczynamy",
"interests.area.business": "Biznes i strategia",
@ -29,6 +63,7 @@
"next": "Dalej",
"proSettings.connectors.title": "Połącz swoje ulubione narzędzia",
"proSettings.devMode.title": "Tryb deweloperski",
"proSettings.model.fixed": "Domyślny model jest ustawiony na {{provider}}/{{model}} w tym środowisku.",
"proSettings.model.title": "Domyślny model używany przez agenta",
"proSettings.title": "Skonfiguruj zaawansowane opcje z wyprzedzeniem",
"proSettings.title2": "Spróbuj połączyć kilka popularnych narzędzi~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Skopiuj dokument",
"builtins.lobe-agent-documents.apiName.createDocument": "Utwórz dokument",
"builtins.lobe-agent-documents.apiName.editDocument": "Edytuj dokument",
"builtins.lobe-agent-documents.apiName.listDocuments": "Lista dokumentów",
"builtins.lobe-agent-documents.apiName.readDocument": "Przeczytaj dokument",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Odczytaj dokument według nazwy pliku",
"builtins.lobe-agent-documents.apiName.removeDocument": "Usuń dokument",
"builtins.lobe-agent-documents.apiName.renameDocument": "Zmień nazwę dokumentu",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Zaktualizuj regułę ładowania",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Zaktualizuj lub wstaw dokument według nazwy pliku",
"builtins.lobe-agent-documents.title": "Dokumenty agenta",
"builtins.lobe-agent-management.apiName.callAgent": "Zadzwoń do agenta",
"builtins.lobe-agent-management.apiName.createAgent": "Utwórz agenta",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Piaskownica w Chmurze",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Utwórz wielu agentów",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Utwórz agenta",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Utwórz grupę",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Pobierz informacje o członku",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Pobierz dostępne modele",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Zainstaluj Umiejętność",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Umiejętności",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Pobierz kontekst tematu",
"builtins.lobe-topic-reference.title": "Odwołanie do tematu",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Zadaj pytanie użytkownikowi",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Anuluj odpowiedź użytkownika",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Pobierz stan interakcji",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Pomiń odpowiedź użytkownika",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Prześlij odpowiedź użytkownika",
"builtins.lobe-user-interaction.title": "Interakcja z użytkownikiem",
"builtins.lobe-user-memory.apiName.addContextMemory": "Dodaj pamięć kontekstu",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Dodaj pamięć doświadczenia",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Dodaj pamięć tożsamości",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Przeszukaj strony",
"builtins.lobe-web-browsing.inspector.noResults": "Brak wyników",
"builtins.lobe-web-browsing.title": "Wyszukiwanie w Sieci",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Zakończ wprowadzenie",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Odczytaj stan wprowadzenia",
"builtins.lobe-web-onboarding.apiName.readDocument": "Odczytaj dokument",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Zapisz pytanie użytkownika",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Zaktualizuj dokument",
"builtins.lobe-web-onboarding.title": "Wprowadzenie użytkownika",
"confirm": "Potwierdź",
"debug.arguments": "Argumenty",
"debug.error": "Dziennik błędów",

View file

@ -33,7 +33,6 @@
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
"kimicodingplan.description": "Kimi Code od Moonshot AI zapewnia dostęp do modeli Kimi, w tym K2.5, do zadań związanych z kodowaniem.",
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API, aby uzyskać dostęp do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
"longcat.description": "LongCat to seria dużych modeli generatywnej sztucznej inteligencji, niezależnie opracowanych przez Meituan. Został zaprojektowany, aby zwiększyć produktywność wewnętrzną przedsiębiorstwa i umożliwić innowacyjne zastosowania dzięki wydajnej architekturze obliczeniowej i silnym możliwościom multimodalnym.",
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
"minimaxcodingplan.description": "MiniMax Token Plan zapewnia dostęp do modeli MiniMax, w tym M2.7, do zadań związanych z kodowaniem w ramach subskrypcji o stałej opłacie.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Można przesyłać tylko pliki graficzne!",
"emojiPicker.upload": "Prześlij",
"emojiPicker.uploadBtn": "Przytnij i prześlij",
"form.other": "Lub wpisz bezpośrednio",
"form.otherBack": "Powrót do opcji",
"form.reset": "Resetuj",
"form.skip": "Pomiń",
"form.submit": "Zatwierdź",
"form.unsavedChanges": "Niezapisane zmiany",
"form.unsavedWarning": "Masz niezapisane zmiany. Czy na pewno chcesz opuścić stronę?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Por favor, copie este URL e cole no campo <bold>{{fieldName}}</bold> no Portal de Desenvolvedores do {{name}}.",
"channel.exportConfig": "Exportar Configuração",
"channel.feishu.description": "Conecte este assistente ao Feishu para bate-papo privado e em grupo.",
"channel.historyLimit": "Limite de Mensagens no Histórico",
"channel.historyLimitHint": "Número padrão de mensagens a serem buscadas ao ler o histórico do canal",
"channel.importConfig": "Importar Configuração",
"channel.importFailed": "Falha ao importar configuração",
"channel.importInvalidFormat": "Formato de arquivo de configuração inválido",
@ -78,6 +80,8 @@
"channel.secretToken": "Token Secreto do Webhook",
"channel.secretTokenHint": "Opcional. Usado para verificar solicitações de webhook do Telegram.",
"channel.secretTokenPlaceholder": "Segredo opcional para verificação de webhook",
"channel.serverId": "ID Padrão do Servidor / Guilda",
"channel.serverIdHint": "Seu ID padrão de servidor ou guilda nesta plataforma. A IA o utiliza para listar canais sem perguntar.",
"channel.settings": "Configurações Avançadas",
"channel.settingsResetConfirm": "Tem certeza de que deseja redefinir as configurações avançadas para o padrão?",
"channel.settingsResetDefault": "Redefinir para o Padrão",
@ -93,6 +97,8 @@
"channel.testFailed": "Teste de conexão falhou",
"channel.testSuccess": "Teste de conexão bem-sucedido",
"channel.updateFailed": "Falha ao atualizar status",
"channel.userId": "Seu ID de Usuário na Plataforma",
"channel.userIdHint": "Seu ID de usuário nesta plataforma. A IA pode usá-lo para enviar mensagens diretas para você.",
"channel.validationError": "Por favor, preencha o ID do Aplicativo e o Token",
"channel.verificationToken": "Token de Verificação",
"channel.verificationTokenHint": "Opcional. Usado para verificar a origem do evento de webhook.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Excluir e Regenerar",
"messageAction.deleteDisabledByThreads": "Esta mensagem possui um subtópico e não pode ser excluída",
"messageAction.expand": "Expandir Mensagem",
"messageAction.interrupted": "Interrompido",
"messageAction.interruptedHint": "O que devo fazer em vez disso?",
"messageAction.reaction": "Adicionar reação",
"messageAction.regenerate": "Regenerar",
"messages.dm.sentTo": "Visível apenas para {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Aprovar automaticamente todas as execuções de ferramentas",
"tool.intervention.mode.manual": "Manual",
"tool.intervention.mode.manualDesc": "Requer aprovação manual para cada execução",
"tool.intervention.pending": "Pendente",
"tool.intervention.reject": "Rejeitar",
"tool.intervention.rejectAndContinue": "Rejeitar e Tentar Novamente",
"tool.intervention.rejectOnly": "Rejeitar",
"tool.intervention.rejectReasonPlaceholder": "Um motivo ajuda o Agente a entender seus limites e melhorar ações futuras",
"tool.intervention.rejectTitle": "Rejeitar esta chamada de Habilidade",
"tool.intervention.rejectedWithReason": "Esta chamada de Habilidade foi rejeitada: {{reason}}",
"tool.intervention.scrollToIntervention": "Visualizar",
"tool.intervention.toolAbort": "Você cancelou esta chamada de Habilidade",
"tool.intervention.toolRejected": "Esta chamada de Habilidade foi rejeitada",
"toolAuth.authorize": "Autorizar",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Um novo modelo de raciocínio interno com 80 mil cadeias de pensamento e 1 milhão de tokens de entrada, oferecendo desempenho comparável aos principais modelos globais.",
"MiniMax-M2-Stable.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes, com maior concorrência para uso comercial.",
"MiniMax-M2.1-Lightning.description": "Poderosas capacidades de programação multilíngue, experiência de codificação totalmente aprimorada. Mais rápido e eficiente.",
"MiniMax-M2.1-highspeed.description": "Capacidades poderosas de programação multilíngue com inferência mais rápida e eficiente.",
"MiniMax-M2.1.description": "MiniMax-M2.1 é o principal modelo open-source da MiniMax, focado em resolver tarefas complexas do mundo real. Seus principais pontos fortes são as capacidades de programação multilíngue e a habilidade de atuar como um Agente para resolver tarefas complexas.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Mesma performance, mais rápido e ágil (aprox. 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Mesmo desempenho do M2.5 com inferência mais rápida.",
@ -307,18 +306,18 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e pensamento estendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio ampliado.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio ampliado.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e capaz da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
"claude-opus-4-6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para construção de agentes e programação.",
"claude-opus-4-6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para criação de agentes e codificação.",
"claude-opus-4.5.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência de ponta com desempenho escalável para tarefas complexas de raciocínio de alta qualidade.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para criação de agentes e codificação.",
"claude-opus-4.6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para criação de agentes e codificação.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até hoje, oferecendo respostas quase instantâneas ou pensamento passo a passo estendido com controle refinado para usuários de API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode produzir respostas quase instantâneas ou raciocínio detalhado passo a passo com processo visível.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até hoje.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 é a melhor combinação de velocidade e inteligência da Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo de raciocínio de próxima geração com capacidades mais fortes de raciocínio complexo e cadeia de pensamento.",
"deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de QA e agentes. Benchmarks públicos alcançam níveis do GPT-5, sendo o primeiro a integrar pensamento ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
"deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de codificação. Ele preserva o diálogo geral do modelo de chat e a forte codificação do modelo de programador, com melhor alinhamento de preferências. DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
"deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
"deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
"deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
"deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeia de pensamento antes das saídas para maior precisão, com resultados de competição de ponta e raciocínio comparável ao Gemini-3.0-Pro.",
"deepseek-reasoner.description": "O modo de raciocínio DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
"deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
"deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
"deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
"ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
"ernie-x1.1.description": "ERNIE X1.1 é um modelo de pensamento em pré-visualização para avaliação e testes.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desenvolvido pela equipe Seed da ByteDance, suporta edição e composição de múltiplas imagens. Apresenta consistência aprimorada de assuntos, seguimento preciso de instruções, compreensão de lógica espacial, expressão estética, layout de pôster e design de logotipo com renderização de texto-imagem de alta precisão.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela ByteDance Seed, suporta entradas de texto e imagem para geração de imagens altamente controláveis e de alta qualidade a partir de prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagens altamente controlável e de alta qualidade. Ele gera imagens a partir de prompts de texto.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
"fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
"fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
"fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen, suportando edições semânticas e de aparência, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e mais.",
"fal-ai/qwen-image.description": "Um modelo poderoso de geração de imagens da equipe Qwen com forte renderização de texto em chinês e estilos visuais diversos.",
"fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen que suporta edições semânticas e de aparência, edita texto em chinês e inglês com precisão e permite edições de alta qualidade, como transferência de estilo e rotação de objetos.",
"fal-ai/qwen-image.description": "Um modelo poderoso de geração de imagens da equipe Qwen com renderização impressionante de texto em chinês e estilos visuais diversos.",
"flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
"flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
"flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@ -572,7 +570,7 @@
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google e também suporta chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) é o modelo de geração de imagens nativo mais rápido do Google, com suporte a raciocínio, geração e edição de imagens conversacionais.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferece qualidade de imagem em nível Pro com velocidade Flash e suporte a chat multimodal.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) é o modelo nativo de geração de imagens mais rápido do Google, com suporte a raciocínio, geração e edição de imagens conversacionais.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview é o modelo multimodal mais econômico do Google, otimizado para tarefas agentivas de alto volume, tradução e processamento de dados.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview melhora o Gemini 3 Pro com capacidades de raciocínio aprimoradas e adiciona suporte a nível médio de pensamento.",
"gemini-flash-latest.description": "Última versão do Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Nosso modelo mais poderoso e avançado, projetado para tarefas empresariais complexas com desempenho excepcional.",
"jamba-mini.description": "O modelo mais eficiente de sua categoria, equilibrando velocidade e qualidade com baixo consumo de recursos.",
"jina-deepsearch-v1.description": "DeepSearch combina busca na web, leitura e raciocínio para investigações aprofundadas. Pense nele como um agente que assume sua tarefa de pesquisa, realiza buscas amplas com múltiplas iterações e só então produz uma resposta. O processo envolve pesquisa contínua, raciocínio e resolução de problemas sob múltiplas perspectivas, diferindo fundamentalmente dos LLMs padrão que respondem com base em dados pré-treinados ou sistemas RAG tradicionais que dependem de buscas superficiais pontuais.",
"k2p5.description": "Kimi K2.5 é o modelo mais versátil da Kimi até hoje, apresentando uma arquitetura multimodal nativa que suporta entradas de visão e texto, modos de 'pensamento' e 'não-pensamento', além de tarefas conversacionais e de agente.",
"kimi-k2-0711-preview.description": "kimi-k2 é um modelo base MoE com fortes capacidades de programação e agentes (1T de parâmetros totais, 32B ativos), superando outros modelos abertos populares em benchmarks de raciocínio, programação, matemática e agentes.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview oferece uma janela de contexto de 256k, codificação agente mais robusta, melhor qualidade de código front-end e compreensão de contexto aprimorada.",
"kimi-k2-instruct.description": "Kimi K2 Instruct é o modelo oficial de raciocínio da Kimi com contexto longo para código, perguntas e respostas e mais.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ é um modelo de raciocínio da família Qwen. Em comparação com modelos ajustados por instruções padrão, oferece habilidades de pensamento e raciocínio que melhoram significativamente o desempenho em tarefas difíceis. O QwQ-32B é um modelo de porte médio que compete com os principais modelos como DeepSeek-R1 e o1-mini.",
"qwq_32b.description": "Modelo de raciocínio de porte médio da família Qwen. Em comparação com modelos ajustados por instruções padrão, as habilidades de pensamento e raciocínio do QwQ aumentam significativamente o desempenho em tarefas difíceis.",
"r1-1776.description": "R1-1776 é uma variante pós-treinada do DeepSeek R1 projetada para fornecer informações factuais sem censura e imparciais.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro da ByteDance suporta geração de texto para vídeo, imagem para vídeo (primeiro quadro, primeiro+último quadro) e áudio sincronizado com visuais.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite da BytePlus apresenta geração aumentada por recuperação na web para informações em tempo real, interpretação aprimorada de prompts complexos e consistência de referência melhorada para criação visual profissional.",
"solar-mini-ja.description": "Solar Mini (Ja) estende o Solar Mini com foco no japonês, mantendo desempenho eficiente e forte em inglês e coreano.",
"solar-mini.description": "Solar Mini é um LLM compacto que supera o GPT-3.5, com forte capacidade multilíngue suportando inglês e coreano, oferecendo uma solução eficiente e de baixo custo.",
"solar-pro.description": "Solar Pro é um LLM de alta inteligência da Upstage, focado em seguir instruções em uma única GPU, com pontuações IFEval acima de 80. Atualmente suporta inglês; o lançamento completo está previsto para novembro de 2024 com suporte expandido a idiomas e contexto mais longo.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Integração do Agente",
"agent.completionSubtitle": "Seu assistente está configurado e pronto para uso.",
"agent.completionTitle": "Tudo Pronto!",
"agent.enterApp": "Entrar no Aplicativo",
"agent.greeting.emojiLabel": "Emoji",
"agent.greeting.nameLabel": "Nome",
"agent.greeting.namePlaceholder": "ex.: Lumi, Atlas, Neko...",
"agent.greeting.prompt": "Dê-me um nome, um estilo e um emoji",
"agent.greeting.vibeLabel": "Estilo / Personalidade",
"agent.greeting.vibePlaceholder": "ex.: Caloroso e amigável, Direto e objetivo...",
"agent.history.current": "Atual",
"agent.history.title": "Tópicos do Histórico",
"agent.modeSwitch.agent": "Conversacional",
"agent.modeSwitch.classic": "Clássico",
"agent.modeSwitch.debug": "Exportar Depuração",
"agent.modeSwitch.label": "Escolha seu modo de integração",
"agent.modeSwitch.reset": "Reiniciar Fluxo",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Pular integração",
"agent.stage.agentIdentity": "Identidade do Agente",
"agent.stage.painPoints": "Pontos de Dor",
"agent.stage.proSettings": "Configuração Avançada",
"agent.stage.responseLanguage": "Idioma de Resposta",
"agent.stage.summary": "Resumo",
"agent.stage.userIdentity": "Sobre Você",
"agent.stage.workContext": "Contexto de Trabalho",
"agent.stage.workStyle": "Estilo de Trabalho",
"agent.subtitle": "Conclua a configuração em uma conversa dedicada de integração.",
"agent.summaryHint": "Finalize aqui se o resumo da configuração estiver correto.",
"agent.telemetryAllow": "Permitir telemetria",
"agent.telemetryDecline": "Não, obrigado",
"agent.telemetryHint": "Você também pode responder com suas próprias palavras.",
"agent.title": "Integração por Conversa",
"agent.welcome": "...hm? Acabei de acordar — minha mente está vazia. Quem é você? E — como devo ser chamado? Preciso de um nome também.",
"back": "Voltar",
"finish": "Começar",
"interests.area.business": "Negócios e Estratégia",
@ -29,6 +63,7 @@
"next": "Próximo",
"proSettings.connectors.title": "Conecte Suas Ferramentas Favoritas",
"proSettings.devMode.title": "Modo Desenvolvedor",
"proSettings.model.fixed": "O modelo padrão está predefinido como {{provider}}/{{model}} neste ambiente.",
"proSettings.model.title": "Modelo Padrão Usado pelo Agente",
"proSettings.title": "Configure Opções Avançadas com Antecedência",
"proSettings.title2": "Experimente conectar algumas ferramentas comuns~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Copiar documento",
"builtins.lobe-agent-documents.apiName.createDocument": "Criar documento",
"builtins.lobe-agent-documents.apiName.editDocument": "Editar documento",
"builtins.lobe-agent-documents.apiName.listDocuments": "Listar documentos",
"builtins.lobe-agent-documents.apiName.readDocument": "Ler documento",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Ler documento pelo nome do arquivo",
"builtins.lobe-agent-documents.apiName.removeDocument": "Remover documento",
"builtins.lobe-agent-documents.apiName.renameDocument": "Renomear documento",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Atualizar regra de carregamento",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Inserir ou atualizar documento pelo nome do arquivo",
"builtins.lobe-agent-documents.title": "Documentos do Agente",
"builtins.lobe-agent-management.apiName.callAgent": "Agente de chamada",
"builtins.lobe-agent-management.apiName.createAgent": "Criar agente",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Ambiente de Testes na Nuvem",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Criar agentes em lote",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Criar agente",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Criar grupo",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Obter informações do membro",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obter modelos disponíveis",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Instalar Habilidade",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Habilidades",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Obter contexto do tópico",
"builtins.lobe-topic-reference.title": "Referência de tópico",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Fazer pergunta ao usuário",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Cancelar resposta do usuário",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Obter estado de interação",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Pular resposta do usuário",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Enviar resposta do usuário",
"builtins.lobe-user-interaction.title": "Interação com o Usuário",
"builtins.lobe-user-memory.apiName.addContextMemory": "Adicionar memória de contexto",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Adicionar memória de experiência",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Adicionar memória de identidade",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Buscar páginas",
"builtins.lobe-web-browsing.inspector.noResults": "Nenhum resultado",
"builtins.lobe-web-browsing.title": "Busca na Web",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Finalizar integração",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Ler estado de integração",
"builtins.lobe-web-onboarding.apiName.readDocument": "Ler documento",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Salvar pergunta do usuário",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Atualizar documento",
"builtins.lobe-web-onboarding.title": "Integração do Usuário",
"confirm": "Confirmar",
"debug.arguments": "Argumentos",
"debug.error": "Registro de Erros",

View file

@ -33,7 +33,6 @@
"jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
"kimicodingplan.description": "O Kimi Code da Moonshot AI oferece acesso aos modelos Kimi, incluindo o K2.5, para tarefas de codificação.",
"lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
"lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
"longcat.description": "LongCat é uma série de grandes modelos de IA generativa desenvolvidos de forma independente pela Meituan. Ele foi projetado para aumentar a produtividade interna da empresa e possibilitar aplicações inovadoras por meio de uma arquitetura computacional eficiente e fortes capacidades multimodais.",
"minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
"minimaxcodingplan.description": "O Plano de Tokens MiniMax oferece acesso aos modelos MiniMax, incluindo o M2.7, para tarefas de codificação por meio de uma assinatura de taxa fixa.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Você só pode enviar arquivos de imagem!",
"emojiPicker.upload": "Enviar",
"emojiPicker.uploadBtn": "Cortar e enviar",
"form.other": "Ou digite diretamente",
"form.otherBack": "Voltar para opções",
"form.reset": "Redefinir",
"form.skip": "Pular",
"form.submit": "Enviar",
"form.unsavedChanges": "Alterações não salvas",
"form.unsavedWarning": "Você tem alterações não salvas. Tem certeza de que deseja sair?",

View file

@ -55,6 +55,8 @@
"channel.endpointUrlHint": "Пожалуйста, скопируйте этот URL и вставьте его в поле <bold>{{fieldName}}</bold> на портале разработчика {{name}}.",
"channel.exportConfig": "Экспортировать конфигурацию",
"channel.feishu.description": "Подключите этого помощника к Feishu для общения в личных и групповых чатах.",
"channel.historyLimit": "Лимит сообщений в истории",
"channel.historyLimitHint": "Количество сообщений по умолчанию для загрузки при просмотре истории канала",
"channel.importConfig": "Импортировать конфигурацию",
"channel.importFailed": "Не удалось импортировать конфигурацию",
"channel.importInvalidFormat": "Неверный формат файла конфигурации",
@ -78,6 +80,8 @@
"channel.secretToken": "Секретный токен вебхука",
"channel.secretTokenHint": "Необязательно. Используется для проверки запросов вебхука от Telegram.",
"channel.secretTokenPlaceholder": "Необязательный секрет для проверки вебхука",
"channel.serverId": "ID сервера / гильдии по умолчанию",
"channel.serverIdHint": "Ваш ID сервера или гильдии по умолчанию на этой платформе. ИИ использует его для отображения списка каналов без запроса.",
"channel.settings": "Расширенные настройки",
"channel.settingsResetConfirm": "Вы уверены, что хотите сбросить расширенные настройки до значений по умолчанию?",
"channel.settingsResetDefault": "Сбросить до значений по умолчанию",
@ -93,6 +97,8 @@
"channel.testFailed": "Тест подключения не удался",
"channel.testSuccess": "Тест подключения успешно пройден",
"channel.updateFailed": "Не удалось обновить статус",
"channel.userId": "Ваш ID пользователя на платформе",
"channel.userIdHint": "Ваш ID пользователя на этой платформе. ИИ может использовать его для отправки вам личных сообщений.",
"channel.validationError": "Пожалуйста, заполните ID приложения и токен",
"channel.verificationToken": "Токен проверки",
"channel.verificationTokenHint": "Необязательно. Используется для проверки источника событий вебхука.",

View file

@ -175,6 +175,8 @@
"messageAction.delAndRegenerate": "Удалить и сгенерировать заново",
"messageAction.deleteDisabledByThreads": "Это сообщение содержит подтему и не может быть удалено",
"messageAction.expand": "Развернуть сообщение",
"messageAction.interrupted": "Прервано",
"messageAction.interruptedHint": "Что мне делать вместо этого?",
"messageAction.reaction": "Добавить реакцию",
"messageAction.regenerate": "Сгенерировать заново",
"messages.dm.sentTo": "Видно только для {{name}}",
@ -409,12 +411,14 @@
"tool.intervention.mode.autoRunDesc": "Автоматически одобрять все вызовы инструментов",
"tool.intervention.mode.manual": "Вручную",
"tool.intervention.mode.manualDesc": "Требуется ручное одобрение каждого вызова",
"tool.intervention.pending": "В ожидании",
"tool.intervention.reject": "Отклонить",
"tool.intervention.rejectAndContinue": "Отклонить и повторить",
"tool.intervention.rejectOnly": "Отклонить",
"tool.intervention.rejectReasonPlaceholder": "Укажите причину, чтобы агент лучше понял ваши предпочтения",
"tool.intervention.rejectTitle": "Отклонить вызов навыка",
"tool.intervention.rejectedWithReason": "Вызов навыка отклонён: {{reason}}",
"tool.intervention.scrollToIntervention": "Просмотреть",
"tool.intervention.toolAbort": "Вы отменили вызов навыка",
"tool.intervention.toolRejected": "Вызов навыка был отклонён",
"toolAuth.authorize": "Авторизовать",

View file

@ -88,7 +88,6 @@
"MiniMax-M1.description": "Новая внутренняя модель рассуждений с поддержкой 80K цепочек размышлений и 1M входных токенов, обеспечивающая производительность на уровне ведущих мировых моделей.",
"MiniMax-M2-Stable.description": "Создана для эффективного программирования и работы агентов, с повышенной параллельностью для коммерческого использования.",
"MiniMax-M2.1-Lightning.description": "Мощные многоязычные возможности программирования и всесторонне улучшенный опыт разработки. Быстрее и эффективнее.",
"MiniMax-M2.1-highspeed.description": "Мощные многоязычные возможности программирования с более быстрым и эффективным выводом.",
"MiniMax-M2.1.description": "MiniMax-M2.1 — это флагманская модель с открытым исходным кодом от MiniMax, ориентированная на решение сложных задач из реального мира. Её ключевые преимущества — поддержка многозадачного программирования и способность выступать в роли интеллектуального агента.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: та же производительность, быстрее и более гибкий (примерно 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Та же производительность, что и у M2.5, но с ускоренным выводом.",
@ -307,20 +306,20 @@
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5: самая быстрая и интеллектуальная модель Haiku от Anthropic, с молниеносной скоростью и расширенным мышлением.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, с молниеносной скоростью и расширенными возможностями рассуждения.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 — это самая быстрая и умная модель Haiku от Anthropic, с молниеносной скоростью и расширенными возможностями рассуждения.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1: последняя и самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
"claude-opus-4-20250514.description": "Claude Opus 4: самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, плавности и понимании.",
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, плавности и понимании.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
"claude-opus-4-6.description": "Claude Opus 4.6: самая интеллектуальная модель от Anthropic для создания агентов и программирования.",
"claude-opus-4-6.description": "Claude Opus 4.6 самая интеллектуальная модель от Anthropic для создания агентов и программирования.",
"claude-opus-4.5.description": "Claude Opus 4.5 — это флагманская модель Anthropic, сочетающая первоклассный интеллект с масштабируемой производительностью для сложных задач высокого качества.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 — это самая интеллектуальная модель Anthropic для создания агентов и программирования.",
"claude-opus-4.6.description": "Claude Opus 4.6 — это самая интеллектуальная модель Anthropic для создания агентов и программирования.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4: самая интеллектуальная модель от Anthropic на сегодняшний день, предлагающая мгновенные ответы или расширенное пошаговое мышление с тонкой настройкой для пользователей API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5: самая интеллектуальная модель от Anthropic на сегодняшний день.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6: лучшее сочетание скорости и интеллекта от Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать почти мгновенные ответы или пошаговые рассуждения с видимым процессом.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 самая интеллектуальная модель от Anthropic на сегодняшний день.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 лучшее сочетание скорости и интеллекта от Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 — это самая интеллектуальная модель Anthropic на сегодняшний день.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 — это лучшее сочетание скорости и интеллекта от Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 может выдавать почти мгновенные ответы или пошаговые рассуждения, которые пользователи могут наблюдать. Пользователи API могут точно контролировать, сколько времени модель тратит на размышления.",
@ -392,7 +391,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 — это модель рассуждений следующего поколения с улучшенными возможностями сложных рассуждений и цепочки размышлений.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
"deepseek-chat.description": "DeepSeek V3.2: балансирует рассуждения и длину вывода для ежедневных задач QA и агентов. Публичные тесты достигают уровня GPT-5, и это первая модель, интегрирующая мышление в использование инструментов, лидируя в оценках агентов с открытым исходным кодом.",
"deepseek-chat.description": "Новая модель с открытым исходным кодом, объединяющая общие и кодовые возможности. Она сохраняет общий диалоговый стиль модели чата и сильные навыки кодирования модели программиста, с улучшенным выравниванием предпочтений. DeepSeek-V2.5 также улучшает написание текстов и выполнение инструкций.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@ -415,7 +414,7 @@
"deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking: модель глубокого рассуждения, которая генерирует цепочку мыслей перед выводом для повышения точности, с лучшими результатами в соревнованиях и рассуждениями, сопоставимыми с Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выдает цепочку рассуждений перед финальным ответом для повышения точности.",
"deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@ -515,8 +514,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
"ernie-x1.1.description": "ERNIE X1.1 — это предварительная версия модели мышления для оценки и тестирования.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5: разработана командой ByteDance Seed, поддерживает редактирование и композицию нескольких изображений. Обеспечивает улучшенную согласованность объектов, точное следование инструкциям, понимание пространственной логики, эстетическое выражение, макет постеров и дизайн логотипов с высокоточным текстово-изображенческим рендерингом.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0: разработана ByteDance Seed, поддерживает ввод текста и изображений для высококонтролируемой генерации изображений высокого качества на основе подсказок.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая текстовые и визуальные входные данные с высококонтролируемой и качественной генерацией изображений. Она создает изображения на основе текстовых запросов.",
"fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
"fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
@ -524,8 +522,8 @@
"fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
"fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
"fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
"fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском/английском языках, перенос стиля, вращение и многое другое.",
"fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с сильным рендерингом текста на китайском языке и разнообразными визуальными стилями.",
"fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском и английском языках, а также высококачественные изменения, такие как перенос стиля и вращение объектов.",
"fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с впечатляющим рендерингом китайского текста и разнообразными визуальными стилями.",
"flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 14 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
"flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
"flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
@ -569,10 +567,10 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro — флагманская модель рассуждения от Google с поддержкой длинного контекста для сложных задач.",
"gemini-3-flash-preview.description": "Gemini 3 Flash — самая быстрая и интеллектуальная модель, сочетающая передовые ИИ-возможности с точной привязкой к поисковым данным.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — это модель генерации изображений от Google, которая также поддерживает мультимодальный диалог.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro): модель генерации изображений от Google, также поддерживающая мультимодальный чат.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) модель генерации изображений от Google, также поддерживающая мультимодальный чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro — самая мощная агентная модель от Google с поддержкой визуализации и глубокой интерактивности, основанная на передовых возможностях рассуждения.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) — это самая быстрая нативная модель генерации изображений от Google с поддержкой мышления, генерации и редактирования изображений в диалоговом режиме.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2): обеспечивает качество изображения уровня Pro с высокой скоростью Flash и поддержкой мультимодального чата.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) — самая быстрая нативная модель генерации изображений от Google с поддержкой мышления, генерации и редактирования изображений в диалоговом формате.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview — самая экономичная мультимодальная модель от Google, оптимизированная для задач с высоким объемом, перевода и обработки данных.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview улучшает Gemini 3 Pro с расширенными возможностями рассуждений и добавляет поддержку среднего уровня мышления.",
"gemini-flash-latest.description": "Последний выпуск Gemini Flash",
@ -797,6 +795,7 @@
"jamba-large.description": "Наша самая мощная и продвинутая модель, предназначенная для сложных корпоративных задач с выдающейся производительностью.",
"jamba-mini.description": "Самая эффективная модель в своем классе, обеспечивающая баланс между скоростью и качеством при минимальных ресурсах.",
"jina-deepsearch-v1.description": "DeepSearch объединяет веб-поиск, чтение и логический анализ для глубокого исследования. Представьте себе агента, который берет вашу исследовательскую задачу, проводит многократный поиск, анализирует и только потом выдает ответ. Этот процесс включает непрерывное исследование, логическое мышление и многогранное решение задач, что принципиально отличается от стандартных LLM, отвечающих на основе предобученных данных или традиционных RAG-систем с одноразовым поиском.",
"k2p5.description": "Kimi K2.5 — это самая универсальная модель Kimi на сегодняшний день, оснащенная нативной мультимодальной архитектурой, поддерживающей как визуальные, так и текстовые вводы, режимы «мышления» и «немышления», а также как разговорные, так и агентные задачи.",
"kimi-k2-0711-preview.description": "kimi-k2 — базовая модель MoE с мощными возможностями программирования и агентных задач (1T параметров, 32B активных), превосходящая другие открытые модели в логике, программировании, математике и агентных бенчмарках.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлагает окно контекста 256k, улучшенное агентное программирование, более качественный фронтенд-код и лучшее понимание контекста.",
"kimi-k2-instruct.description": "Kimi K2 Instruct — официальная модель логического мышления от Kimi с поддержкой длинного контекста для кода, вопросов-ответов и других задач.",
@ -1198,8 +1197,6 @@
"qwq.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обладает способностями к мышлению и логике, которые значительно улучшают производительность на сложных задачах. QwQ-32B — среднеразмерная модель, успешно конкурирующая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.",
"qwq_32b.description": "Среднеразмерная модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, способности QwQ к мышлению и логике значительно повышают производительность на сложных задачах.",
"r1-1776.description": "R1-1776 — дообученный вариант DeepSeek R1, предназначенный для предоставления нецензурированной, объективной и достоверной информации.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance: поддерживает генерацию видео из текста, видео из изображения (первый кадр, первый+последний кадр) и аудио, синхронизированного с визуальными элементами.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus: включает генерацию с дополнением веб-поиска для получения актуальной информации, улучшенную интерпретацию сложных подсказок и повышенную согласованность ссылок для профессионального визуального творчества.",
"solar-mini-ja.description": "Solar Mini (Ja) расширяет возможности Solar Mini с акцентом на японский язык, сохраняя при этом высокую эффективность и производительность на английском и корейском.",
"solar-mini.description": "Solar Mini — компактная LLM-модель, превосходящая GPT-3.5, с мощной многоязычной поддержкой английского и корейского языков, предлагающая эффективное решение с малым объемом.",
"solar-pro.description": "Solar Pro — интеллектуальная LLM-модель от Upstage, ориентированная на следование инструкциям на одном GPU, с результатами IFEval выше 80. В настоящее время поддерживает английский язык; полный релиз с расширенной языковой поддержкой и увеличенным контекстом запланирован на ноябрь 2024 года.",

View file

@ -1,4 +1,38 @@
{
"agent.banner.label": "Настройка агента",
"agent.completionSubtitle": "Ваш помощник настроен и готов к работе.",
"agent.completionTitle": "Все готово!",
"agent.enterApp": "Войти в приложение",
"agent.greeting.emojiLabel": "Эмодзи",
"agent.greeting.nameLabel": "Имя",
"agent.greeting.namePlaceholder": "например, Луми, Атлас, Неко...",
"agent.greeting.prompt": "Дайте мне имя, настроение и эмодзи",
"agent.greeting.vibeLabel": "Настроение / Характер",
"agent.greeting.vibePlaceholder": "например, Теплый и дружелюбный, Резкий и прямолинейный...",
"agent.history.current": "Текущий",
"agent.history.title": "Темы истории",
"agent.modeSwitch.agent": "Разговорный",
"agent.modeSwitch.classic": "Классический",
"agent.modeSwitch.debug": "Экспорт отладки",
"agent.modeSwitch.label": "Выберите режим настройки",
"agent.modeSwitch.reset": "Сбросить процесс",
"agent.progress": "{{currentStep}}/{{totalSteps}}",
"agent.skipOnboarding": "Пропустить настройку",
"agent.stage.agentIdentity": "Идентичность агента",
"agent.stage.painPoints": "Болевые точки",
"agent.stage.proSettings": "Расширенные настройки",
"agent.stage.responseLanguage": "Язык ответа",
"agent.stage.summary": "Резюме",
"agent.stage.userIdentity": "О вас",
"agent.stage.workContext": "Контекст работы",
"agent.stage.workStyle": "Стиль работы",
"agent.subtitle": "Завершите настройку в специальной беседе.",
"agent.summaryHint": "Завершите здесь, если резюме настройки выглядит правильно.",
"agent.telemetryAllow": "Разрешить телеметрию",
"agent.telemetryDecline": "Нет, спасибо",
"agent.telemetryHint": "Вы также можете ответить своими словами.",
"agent.title": "Настройка через беседу",
"agent.welcome": "...мм? Я только что проснулся — мой разум пуст. Кто вы? И — как меня назвать? Мне тоже нужно имя.",
"back": "Назад",
"finish": "Начать",
"interests.area.business": "Бизнес и стратегия",
@ -29,6 +63,7 @@
"next": "Далее",
"proSettings.connectors.title": "Подключите любимые инструменты",
"proSettings.devMode.title": "Режим разработчика",
"proSettings.model.fixed": "Модель по умолчанию установлена на {{provider}}/{{model}} в этой среде.",
"proSettings.model.title": "Модель по умолчанию для агента",
"proSettings.title": "Настройте расширенные параметры заранее",
"proSettings.title2": "Попробуйте подключить популярные инструменты~",

View file

@ -28,10 +28,13 @@
"builtins.lobe-agent-documents.apiName.copyDocument": "Копировать документ",
"builtins.lobe-agent-documents.apiName.createDocument": "Создать документ",
"builtins.lobe-agent-documents.apiName.editDocument": "Редактировать документ",
"builtins.lobe-agent-documents.apiName.listDocuments": "Список документов",
"builtins.lobe-agent-documents.apiName.readDocument": "Читать документ",
"builtins.lobe-agent-documents.apiName.readDocumentByFilename": "Чтение документа по имени файла",
"builtins.lobe-agent-documents.apiName.removeDocument": "Удалить документ",
"builtins.lobe-agent-documents.apiName.renameDocument": "Переименовать документ",
"builtins.lobe-agent-documents.apiName.updateLoadRule": "Обновить правило загрузки",
"builtins.lobe-agent-documents.apiName.upsertDocumentByFilename": "Обновление или добавление документа по имени файла",
"builtins.lobe-agent-documents.title": "Документы агента",
"builtins.lobe-agent-management.apiName.callAgent": "Вызвать агента",
"builtins.lobe-agent-management.apiName.createAgent": "Создать агента",
@ -64,6 +67,7 @@
"builtins.lobe-cloud-sandbox.title": "Облачная песочница",
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Массовое создание агентов",
"builtins.lobe-group-agent-builder.apiName.createAgent": "Создать агента",
"builtins.lobe-group-agent-builder.apiName.createGroup": "Создать группу",
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Получить информацию об участнике",
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Получить доступные модели",
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Установить навык",
@ -212,6 +216,12 @@
"builtins.lobe-skills.title": "Навыки",
"builtins.lobe-topic-reference.apiName.getTopicContext": "Получить контекст темы",
"builtins.lobe-topic-reference.title": "Ссылка на тему",
"builtins.lobe-user-interaction.apiName.askUserQuestion": "Задать вопрос пользователю",
"builtins.lobe-user-interaction.apiName.cancelUserResponse": "Отменить ответ пользователя",
"builtins.lobe-user-interaction.apiName.getInteractionState": "Получить состояние взаимодействия",
"builtins.lobe-user-interaction.apiName.skipUserResponse": "Пропустить ответ пользователя",
"builtins.lobe-user-interaction.apiName.submitUserResponse": "Отправить ответ пользователя",
"builtins.lobe-user-interaction.title": "Взаимодействие с пользователем",
"builtins.lobe-user-memory.apiName.addContextMemory": "Добавить контекстную память",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Добавить память опыта",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Добавить память личности",
@ -229,6 +239,12 @@
"builtins.lobe-web-browsing.apiName.search": "Поиск страниц",
"builtins.lobe-web-browsing.inspector.noResults": "Нет результатов",
"builtins.lobe-web-browsing.title": "Веб-поиск",
"builtins.lobe-web-onboarding.apiName.finishOnboarding": "Завершить вводный процесс",
"builtins.lobe-web-onboarding.apiName.getOnboardingState": "Прочитать состояние вводного процесса",
"builtins.lobe-web-onboarding.apiName.readDocument": "Прочитать документ",
"builtins.lobe-web-onboarding.apiName.saveUserQuestion": "Сохранить вопрос пользователя",
"builtins.lobe-web-onboarding.apiName.updateDocument": "Обновить документ",
"builtins.lobe-web-onboarding.title": "Вводный процесс пользователя",
"confirm": "Подтвердить",
"debug.arguments": "Аргументы",
"debug.error": "Журнал ошибок",

View file

@ -33,7 +33,6 @@
"jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
"kimicodingplan.description": "Kimi Code от Moonshot AI предоставляет доступ к моделям Kimi, включая K2.5, для выполнения задач кодирования.",
"lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
"lobehub.description": "LobeHub Cloud использует официальные API для доступа к AI-моделям и измеряет использование с помощью кредитов, связанных с токенами моделей.",
"longcat.description": "LongCat — это серия больших моделей генеративного ИИ, разработанных Meituan. Она предназначена для повышения внутренней производительности предприятия и создания инновационных приложений благодаря эффективной вычислительной архитектуре и мощным мультимодальным возможностям.",
"minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
"minimaxcodingplan.description": "План токенов MiniMax предоставляет доступ к моделям MiniMax, включая M2.7, для выполнения задач кодирования по подписке с фиксированной оплатой.",

View file

@ -18,7 +18,10 @@
"emojiPicker.fileTypeError": "Можно загружать только файлы изображений!",
"emojiPicker.upload": "Загрузить",
"emojiPicker.uploadBtn": "Обрезать и загрузить",
"form.other": "Или введите напрямую",
"form.otherBack": "Вернуться к вариантам",
"form.reset": "Сбросить",
"form.skip": "Пропустить",
"form.submit": "Отправить",
"form.unsavedChanges": "Несохранённые изменения",
"form.unsavedWarning": "У вас есть несохранённые изменения. Вы уверены, что хотите уйти?",

Some files were not shown because too many files have changed in this diff Show more