lobehub/locales/ru-RU/models.json
Rdmclin2 965fc929e1
feat: add unified messaging tool for cross-platform communication (#13296)
*  feat: add cross-platform message tool for AI bot channel operations

Implement a unified message tool (`lobe-message`) that provides AI with
messaging capabilities across Discord, Telegram, Slack, Google Chat,
and IRC through a single interface with platform-specific extensions.

Core APIs: sendMessage, readMessages, editMessage, deleteMessage,
searchMessages, reactToMessage, getReactions, pin/unpin management,
channel/member info, thread operations, and polls.

Architecture follows the established builtin-tool pattern:
- Package: @lobechat/builtin-tool-message (manifest, types, executor,
  ExecutionRuntime, client components)
- Registry: registered in builtin-tools (renders, inspectors,
  interventions, streamings)
- Server runtime: stub service ready for platform adapter integration

https://claude.ai/code/session_011sHc6R7V4cSYKere9RY1QM

* feat: implement platform specific message service

* chore: add wechat platform

* chore: update wechat api service

* chore: update protocol implementation

* chore: optimize  platform api test

* fix: lark domain error

* feat: support bot message cli

* chore: refactor adapter to service

* chore: optimize bot status fetch

* fix: bot status

* fix: channel nav ignore

* feat: message tool support bot manage

* feat: add lobe-message runtime

* feat: support direct message

* feat: add history limit

* chore: update const limit

* feat: optimize  server id message history limit

* chore: optimize system role & inject platform environment info

* chore: update  readMessages vibe

* fix: form body width 50%

* chore: optimize tool prompt

* chore: update i18n files

* chore: optimize read message system role and update bot message lh

* updage readMessage api rate limit

* chore: comatible for readMessages

* fix: feishu readMessage implementation error

* fix: test case

* chore: update i18n files

* fix: lint error

* chore: add timeout for conversaction case

* fix: message test case

* fix: vite gzip error

---------

Co-authored-by: Claude <noreply@anthropic.com>
2026-03-31 00:26:32 +08:00

1325 lines
512 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"01-ai/yi-1.5-34b-chat.description": "Последняя открытая модель 01.AI с 34 миллиардами параметров, адаптированная для различных сценариев диалога, обученная на высококачественных данных и согласованная с человеческими предпочтениями.",
"01-ai/yi-1.5-9b-chat.description": "Последняя открытая модель 01.AI с 9 миллиардами параметров, адаптированная для различных сценариев диалога, обученная на высококачественных данных и согласованная с человеческими предпочтениями.",
"360/deepseek-r1.description": "DeepSeek-R1, развернутая компанией 360, использует масштабное обучение с подкреплением на этапе дообучения, значительно улучшая логическое мышление при минимальной разметке. Сопоставима с OpenAI o1 в задачах по математике, программированию и языковому рассуждению.",
"360gpt-pro-trans.description": "Специализированная модель для перевода, глубоко дообученная для достижения передового качества перевода.",
"360gpt-pro.description": "360GPT Pro — ключевая модель ИИ от 360 с эффективной обработкой текста для различных задач обработки естественного языка, поддерживает понимание длинных текстов и многотуровой диалог.",
"360gpt-turbo-responsibility-8k.description": "360GPT Turbo Responsibility 8K делает акцент на семантической безопасности и ответственности в чувствительных к контенту приложениях, обеспечивая точный и надежный пользовательский опыт.",
"360gpt-turbo.description": "360GPT Turbo обеспечивает высокую вычислительную и диалоговую производительность с отличным пониманием семантики и эффективной генерацией, идеально подходит для бизнеса и разработчиков.",
"360gpt2-o1.description": "360gpt2-o1 формирует цепочку рассуждений с помощью древовидного поиска, механизма рефлексии и обучения с подкреплением, позволяя модели к саморефлексии и самокоррекции.",
"360gpt2-pro.description": "360GPT2 Pro — продвинутая модель обработки естественного языка от 360 с выдающимися возможностями генерации и понимания текста, особенно в творческих задачах, включая сложные преобразования и ролевые сценарии.",
"360zhinao2-o1.5.description": "360 Zhinao — самая мощная модель рассуждений, обладающая сильнейшими возможностями и поддерживающая как вызов инструментов, так и продвинутые рассуждения.",
"360zhinao2-o1.description": "360zhinao2-o1 формирует цепочку рассуждений с помощью древовидного поиска, механизма рефлексии и обучения с подкреплением, позволяя модели к саморефлексии и самокоррекции.",
"360zhinao3-o1.5.description": "360 Zhinao — модель рассуждений следующего поколения.",
"4.0Ultra.description": "Spark Ultra — самая мощная модель в серии Spark, улучшает понимание текста и его резюмирование, а также расширяет возможности веб-поиска. Это комплексное решение для повышения продуктивности на рабочем месте и точности ответов, позиционирующееся как передовой интеллектуальный продукт.",
"AnimeSharp.description": "AnimeSharp (также известная как \"4x-AnimeSharp\") — это открытая модель суперразрешения на основе ESRGAN от Kim2091, предназначенная для увеличения и повышения резкости изображений в аниме-стиле. В феврале 2022 года была переименована из \"4x-TextSharpV1\"; изначально также предназначалась для текстовых изображений, но была глубоко оптимизирована под аниме-контент.",
"Baichuan2-Turbo.description": "Использует расширение поиска для подключения модели к отраслевым и веб-знаниям. Поддерживает загрузку PDF/Word и ввод URL для своевременного, всестороннего поиска и профессионального, точного вывода.",
"Baichuan3-Turbo-128k.description": "С ультрадлинным контекстным окном на 128K, оптимизирована для частых корпоративных сценариев с существенным приростом ценности. По сравнению с Baichuan2, генерация контента улучшена на 20%, ответы на вопросы — на 17%, ролевые сценарии — на 40%. Общая производительность выше, чем у GPT-3.5.",
"Baichuan3-Turbo.description": "Оптимизирована для частых корпоративных сценариев с существенным приростом ценности. По сравнению с Baichuan2, генерация контента улучшена на 20%, ответы на вопросы — на 17%, ролевые сценарии — на 40%. Общая производительность выше, чем у GPT-3.5.",
"Baichuan4-Air.description": "Одна из лучших моделей в Китае, превосходит ведущие зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и творческая генерация. Также обладает передовыми мультимодальными возможностями с высокими результатами на авторитетных бенчмарках.",
"Baichuan4-Turbo.description": "Одна из лучших моделей в Китае, превосходит ведущие зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и творческая генерация. Также обладает передовыми мультимодальными возможностями с высокими результатами на авторитетных бенчмарках.",
"Baichuan4.description": "Лидер по производительности среди отечественных моделей, превосходит ведущие зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и творческая генерация. Также предлагает передовые мультимодальные возможности и высокие результаты на бенчмарках.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS — семейство открытых LLM от ByteDance Seed, разработанных для обработки длинного контекста, логического мышления, агентных задач и общих способностей. Seed-OSS-36B-Instruct — это модель с 36 миллиардами параметров, адаптированная под инструкции, с нативной поддержкой ультрадлинного контекста для обработки больших документов или кодовых баз. Оптимизирована для логики, генерации кода и агентных задач (использование инструментов), сохраняя при этом общую универсальность. Ключевая особенность — \"Бюджет мышления\", позволяющий гибко управлять длиной рассуждений для повышения эффективности.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, более крупная и умная модель из набора DeepSeek, дистиллирована в архитектуру Llama 70B. Бенчмарки и оценки людей показывают, что она умнее базовой Llama 70B, особенно в задачах по математике и точности фактов.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Дистиллированная модель DeepSeek-R1 на основе Qwen2.5-Math-1.5B. Обучение с подкреплением и данные холодного старта оптимизируют производительность в логических задачах, устанавливая новые мультизадачные бенчмарки среди открытых моделей.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Модели DeepSeek-R1-Distill дообучены на основе открытых моделей с использованием выборок, сгенерированных DeepSeek-R1.",
"DeepSeek-R1-Distill-Qwen-32B.description": "Модели DeepSeek-R1-Distill дообучены на основе открытых моделей с использованием выборок, сгенерированных DeepSeek-R1.",
"DeepSeek-R1-Distill-Qwen-7B.description": "Дистиллированная модель DeepSeek-R1 на основе Qwen2.5-Math-7B. Обучение с подкреплением и данные холодного старта оптимизируют производительность в логических задачах, устанавливая новые мультизадачные бенчмарки среди открытых моделей.",
"DeepSeek-R1.description": "DeepSeek-R1 применяет масштабное обучение с подкреплением на этапе дообучения, значительно улучшая логическое мышление при минимальной разметке. Сопоставима с OpenAI o1 в задачах по математике, программированию и языковому рассуждению.",
"DeepSeek-V3-1.description": "DeepSeek V3.1 — модель нового поколения для логических задач с улучшенными возможностями сложного рассуждения и цепочек размышлений, подходящая для глубокого анализа.",
"DeepSeek-V3-Fast.description": "Провайдер: sophnet. DeepSeek V3 Fast — высокоэффективная версия DeepSeek V3 0324, с полной точностью (без квантования), улучшенной производительностью в коде и математике и более быстрыми ответами.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast — высокоэффективный вариант DeepSeek V3.1. Гибридный режим мышления: через шаблоны чата одна модель поддерживает как мышление, так и немышление. Умное использование инструментов: дообучение улучшает производительность в агентных задачах и при использовании инструментов.",
"DeepSeek-V3.1-Think.description": "Режим мышления DeepSeek-V3.1: новая гибридная модель рассуждения с режимами мышления и немышления, более эффективная, чем DeepSeek-R1-0528. Оптимизации после обучения значительно улучшают использование инструментов и выполнение агентных задач.",
"DeepSeek-V3.description": "DeepSeek-V3 — модель MoE, разработанная DeepSeek. Превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, по многим бенчмаркам и конкурирует с ведущими закрытыми моделями, такими как GPT-4o и Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite обеспечивает сверхбыстрые ответы и отличное соотношение цены и качества, предлагая гибкие варианты для различных сценариев. Поддерживает контекст объемом 128K для вывода и дообучения.",
"Doubao-lite-32k.description": "Doubao-lite обеспечивает сверхбыстрые ответы и отличное соотношение цены и качества, предлагая гибкие варианты для различных сценариев. Поддерживает контекст объемом 32K для вывода и дообучения.",
"Doubao-lite-4k.description": "Doubao-lite обеспечивает сверхбыстрые ответы и отличное соотношение цены и качества, предлагая гибкие варианты для различных сценариев. Поддерживает контекст объемом 4K для вывода и дообучения.",
"Doubao-pro-128k.description": "Флагманская модель с наилучшей производительностью для сложных задач, превосходно справляется с вопросно-ответными задачами, суммированием, созданием контента, классификацией и ролевыми сценариями. Поддерживает контекст объемом 128K для вывода и дообучения.",
"Doubao-pro-32k.description": "Флагманская модель с наилучшей производительностью для сложных задач, превосходно справляется с вопросно-ответными задачами, суммированием, созданием контента, классификацией и ролевыми сценариями. Поддерживает контекст объемом 32K для вывода и дообучения.",
"Doubao-pro-4k.description": "Флагманская модель с наилучшей производительностью для сложных задач, превосходно справляется с вопросно-ответными задачами, суммированием, созданием контента, классификацией и ролевыми сценариями. Поддерживает контекст объемом 4K для вывода и дообучения.",
"DreamO.description": "DreamO — это модель для настройки изображений с открытым исходным кодом, совместно разработанная ByteDance и Пекинским университетом. Она использует единую архитектуру для поддержки многозадачной генерации изображений. Благодаря эффективному композиционному моделированию DreamO создает высоко согласованные и персонализированные изображения на основе заданных пользователем параметров, таких как личность, объект, стиль, фон и другие условия.",
"ERNIE-3.5-128K.description": "Флагманская LLM-модель от Baidu, обученная на обширных корпусах китайского и английского языков, обладающая высокой универсальностью для чата, создания контента и использования плагинов. Поддерживает автоматическую интеграцию плагина Baidu Search для получения актуальных ответов.",
"ERNIE-3.5-8K-Preview.description": "Флагманская LLM-модель от Baidu, обученная на обширных корпусах китайского и английского языков, обладающая высокой универсальностью для чата, создания контента и использования плагинов. Поддерживает автоматическую интеграцию плагина Baidu Search для получения актуальных ответов.",
"ERNIE-3.5-8K.description": "Флагманская LLM-модель от Baidu, обученная на обширных корпусах китайского и английского языков, обладающая высокой универсальностью для чата, создания контента и использования плагинов. Поддерживает автоматическую интеграцию плагина Baidu Search для получения актуальных ответов.",
"ERNIE-4.0-8K-Latest.description": "Флагманская сверхмощная LLM-модель от Baidu с комплексными улучшениями по сравнению с ERNIE 3.5, подходящая для сложных задач в различных областях. Поддерживает интеграцию плагина Baidu Search для получения актуальных ответов.",
"ERNIE-4.0-8K-Preview.description": "Флагманская сверхмощная LLM-модель от Baidu с комплексными улучшениями по сравнению с ERNIE 3.5, подходящая для сложных задач в различных областях. Поддерживает интеграцию плагина Baidu Search для получения актуальных ответов.",
"ERNIE-4.0-Turbo-8K-Latest.description": "Флагманская сверхмощная LLM-модель от Baidu с высокой общей производительностью для сложных задач. Поддерживает интеграцию плагина Baidu Search для получения актуальных ответов. Превосходит ERNIE 4.0.",
"ERNIE-4.0-Turbo-8K-Preview.description": "Флагманская сверхмощная LLM-модель от Baidu с высокой общей производительностью для сложных задач. Поддерживает интеграцию плагина Baidu Search для получения актуальных ответов. Превосходит ERNIE 4.0.",
"ERNIE-Character-8K.description": "Отраслевая LLM-модель от Baidu для игровых NPC, клиентской поддержки и ролевых сценариев. Обеспечивает более четкое соответствие персонажу, лучшее следование инструкциям и улучшенное логическое мышление.",
"ERNIE-Lite-Pro-128K.description": "Легковесная LLM-модель от Baidu, сочетающая качество и производительность вывода. Превосходит ERNIE Lite и подходит для ускорителей с низким уровнем вычислений.",
"ERNIE-Speed-128K.description": "Последняя высокопроизводительная LLM-модель от Baidu (2024), обладающая сильными универсальными способностями. Подходит в качестве основы для дообучения под конкретные сценарии, с отличной логикой рассуждений.",
"ERNIE-Speed-Pro-128K.description": "Последняя высокопроизводительная LLM-модель от Baidu (2024), обладающая сильными универсальными способностями. Превосходит ERNIE Speed и подходит в качестве основы для дообучения с отличной логикой рассуждений.",
"FLUX-1.1-pro.description": "FLUX.1.1 Pro",
"FLUX.1-Kontext-dev.description": "FLUX.1-Kontext-dev — это мультимодальная модель генерации и редактирования изображений от Black Forest Labs, основанная на архитектуре Rectified Flow Transformer с 12 миллиардами параметров. Она предназначена для генерации, реконструкции, улучшения и редактирования изображений в заданных контекстных условиях. Модель сочетает управляемую генерацию диффузионных моделей с контекстным моделированием Transformer, обеспечивая высококачественные результаты для задач, таких как дорисовка, расширение изображения и реконструкция визуальных сцен.",
"FLUX.1-Kontext-pro.description": "FLUX.1 Kontext [pro]",
"FLUX.1-dev.description": "FLUX.1-dev — это мультимодальная языковая модель с открытым исходным кодом (MLLM) от Black Forest Labs, оптимизированная для задач, связанных с изображениями и текстом. Она объединяет понимание и генерацию изображений/текста. Построена на базе передовых LLM (например, Mistral-7B), использует тщательно разработанный визуальный энкодер и многоступенчатую настройку инструкций для обеспечения мультимодальной координации и сложного логического вывода.",
"GLM-4.5-Air.description": "GLM-4.5-Air: Легковесная версия для быстрых ответов.",
"GLM-4.5.description": "GLM-4.5: Высокопроизводительная модель для рассуждений, программирования и агентных задач.",
"GLM-4.6.description": "GLM-4.6: Модель предыдущего поколения.",
"GLM-4.7.description": "GLM-4.7: Последняя флагманская модель Zhipu, улучшенная для сценариев агентного программирования с расширенными возможностями кодирования, долгосрочного планирования задач и взаимодействия с инструментами.",
"GLM-5-Turbo.description": "GLM-5-Turbo: Оптимизированная версия GLM-5 с ускоренным выводом для задач программирования.",
"GLM-5.description": "GLM-5: Флагманская модель следующего поколения от Zhipu, специально разработанная для агентной инженерии. Обеспечивает надежную производительность в сложных системах инженерии и задачах с долгосрочным горизонтом. В области программирования и агентных возможностей GLM-5 достигает передовых результатов среди моделей с открытым исходным кодом.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) — инновационная модель для различных областей и сложных задач.",
"HY-Image-V3.0.description": "Мощные возможности извлечения особенностей оригинального изображения и сохранения деталей, обеспечивающие более богатую визуальную текстуру и создающие высокоточные, хорошо скомпонованные визуальные материалы производственного уровня.",
"HelloMeme.description": "HelloMeme — это ИИ-инструмент, который создает мемы, GIF-файлы или короткие видео на основе предоставленных вами изображений или движений. Не требует навыков рисования или программирования — достаточно эталонного изображения, чтобы получить веселый, привлекательный и стилистически согласованный контент.",
"HiDream-E1-Full.description": "HiDream-E1-Full — это открытая модель мультимодального редактирования изображений от HiDream.ai, основанная на передовой архитектуре Diffusion Transformer и мощном языковом понимании (встроенный LLaMA 3.1-8B-Instruct). Она поддерживает генерацию изображений на основе естественного языка, перенос стиля, локальные правки и перерисовку, обеспечивая превосходное понимание и выполнение задач, связанных с текстом и изображениями.",
"HiDream-I1-Full.description": "HiDream-I1 — это новая открытая базовая модель генерации изображений, выпущенная HiDream. С 17 миллиардами параметров (Flux имеет 12 миллиардов) она обеспечивает лидирующее в отрасли качество изображений за считанные секунды.",
"HunyuanDiT-v1.2-Diffusers-Distilled.description": "hunyuandit-v1.2-distilled — это легковесная модель преобразования текста в изображение, оптимизированная с помощью дистилляции для быстрой генерации высококачественных изображений. Особенно подходит для сред с ограниченными ресурсами и задач в реальном времени.",
"InstantCharacter.description": "InstantCharacter — это модель персонализированной генерации персонажей без необходимости настройки, выпущенная Tencent AI в 2025 году. Она обеспечивает высокую точность и согласованность персонажей в различных сценариях. Модель может создать персонажа по одному эталонному изображению и гибко переносить его в разные стили, действия и фоны.",
"InternVL2-8B.description": "InternVL2-8B — это мощная модель визуально-языкового понимания, поддерживающая мультимодальную обработку изображений и текста, точно распознающая содержимое изображений и генерирующая соответствующие описания или ответы.",
"InternVL2.5-26B.description": "InternVL2.5-26B — это мощная модель визуально-языкового понимания, поддерживающая мультимодальную обработку изображений и текста, точно распознающая содержимое изображений и генерирующая соответствующие описания или ответы.",
"Kolors.description": "Kolors — это модель преобразования текста в изображение, разработанная командой Kuaishou Kolors. Обученная на миллиардах параметров, она обладает заметными преимуществами в визуальном качестве, понимании китайской семантики и отображении текста.",
"Kwai-Kolors/Kolors.description": "Kolors — это крупномасштабная латентно-диффузионная модель преобразования текста в изображение от команды Kuaishou Kolors. Обученная на миллиардах пар текст-изображение, она превосходит в визуальном качестве, точности сложной семантики и отображении текста на китайском и английском языках, с сильным пониманием и генерацией китайского контента.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) — это модель с открытым исходным кодом для задач программной инженерии. Она достигает 62,4% успешности на SWE-Bench Verified, занимая 5-е место среди открытых моделей. Оптимизирована с помощью промежуточного обучения, SFT и RL для автодополнения кода, исправления ошибок и рецензирования кода.",
"Llama-3.2-11B-Vision-Instruct.description": "Мощное логическое мышление по изображениям высокого разрешения, подходит для приложений визуального понимания.",
"Llama-3.2-90B-Vision-Instruct\t.description": "Продвинутое логическое мышление по изображениям для приложений визуального понимания с агентами.",
"LongCat-Flash-Chat.description": "Модель LongCat-Flash-Chat была обновлена до новой версии. Это обновление включает улучшения возможностей модели; название модели и метод вызова API остаются без изменений. Основываясь на своих ключевых характеристиках «экстремальная эффективность» и «молниеносный отклик», новая версия еще больше усиливает понимание контекста и производительность в реальных задачах программирования: Значительно улучшенные возможности кодирования: Глубоко оптимизирована для сценариев, ориентированных на разработчиков, модель обеспечивает значительные улучшения в задачах генерации кода, отладки и объяснения. Разработчикам настоятельно рекомендуется оценить и протестировать эти улучшения. Поддержка 256K ультрадлинного контекста: Окно контекста увеличено вдвое по сравнению с предыдущим поколением (128K) до 256K, что позволяет эффективно обрабатывать массивные документы и задачи с длинными последовательностями. Комплексное улучшение многоязычной производительности: Обеспечивает сильную поддержку девяти языков, включая испанский, французский, арабский, португальский, русский и индонезийский. Более мощные возможности агента: Демонстрирует большую устойчивость и эффективность в сложных вызовах инструментов и выполнении многошаговых задач.",
"LongCat-Flash-Lite.description": "Модель LongCat-Flash-Lite была официально выпущена. Она использует эффективную архитектуру Mixture-of-Experts (MoE) с общим количеством параметров 68,5 миллиарда и примерно 3 миллиардами активных параметров. Благодаря использованию таблицы встраивания N-грамм достигается высокая эффективность использования параметров, а также глубокая оптимизация для эффективности вывода и конкретных сценариев применения. По сравнению с моделями аналогичного масштаба, ее основные характеристики следующие: Исключительная эффективность вывода: Используя таблицу встраивания N-грамм для фундаментального устранения узкого места ввода-вывода, присущего архитектурам MoE, в сочетании с выделенными механизмами кэширования и оптимизациями на уровне ядра, она значительно снижает задержку вывода и улучшает общую эффективность. Сильные возможности агента и кода: Демонстрирует высококонкурентные возможности в вызове инструментов и задачах разработки программного обеспечения, обеспечивая исключительную производительность относительно своего размера модели.",
"LongCat-Flash-Thinking-2601.description": "Модель LongCat-Flash-Thinking-2601 была официально выпущена. Это обновленная модель рассуждений, построенная на архитектуре Mixture-of-Experts (MoE), с общим количеством параметров 560 миллиардов. Сохраняя сильную конкурентоспособность в традиционных тестах на рассуждения, она систематически улучшает возможности рассуждений на уровне агентов благодаря крупномасштабному обучению с подкреплением в многообразных средах. По сравнению с моделью LongCat-Flash-Thinking, ключевые обновления следующие: Экстремальная устойчивость в шумных средах: Благодаря систематическому обучению в стиле учебного плана, нацеленному на шум и неопределенность в реальных условиях, модель демонстрирует выдающуюся производительность в вызове инструментов агентов, поиске на основе агентов и интегрированных с инструментами рассуждениях с значительно улучшенной обобщающей способностью. Мощные возможности агента: Построив тесно связанный граф зависимостей, охватывающий более 60 инструментов, и масштабируя обучение через расширение многообразных сред и крупномасштабное исследовательское обучение, модель значительно улучшает свою способность обобщать сложные и выходящие за рамки стандартных сценарии реального мира. Расширенный режим глубокого мышления: Расширяет широту рассуждений через параллельный вывод и углубляет аналитические способности через механизмы рекурсивного обратного резюмирования и абстрагирования, эффективно решая высоко сложные задачи.",
"LongCat-Flash-Thinking.description": "LongCat-Flash-Thinking был официально выпущен и одновременно открыт для использования. Это модель глубоких рассуждений, которая может использоваться для свободных разговоров в LongCat Chat или доступна через API, указав model=LongCat-Flash-Thinking.",
"Meta-Llama-3-3-70B-Instruct.description": "Llama 3.3 70B — это универсальная модель Transformer для задач чата и генерации.",
"Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 — модель, настроенная на выполнение инструкций, оптимизированная для многоязычного чата, демонстрирующая высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
"Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 — модель, настроенная на выполнение инструкций, оптимизированная для многоязычного чата, демонстрирующая высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
"Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 — модель, настроенная на выполнение инструкций, оптимизированная для многоязычного чата, демонстрирующая высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
"Meta-Llama-3.2-1B-Instruct.description": "Передовая компактная языковая модель с высоким уровнем понимания языка, отличной логикой и генерацией текста.",
"Meta-Llama-3.2-3B-Instruct.description": "Передовая компактная языковая модель с высоким уровнем понимания языка, отличной логикой и генерацией текста.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Версия, настроенная на выполнение инструкций, оптимизирована для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых тестах. Дата отсечения знаний: декабрь 2023 года.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick — это крупная модель MoE с эффективной активацией экспертов для высокой производительности в логических задачах.",
"MiniMax-M1.description": "Новая внутренняя модель рассуждений с поддержкой 80K цепочек размышлений и 1M входных токенов, обеспечивающая производительность на уровне ведущих мировых моделей.",
"MiniMax-M2-Stable.description": "Создана для эффективного программирования и работы агентов, с повышенной параллельностью для коммерческого использования.",
"MiniMax-M2.1-Lightning.description": "Мощные многоязычные возможности программирования и всесторонне улучшенный опыт разработки. Быстрее и эффективнее.",
"MiniMax-M2.1.description": "MiniMax-M2.1 — это флагманская модель с открытым исходным кодом от MiniMax, ориентированная на решение сложных задач из реального мира. Её ключевые преимущества — поддержка многозадачного программирования и способность выступать в роли интеллектуального агента.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: та же производительность, быстрее и более гибкий (примерно 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Та же производительность, что и у M2.5, но с ускоренным выводом.",
"MiniMax-M2.5.description": "MiniMax-M2.5 — это флагманская открытая крупная модель от MiniMax, ориентированная на решение сложных реальных задач. Её основные преимущества — многоязычные программные возможности и способность решать сложные задачи в качестве агента.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Та же производительность, что и у M2.7, но с значительно ускоренным выводом.",
"MiniMax-M2.7.description": "MiniMax M2.7: Начало пути к рекурсивному самоулучшению, выдающиеся инженерные возможности в реальных условиях.",
"MiniMax-M2.description": "MiniMax M2: Модель предыдущего поколения.",
"MiniMax-Text-01.description": "MiniMax-01 представляет масштабное линейное внимание, выходящее за рамки классических трансформеров, с 456B параметрами и 45.9B активируемыми за проход. Обеспечивает производительность высшего уровня и поддерживает до 4M токенов контекста (в 32 раза больше GPT-4o, в 20 раз больше Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1: крупномасштабная модель гибридного внимания с открытыми весами, содержащая 456 миллиардов параметров, из которых ~45,9 миллиарда активны на каждый токен. Поддерживает контекст объемом 1 миллион токенов и использует Flash Attention для сокращения FLOPs на 75% при генерации 100 тысяч токенов по сравнению с DeepSeek R1. Благодаря архитектуре MoE, CISPO и обучению с гибридным вниманием RL, достигает передовых результатов в задачах долгосрочного рассуждения и реального программирования.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 переопределяет эффективность агентов. Это компактная, быстрая и экономичная модель MoE с 230 миллиардами общих и 10 миллиардами активных параметров, созданная для задач программирования и агентов высшего уровня, сохраняя при этом сильный общий интеллект. С всего 10 миллиардами активных параметров она соперничает с гораздо более крупными моделями, что делает её идеальной для высокоэффективных приложений.",
"Moonshot-Kimi-K2-Instruct.description": "1T общих параметров и 32B активных. Среди моделей без размышлений — одна из лучших по знаниям, математике и программированию, а также сильнее в общих задачах агентов. Оптимизирована для рабочих нагрузок агентов: может действовать, а не только отвечать. Идеальна для импровизационного общения, общего чата и агентных сценариев как модель рефлекторного уровня без длительного размышления.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — высокоточная модель инструкций для сложных вычислений.",
"OmniConsistency.description": "OmniConsistency повышает согласованность стиля и обобщающую способность в задачах преобразования изображений, внедряя масштабные Diffusion Transformers (DiTs) и парные стилизованные данные, предотвращая деградацию стиля.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 — обновлённая версия серии PaddleOCR-VL, достигшая точности 94,5% на бенчмарке OmniDocBench v1.5 по разбору документов, превзойдя ведущие универсальные и специализированные модели. Впервые реализована поддержка локализации элементов документа с нерегулярными рамками, что позволяет эффективно обрабатывать отсканированные, наклонённые и снятые с экрана изображения.",
"Phi-3-medium-128k-instruct.description": "Та же модель Phi-3-medium с увеличенным окном контекста для RAG или few-shot подсказок.",
"Phi-3-medium-4k-instruct.description": "Модель с 14B параметрами, обеспечивающая более высокое качество, чем Phi-3-mini, с акцентом на данные, требующие глубокого рассуждения.",
"Phi-3-mini-128k-instruct.description": "Та же модель Phi-3-mini с увеличенным окном контекста для RAG или few-shot подсказок.",
"Phi-3-mini-4k-instruct.description": "Наименьшая модель в семействе Phi-3, оптимизированная для качества и низкой задержки.",
"Phi-3-small-128k-instruct.description": "Та же модель Phi-3-small с увеличенным окном контекста для RAG или few-shot подсказок.",
"Phi-3-small-8k-instruct.description": "Модель с 7B параметрами, обеспечивающая более высокое качество, чем Phi-3-mini, с акцентом на данные, требующие глубокого рассуждения.",
"Phi-3.5-mini-instruct.description": "Обновлённая версия модели Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Обновлённая версия модели Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 — это модель большого языка с открытым исходным кодом, оптимизированная для агентных возможностей. Она превосходно справляется с программированием, использованием инструментов, следованием инструкциям и долгосрочным планированием. Модель поддерживает многоязычную разработку программного обеспечения и выполнение сложных многошаговых рабочих процессов, набирая 74.0 балла на SWE-bench Verified и превосходя Claude Sonnet 4.5 в многоязычных сценариях.",
"Pro/MiniMaxAI/MiniMax-M2.5.description": "MiniMax-M2.5: последняя крупная языковая модель, разработанная MiniMax, обученная с использованием масштабного обучения с подкреплением в сотнях тысяч сложных реальных сред. С архитектурой MoE и 229 миллиардами параметров, она достигает передовых результатов в задачах программирования, вызова инструментов агентов, поиска и офисных сценариев.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct — это 7B модель с настройкой на инструкции из серии Qwen2. Использует архитектуру Transformer с SwiGLU, смещением QKV внимания и групповым вниманием по запросу, обрабатывает большие входные данные. Демонстрирует высокие результаты в понимании языка, генерации, многоязычных задачах, программировании, математике и рассуждении, превосходя большинство открытых моделей и конкурируя с закрытыми.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct входит в последнюю серию LLM от Alibaba Cloud. Модель на 7B параметров демонстрирует значительный прогресс в программировании и математике, поддерживает более 29 языков и улучшает следование инструкциям, понимание структурированных данных и структурированный вывод (особенно JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct — последняя модель от Alibaba Cloud, ориентированная на программирование. Построена на базе Qwen2.5 и обучена на 5.5T токенов, значительно улучшает генерацию кода, рассуждение и исправление ошибок, сохраняя при этом сильные стороны в математике и общем интеллекте, обеспечивая надёжную основу для кодирующих агентов.",
"Pro/Qwen/Qwen2.5-VL-7B-Instruct.description": "Qwen2.5-VL — новая модель Qwen для задач зрения и языка с сильным визуальным пониманием. Анализирует текст, графики и макеты на изображениях, понимает длинные видео и события, поддерживает рассуждение и использование инструментов, привязку объектов в разных форматах и структурированный вывод. Улучшает динамическое разрешение и обучение частоте кадров для понимания видео и повышает эффективность визуального энкодера.",
"Pro/THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking — это открытая мультимодальная модель от Zhipu AI и лаборатории KEG Университета Цинхуа, разработанная для сложного мультимодального мышления. Построена на базе GLM-4-9B-0414, добавляет цепочку размышлений и обучение с подкреплением для значительного улучшения межмодального рассуждения и стабильности.",
"Pro/THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat — это открытая модель GLM-4 от Zhipu AI. Обеспечивает высокую производительность в семантике, математике, рассуждении, коде и знаниях. Помимо многотурового чата, поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и рассуждение над длинными текстами. Поддерживает 26 языков (включая китайский, английский, японский, корейский, немецкий). Демонстрирует хорошие результаты на AlignBench-v2, MT-Bench, MMLU и C-Eval, поддерживает до 128K контекста для академического и бизнес-применения.",
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B: дистиллированная версия Qwen2.5-Math-7B, дообученная на 800 тысячах тщательно отобранных выборок DeepSeek-R1. Обеспечивает высокую производительность: 92,8% на MATH-500, 55,5% на AIME 2024 и рейтинг 1189 на CodeForces для модели с 7 миллиардами параметров.",
"Pro/deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 — это модель рассуждений, обученная с использованием обучения с подкреплением, которая снижает повторяемость и повышает читаемость. Использует данные холодного старта до RL для дальнейшего улучшения рассуждений, сопоставима с OpenAI-o1 в задачах математики, программирования и логики, улучшает общие результаты благодаря тщательному обучению.",
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus — обновлённая модель V3.1, позиционируемая как гибридная агентная LLM. Исправляет ошибки, сообщённые пользователями, повышает стабильность, согласованность языка и снижает количество смешанных китайско-английских и аномальных символов. Интегрирует режимы размышления и без размышлений с шаблонами чата для гибкого переключения. Также улучшает производительность агентов кода и поиска для более надёжного использования инструментов и многошаговых задач.",
"Pro/deepseek-ai/DeepSeek-V3.2.description": "DeepSeek-V3.2 — это модель, сочетающая высокую вычислительную эффективность с превосходными возможностями рассуждения и работы в качестве агента. Её подход основан на трёх ключевых технологических прорывах: DeepSeek Sparse Attention (DSA) — эффективный механизм внимания, который значительно снижает вычислительную сложность при сохранении производительности модели и оптимизирован для сценариев с длинным контекстом; масштабируемая структура обучения с подкреплением, благодаря которой производительность модели может соперничать с GPT-5, а её версия с высокой вычислительной мощностью соответствует Gemini-3.0-Pro по возможностям рассуждения; и крупномасштабный конвейер синтеза задач для агентов, направленный на интеграцию возможностей рассуждения в сценарии использования инструментов, что улучшает следование инструкциям и обобщение в сложных интерактивных средах. Модель достигла золотых медалей на Международной математической олимпиаде (IMO) и Международной олимпиаде по информатике (IOI) 2025 года.",
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 — это модель MoE с 671B параметрами, использующая MLA и DeepSeekMoE с балансировкой нагрузки без потерь для эффективного вывода и обучения. Предобучена на 14.8T высококачественных токенов и дополнительно дообучена с использованием SFT и RL, превосходит другие открытые модели и приближается к ведущим закрытым моделям.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 — новейшая и самая мощная версия Kimi K2. Это передовая модель MoE с общим числом параметров 1 трлн и 32 млрд активных. Ключевые особенности включают усиленный агентный интеллект в программировании с заметным улучшением результатов на тестах и в реальных задачах, а также улучшенную эстетику и удобство интерфейсного кода.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo — это ускоренный вариант, оптимизированный для скорости рассуждений и пропускной способности, при сохранении многошагового мышления и использования инструментов K2 Thinking. Это модель MoE с ~1 трлн параметров, нативной поддержкой контекста 256K и стабильным вызовом инструментов в масштабных производственных сценариях с жёсткими требованиями к задержке и параллельности.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 — это нативная мультимодальная агентная модель с открытым исходным кодом, построенная на базе Kimi-K2-Base и обученная на ~1,5 трлн токенов текста и изображений. Модель использует архитектуру MoE с 1 трлн общих параметров и 32 млрд активных, поддерживает контекст до 256K и объединяет визуальное и языковое понимание.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7: новая флагманская модель Zhipu с 355 миллиардами общих и 32 миллиардами активных параметров, полностью обновленная для общего диалога, рассуждений и агентных возможностей. GLM-4.7 улучшает межуровневое мышление и вводит сохраненное мышление и мышление на уровне хода.",
"Pro/zai-org/glm-5.description": "GLM-5 — это модель следующего поколения от Zhipu, ориентированная на сложную системную инженерию и длительные задачи агентов. Параметры модели расширены до 744 миллиардов (40 миллиардов активных) и интегрируют DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ — это экспериментальная исследовательская модель, направленная на улучшение логического мышления.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview: исследовательская модель от Qwen, ориентированная на визуальное рассуждение, с сильными сторонами в понимании сложных сцен и решении визуальных математических задач.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ — экспериментальная исследовательская модель, сосредоточенная на улучшении логического мышления ИИ.",
"Qwen/QwQ-32B.description": "QwQ — модель логического мышления из семейства Qwen. В отличие от стандартных моделей, обученных на инструкциях, она добавляет элементы размышления и логики, что значительно повышает эффективность в сложных задачах. QwQ-32B — модель среднего размера, сопоставимая с лучшими моделями логического мышления, такими как DeepSeek-R1 и o1-mini. Использует RoPE, SwiGLU, RMSNorm и смещение QKV в механизме внимания, имеет 64 слоя и 40 голов внимания (8 KV в GQA).",
"Qwen/Qwen-Image-Edit-2509.description": "Qwen-Image-Edit-2509 — последняя версия редактора изображений от команды Qwen. Основана на модели Qwen-Image с 20 млрд параметров и расширяет возможности точного редактирования текста в изображениях. Использует архитектуру двойного управления: Qwen2.5-VL для семантического контроля и VAE-энкодер для управления внешним видом, что позволяет редактировать как на уровне смысла, так и визуального оформления. Поддерживает локальные изменения (добавление/удаление/модификация) и высокоуровневые семантические правки, такие как создание IP и перенос стиля, сохраняя при этом смысл. Достигает SOTA-результатов на множестве тестов.",
"Qwen/Qwen-Image.description": "Qwen-Image — базовая модель генерации изображений с 20 млрд параметров от команды Qwen. Обеспечивает значительный прогресс в сложной визуализации текста и точном редактировании изображений, особенно для китайского и английского языков. Поддерживает многострочные и абзацные макеты с сохранением типографики. Помимо визуализации текста, поддерживает широкий спектр стилей — от фотореализма до аниме, а также продвинутые функции редактирования: перенос стиля, добавление/удаление объектов, улучшение деталей, редактирование текста и управление позой. Стремится стать универсальной основой для визуального творчества.",
"Qwen/Qwen2-72B-Instruct.description": "Qwen 2 Instruct (72B) обеспечивает точное выполнение инструкций для корпоративных задач.",
"Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct — модель с 7 млрд параметров из серии Qwen2, использующая Transformer, SwiGLU, смещение QKV и групповое внимание. Обрабатывает большие входные данные и демонстрирует высокие результаты в понимании, генерации, многоязычии, программировании, математике и логике, превосходя большинство открытых моделей и Qwen1.5-7B-Chat в ряде тестов.",
"Qwen/Qwen2-VL-72B-Instruct.description": "Qwen2-VL — последняя модель Qwen-VL, достигшая SOTA на визуальных тестах, таких как MathVista, DocVQA, RealWorldQA и MTVQA. Понимает видео длительностью более 20 минут для задач видео-QA, диалогов и создания контента. Поддерживает сложное логическое мышление и принятие решений, интегрируется с устройствами/роботами для действий, основанных на визуальном восприятии. Помимо английского и китайского, распознаёт текст на большинстве европейских языков, японском, корейском, арабском и вьетнамском.",
"Qwen/Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct — часть последней серии LLM от Alibaba Cloud. Модель с 14 млрд параметров демонстрирует значительный прогресс в программировании и математике, поддерживает более 29 языков и улучшает выполнение инструкций, понимание структурированных данных и генерацию структурированного вывода (особенно JSON).",
"Qwen/Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct — часть последней серии LLM от Alibaba Cloud. Модель с 32 млрд параметров демонстрирует значительный прогресс в программировании и математике, поддерживает более 29 языков и улучшает выполнение инструкций, понимание структурированных данных и генерацию структурированного вывода (особенно JSON).",
"Qwen/Qwen2.5-72B-Instruct-128K.description": "Qwen2.5-72B-Instruct — часть последней серии LLM от Alibaba Cloud. Модель с 72 млрд параметров улучшает программирование и математику, поддерживает до 128K входных и более 8K выходных токенов, предлагает поддержку 29+ языков и улучшает выполнение инструкций и структурированный вывод (особенно JSON).",
"Qwen/Qwen2.5-72B-Instruct-Turbo.description": "Qwen2.5 — новое семейство LLM, оптимизированное для задач в стиле инструкций.",
"Qwen/Qwen2.5-72B-Instruct.description": "Qwen2.5-72B-Instruct — часть последней серии LLM от Alibaba Cloud. Модель с 72 млрд параметров демонстрирует значительный прогресс в программировании и математике, поддерживает более 29 языков и улучшает выполнение инструкций, понимание структурированных данных и генерацию структурированного вывода (особенно JSON).",
"Qwen/Qwen2.5-7B-Instruct-Turbo.description": "Qwen2.5 — новое семейство LLM, оптимизированное для задач в стиле инструкций.",
"Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct — часть последней серии LLM от Alibaba Cloud. Модель с 7 млрд параметров демонстрирует значительный прогресс в программировании и математике, поддерживает более 29 языков и улучшает выполнение инструкций, понимание структурированных данных и генерацию структурированного вывода (особенно JSON).",
"Qwen/Qwen2.5-Coder-32B-Instruct.description": "Qwen2.5 Coder 32B Instruct — последняя модель от Alibaba Cloud, ориентированная на программирование. Построена на базе Qwen2.5 и обучена на 5.5 трлн токенов, значительно улучшает генерацию кода, логическое мышление и исправление ошибок, сохраняя при этом сильные стороны в математике и общем понимании, обеспечивая надёжную основу для кодирующих агентов.",
"Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct — последняя модель от Alibaba Cloud, ориентированная на программирование. Построена на базе Qwen2.5 и обучена на 5.5 трлн токенов, значительно улучшает генерацию кода, логическое мышление и исправление ошибок, сохраняя при этом сильные стороны в математике и общем понимании, обеспечивая надёжную основу для кодирующих агентов.",
"Qwen/Qwen2.5-VL-32B-Instruct.description": "Qwen2.5-VL-32B-Instruct — мультимодальная модель от команды Qwen. Распознаёт распространённые объекты и анализирует текст, графики, иконки, изображения и макеты. Как визуальный агент, может рассуждать и динамически управлять инструментами, включая использование компьютеров и телефонов. Точно локализует объекты и генерирует структурированный вывод для счетов и таблиц. По сравнению с Qwen2-VL, RL дополнительно улучшает математику и решение задач, предлагая более предпочтительные ответы.",
"Qwen/Qwen2.5-VL-72B-Instruct.description": "Qwen2.5-VL — модель визуально-языкового типа из серии Qwen2.5 с крупными улучшениями: более сильное визуальное понимание объектов, текста, графиков и макетов; логическое мышление как визуальный агент с динамическим использованием инструментов; понимание видео длительностью более 1 часа и захват ключевых событий; точная привязка объектов через рамки или точки; и структурированный вывод для отсканированных данных, таких как счета и таблицы.",
"Qwen/Qwen3-14B.description": "Qwen3 — это модель нового поколения Tongyi Qwen с существенными улучшениями в области рассуждений, общей способности, агентных возможностей и многоязычной производительности. Поддерживает переключение режимов мышления.",
"Qwen/Qwen3-235B-A22B-Instruct-2507.description": "Qwen3-235B-A22B-Instruct-2507 — флагманская модель Qwen3 MoE с общим числом параметров 235B и 22B активных. Это обновлённая версия без режима мышления, ориентированная на улучшение следования инструкциям, логических рассуждений, понимания текста, математики, науки, программирования и использования инструментов. Также расширяет знания на длинном хвосте в многоязычной среде и лучше соответствует пользовательским предпочтениям в субъективных и открытых задачах.",
"Qwen/Qwen3-235B-A22B-Thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 — модель Qwen3, ориентированная на сложные логические рассуждения. Использует архитектуру MoE с общим числом параметров 235B и ~22B активных на токен, что повышает эффективность. Как специализированная модель для мышления, она демонстрирует значительные улучшения в логике, математике, науке, программировании и академических тестах, достигая уровня лучших открытых моделей мышления. Также улучшает следование инструкциям, использование инструментов и генерацию текста, нативно поддерживает контекст до 256K для глубоких рассуждений и работы с длинными документами.",
"Qwen/Qwen3-235B-A22B.description": "Qwen3 235B A22B — это ультрамасштабная модель Qwen3, обеспечивающая первоклассные возможности ИИ.",
"Qwen/Qwen3-30B-A3B-Instruct-2507.description": "Qwen3-30B-A3B-Instruct-2507 — обновлённая версия модели Qwen3-30B-A3B без режима мышления. Это модель MoE с общим числом параметров 30.5B и 3.3B активных. Существенно улучшает следование инструкциям, логические рассуждения, понимание текста, математику, науку, программирование и использование инструментов, расширяет знания на длинном хвосте в многоязычной среде и лучше соответствует пользовательским предпочтениям в субъективных открытых задачах. Поддерживает контекст до 256K. Эта модель работает только в режиме без мышления и не будет выводить теги `<think></think>`.",
"Qwen/Qwen3-30B-A3B-Thinking-2507.description": "Qwen3-30B-A3B-Thinking-2507 — новейшая модель мышления в серии Qwen3. Это модель MoE с общим числом параметров 30.5B и 3.3B активных, ориентированная на сложные задачи. Демонстрирует значительные улучшения в логике, математике, науке, программировании и академических тестах, а также улучшает следование инструкциям, использование инструментов, генерацию текста и соответствие предпочтениям. Нативно поддерживает контекст до 256K и может быть расширена до 1M токенов. Эта версия предназначена для режима мышления с пошаговыми рассуждениями и развитыми агентными возможностями.",
"Qwen/Qwen3-32B.description": "Qwen3 — это модель нового поколения Tongyi Qwen с существенными улучшениями в области рассуждений, общей способности, агентных возможностей и многоязычной производительности. Поддерживает переключение режимов мышления.",
"Qwen/Qwen3-8B.description": "Qwen3 — это модель нового поколения Tongyi Qwen с существенными улучшениями в области рассуждений, общей способности, агентных возможностей и многоязычной производительности. Поддерживает переключение режимов мышления.",
"Qwen/Qwen3-Coder-30B-A3B-Instruct.description": "Qwen3-Coder-30B-A3B-Instruct — это модель программирования серии Qwen3 от команды Qwen. Оптимизирована для высокой производительности и эффективности при работе с кодом. Демонстрирует сильные стороны в агентном программировании, автоматизации браузера и использовании инструментов среди открытых моделей. Нативно поддерживает контекст до 256K и может быть расширена до 1M токенов для понимания на уровне кодовой базы. Обеспечивает агентное программирование на платформах, таких как Qwen Code и CLINE, с использованием специального формата вызова функций.",
"Qwen/Qwen3-Coder-480B-A35B-Instruct.description": "Qwen3-Coder-480B-A35B-Instruct — самая агентная модель программирования от Alibaba на сегодняшний день. Это модель MoE с общим числом параметров 480B и 35B активных, обеспечивающая баланс между эффективностью и производительностью. Нативно поддерживает контекст до 256K и может быть расширена до 1M токенов с помощью YaRN, что позволяет обрабатывать большие кодовые базы. Разработана для агентных рабочих процессов программирования, может взаимодействовать с инструментами и средами для решения сложных задач. Достигает лучших результатов среди открытых моделей в тестах на программирование и агентность, сопоставима с ведущими моделями, такими как Claude Sonnet 4.",
"Qwen/Qwen3-Next-80B-A3B-Instruct.description": "Qwen3-Next-80B-A3B-Instruct — это базовая модель нового поколения, использующая архитектуру Qwen3-Next для экстремальной эффективности обучения и вывода. Объединяет гибридное внимание (Gated DeltaNet + Gated Attention), высокоразреженную MoE и оптимизации стабильности обучения. Имеет 80B общих параметров, но только ~3B активных при выводе, что снижает вычислительные затраты и обеспечивает более чем 10-кратную пропускную способность по сравнению с Qwen3-32B при контексте >32K. Эта версия, настроенная на выполнение инструкций, ориентирована на общие задачи (без режима мышления). По некоторым тестам сопоставима с Qwen3-235B и демонстрирует сильные стороны в задачах с ультрадлинным контекстом.",
"Qwen/Qwen3-Next-80B-A3B-Thinking.description": "Qwen3-Next-80B-A3B-Thinking — это базовая модель нового поколения для сложных рассуждений. Использует архитектуру Qwen3-Next с гибридным вниманием (Gated DeltaNet + Gated Attention) и высокоразреженной MoE для экстремальной эффективности обучения и вывода. Имеет 80B общих параметров, но только ~3B активных при выводе, что снижает вычислительные затраты и обеспечивает более чем 10-кратную пропускную способность по сравнению с Qwen3-32B при контексте >32K. Эта версия мышления ориентирована на многошаговые задачи, такие как доказательства, синтез кода, логический анализ и планирование, выводя структурированную цепочку рассуждений. Превосходит Qwen3-32B-Thinking и обходит Gemini-2.5-Flash-Thinking по нескольким тестам.",
"Qwen/Qwen3-Omni-30B-A3B-Captioner.description": "Qwen3-Omni-30B-A3B-Captioner — это модель VLM из серии Qwen3, созданная для высококачественных, детализированных и точных описаний изображений. Использует архитектуру MoE с 30B параметров для глубокого понимания изображений и генерации беглых описаний, превосходя в захвате деталей, понимании сцен, распознавании объектов и логических связях.",
"Qwen/Qwen3-Omni-30B-A3B-Instruct.description": "Qwen3-Omni-30B-A3B-Instruct — это модель MoE из серии Qwen3 с 30B общих и 3B активных параметров, обеспечивающая высокую производительность при низкой стоимости вывода. Обучена на высококачественных многоязычных данных из различных источников, поддерживает полные мультимодальные входы (текст, изображения, аудио, видео) и кросс-модальное понимание и генерацию.",
"Qwen/Qwen3-Omni-30B-A3B-Thinking.description": "Qwen3-Omni-30B-A3B-Thinking — это основной компонент \"Thinker\" в Qwen3-Omni. Обрабатывает мультимодальные входы (текст, аудио, изображения, видео) и выполняет сложные цепочки рассуждений, объединяя входные данные в общее представление для глубокого кросс-модального понимания. Это модель MoE с 30B общих и 3B активных параметров, обеспечивающая баланс между мощными рассуждениями и вычислительной эффективностью.",
"Qwen/Qwen3-VL-235B-A22B-Instruct.description": "Qwen3-VL-235B-A22B-Instruct — это крупная модель Qwen3-VL, настроенная на выполнение инструкций и построенная на архитектуре MoE, обеспечивающая отличное мультимодальное понимание и генерацию. Нативно поддерживает контекст до 256K и подходит для высоконагруженных производственных мультимодальных сервисов.",
"Qwen/Qwen3-VL-235B-A22B-Thinking.description": "Qwen3-VL-235B-A22B-Thinking — флагманская версия мышления в серии Qwen3-VL, оптимизированная для сложных мультимодальных рассуждений, работы с длинным контекстом и взаимодействия с агентами в корпоративных сценариях.",
"Qwen/Qwen3-VL-30B-A3B-Instruct.description": "Qwen3-VL-30B-A3B-Instruct — это модель Qwen3-VL, настроенная на выполнение инструкций, с сильным пониманием и генерацией в связке зрение-язык. Нативно поддерживает контекст до 256K для мультимодального чата и генерации, основанной на изображениях.",
"Qwen/Qwen3-VL-30B-A3B-Thinking.description": "Qwen3-VL-30B-A3B-Thinking — версия Qwen3-VL с усиленными возможностями рассуждения, оптимизированная для мультимодальных рассуждений, преобразования изображений в код и сложного визуального понимания. Поддерживает контекст до 256K с улучшенной способностью к цепочкам рассуждений.",
"Qwen/Qwen3-VL-32B-Instruct.description": "Qwen3-VL-32B-Instruct — это модель зрение-язык от команды Qwen с передовыми результатами на нескольких VL-бенчмарках. Поддерживает изображения с мегапиксельным разрешением и обеспечивает сильное визуальное понимание, многоязычное OCR, точную визуальную привязку и визуальный диалог. Обрабатывает сложные мультимодальные задачи и поддерживает вызов инструментов и автозавершение по префиксу.",
"Qwen/Qwen3-VL-32B-Thinking.description": "Qwen3-VL-32B-Thinking оптимизирована для сложных визуальных рассуждений. Включает встроенный режим мышления, который генерирует промежуточные шаги рассуждений перед ответами, улучшая многошаговую логику, планирование и сложные рассуждения. Поддерживает изображения с мегапиксельным разрешением, сильное визуальное понимание, многоязычное OCR, точную привязку, визуальный диалог, вызов инструментов и автозавершение по префиксу.",
"Qwen/Qwen3-VL-8B-Instruct.description": "Qwen3-VL-8B-Instruct — это модель зрение-язык из серии Qwen3, построенная на базе Qwen3-8B-Instruct и обученная на больших объемах данных изображение-текст. Отличается общим визуальным пониманием, диалогом с упором на визуальные элементы и многоязычным распознаванием текста на изображениях. Подходит для визуального QA, создания подписей, мультимодального следования инструкциям и использования инструментов.",
"Qwen/Qwen3-VL-8B-Thinking.description": "Qwen3-VL-8B-Thinking — визуальная версия мышления в серии Qwen3, оптимизированная для сложных многошаговых рассуждений. Генерирует цепочку мышления перед ответами для повышения точности, идеально подходит для глубокого визуального QA и детального анализа изображений.",
"Qwen/Qwen3.5-122B-A10B.description": "Qwen3.5-122B-A10B — это нативная мультимодальная крупная языковая модель от команды Qwen с общим количеством параметров 122 миллиарда и только 10 миллиардами активных параметров. Она использует эффективную гибридную архитектуру, объединяющую Gated Delta Networks и Sparse Mixture-of-Experts (MoE), нативно поддерживает длину контекста 256K с возможностью расширения до примерно 1 миллиона токенов.",
"Qwen/Qwen3.5-27B.description": "Qwen3.5-27B — это нативная мультимодальная крупная языковая модель от команды Qwen с 27 миллиардами параметров. Она использует эффективную гибридную архитектуру, объединяющую Gated Delta Networks и Gated Attention, нативно поддерживает длину контекста 256K с возможностью расширения до примерно 1 миллиона токенов.",
"Qwen/Qwen3.5-35B-A3B.description": "Qwen3.5-35B-A3B — это нативная мультимодальная крупная языковая модель от команды Qwen с общим количеством параметров 35 миллиардов и только 3 миллиардами активных параметров. Она использует эффективную гибридную архитектуру, объединяющую Gated Delta Networks и Sparse Mixture-of-Experts (MoE), нативно поддерживает длину контекста 256K с возможностью расширения до примерно 1 миллиона токенов.",
"Qwen/Qwen3.5-397B-A17B.description": "Qwen3.5-397B-A17B — это последняя модель в серии Qwen3.5 для понимания языка и изображений, использующая архитектуру Mixture-of-Experts (MoE) с общим количеством параметров 397 миллиардов и 17 миллиардами активных параметров. Она нативно поддерживает длину контекста 256K с возможностью расширения до примерно 1 миллиона токенов, поддерживает 201 язык и предоставляет унифицированные возможности понимания языка и изображений, вызова инструментов и рассуждений.",
"Qwen/Qwen3.5-4B.description": "Qwen3.5-4B — это нативная мультимодальная крупная языковая модель от команды Qwen с 4 миллиардами параметров, являющаяся самой легкой плотной моделью в серии Qwen3.5. Она использует эффективную гибридную архитектуру, объединяющую Gated Delta Networks и Gated Attention, нативно поддерживает длину контекста 256K с возможностью расширения до примерно 1 миллиона токенов.",
"Qwen/Qwen3.5-9B.description": "Qwen3.5-9B — это нативная мультимодальная крупная языковая модель от команды Qwen с 9 миллиардами параметров. Как легкая плотная модель в серии Qwen3.5, она использует эффективную гибридную архитектуру, объединяющую Gated Delta Networks и Gated Attention, нативно поддерживает длину контекста 256K с возможностью расширения до примерно 1 миллиона токенов.",
"Qwen2-72B-Instruct.description": "Qwen2 — это новейшая модель серии Qwen с поддержкой контекстного окна на 128 тысяч токенов. По сравнению с лучшими открытыми моделями на сегодняшний день, Qwen2-72B значительно превосходит их в понимании естественного языка, знаниях, программировании, математике и многоязычных возможностях.",
"Qwen2-7B-Instruct.description": "Qwen2 — это новейшая модель серии Qwen, превосходящая лучшие открытые модели аналогичного и даже большего размера. Qwen2 7B демонстрирует значительные преимущества в различных тестах, особенно в программировании и понимании китайского языка.",
"Qwen2-VL-72B.description": "Qwen2-VL-72B — это мощная мультимодальная модель, объединяющая зрение и язык, поддерживающая обработку изображений и текста. Она точно распознаёт содержимое изображений и генерирует соответствующие описания или ответы.",
"Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct — это языковая модель с 14 миллиардами параметров, обладающая высокой производительностью. Она оптимизирована для китайского языка и многоязычных сценариев, поддерживает интеллектуальные вопросы и ответы, а также генерацию контента.",
"Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct — это языковая модель с 32 миллиардами параметров, обеспечивающая сбалансированную производительность. Она оптимизирована для китайского языка и многоязычных задач, поддерживает интеллектуальные вопросы и ответы, а также генерацию контента.",
"Qwen2.5-72B-Instruct.description": "Языковая модель для китайского и английского языков, настроенная для задач языка, программирования, математики и логического рассуждения.",
"Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct — это языковая модель с 7 миллиардами параметров, поддерживающая вызов функций и интеграцию с внешними системами, что значительно повышает гибкость и расширяемость. Она оптимизирована для китайского языка и многоязычных сценариев, поддерживает интеллектуальные вопросы и ответы, а также генерацию контента.",
"Qwen2.5-Coder-14B-Instruct.description": "Qwen2.5-Coder-14B-Instruct — это крупномасштабная предварительно обученная модель для программирования, обладающая высокой способностью к пониманию и генерации кода. Она эффективно справляется с широким спектром задач программирования, идеально подходит для интеллектуального кодирования, автоматической генерации скриптов и вопросов по программированию.",
"Qwen2.5-Coder-32B-Instruct.description": "Продвинутая языковая модель для генерации кода, логического рассуждения и исправления ошибок на основных языках программирования.",
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 оптимизирована для продвинутого логического рассуждения и следования инструкциям, использует архитектуру MoE для эффективного масштабирования рассуждений.",
"Qwen3-235B.description": "Qwen3-235B-A22B — это модель MoE с гибридным режимом рассуждения, позволяющим пользователям переключаться между режимами мышления и немышления. Она поддерживает понимание и рассуждение на 119 языках и диалектах, обладает мощными возможностями вызова инструментов и конкурирует с ведущими моделями, такими как DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro, по общим способностям, программированию, математике, многоязычности и логическому мышлению.",
"Qwen3-32B.description": "Qwen3-32B — это плотная модель с гибридным режимом рассуждения, позволяющая пользователям переключаться между режимами мышления и немышления. Благодаря улучшениям в архитектуре, большему объёму данных и более качественному обучению, она демонстрирует производительность, сопоставимую с Qwen2.5-72B.",
"SenseChat-128K.description": "Базовая модель V4 с контекстом 128K, сильна в понимании и генерации длинных текстов.",
"SenseChat-32K.description": "Базовая модель V4 с контекстом 32K, гибкая для различных сценариев.",
"SenseChat-5-1202.description": "Последняя версия на основе V5.5 с существенными улучшениями в базовых знаниях китайского и английского языков, чатах, знаниях в области STEM и гуманитарных наук, письме, математике/логике и управлении длиной текста.",
"SenseChat-5-Cantonese.description": "Разработана с учётом диалоговых привычек Гонконга, сленга и местных знаний; превосходит GPT-4 в понимании кантонского языка и сопоставима с GPT-4 Turbo по знаниям, логике, математике и программированию.",
"SenseChat-5-beta.description": "Некоторые характеристики превосходят SenseChat-5-1202.",
"SenseChat-5.description": "Последняя версия V5.5 с контекстом 128K; значительные улучшения в математическом рассуждении, английском чате, следовании инструкциям и понимании длинных текстов, сопоставима с GPT-4o.",
"SenseChat-Character-Pro.description": "Продвинутая модель для общения с персонажами с контекстом 32K, улучшенными возможностями и поддержкой китайского и английского языков.",
"SenseChat-Character.description": "Стандартная модель для общения с персонажами с контекстом 8K и высокой скоростью отклика.",
"SenseChat-Turbo-1202.description": "Последняя облегчённая модель, достигающая более 90% возможностей полной модели при значительно меньших затратах на вывод.",
"SenseChat-Turbo.description": "Подходит для быстрого ответа на вопросы и сценариев дообучения модели.",
"SenseChat-Vision.description": "Последняя версия V5.5 с поддержкой нескольких изображений и широкими улучшениями в распознавании атрибутов, пространственных отношений, действий/событий, понимании сцен, распознавании эмоций, логическом мышлении и понимании/генерации текста.",
"SenseChat.description": "Базовая модель V4 с контекстом 4K и высокой общей производительностью.",
"SenseNova-V6-5-Pro.description": "Благодаря комплексным обновлениям мультимодальных, языковых и логических данных, а также оптимизации стратегии обучения, новая модель значительно улучшает мультимодальное рассуждение и универсальное следование инструкциям, поддерживает контекст до 128K и превосходно справляется с задачами OCR и распознаванием IP в сфере культуры и туризма.",
"SenseNova-V6-5-Turbo.description": "Благодаря комплексным обновлениям мультимодальных, языковых и логических данных, а также оптимизации стратегии обучения, новая модель значительно улучшает мультимодальное рассуждение и универсальное следование инструкциям, поддерживает контекст до 128K и превосходно справляется с задачами OCR и распознаванием IP в сфере культуры и туризма.",
"SenseNova-V6-Pro.description": "Нативно объединяет изображение, текст и видео, преодолевая традиционные ограничения мультимодальности; занимает лидирующие позиции в OpenCompass и SuperCLUE.",
"SenseNova-V6-Reasoner.description": "Объединяет глубокое логическое мышление в области зрения и языка, поддерживает медленное мышление и полную цепочку рассуждений.",
"SenseNova-V6-Turbo.description": "Нативно объединяет изображение, текст и видео, преодолевая традиционные ограничения мультимодальности. Лидирует по основным мультимодальным и языковым возможностям и занимает топовые позиции в различных оценках.",
"Skylark2-lite-8k.description": "Модель второго поколения Skylark. Skylark2-lite обеспечивает быстрые ответы в реальном времени для задач с ограниченным бюджетом и невысокими требованиями к точности, с контекстом 8K.",
"Skylark2-pro-32k.description": "Модель второго поколения Skylark. Skylark2-pro обеспечивает высокую точность для сложной генерации текста, такой как профессиональный копирайтинг, написание романов и высококачественный перевод, с контекстом 32K.",
"Skylark2-pro-4k.description": "Модель второго поколения Skylark. Skylark2-pro обеспечивает высокую точность для сложной генерации текста, такой как профессиональный копирайтинг, написание романов и высококачественный перевод, с контекстом 4K.",
"Skylark2-pro-character-4k.description": "Модель второго поколения Skylark. Skylark2-pro-character отлично справляется с ролевыми играми и чатами, точно подбирая стиль персонажа и обеспечивая естественный диалог для чат-ботов, виртуальных помощников и служб поддержки, с высокой скоростью отклика.",
"Skylark2-pro-turbo-8k.description": "Модель второго поколения Skylark. Skylark2-pro-turbo-8k обеспечивает более быструю генерацию при меньших затратах с контекстом 8K.",
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414 — это модель нового поколения с открытым исходным кодом на базе GLM с 32 миллиардами параметров, сопоставимая по производительности с OpenAI GPT и сериями DeepSeek V3/R1.",
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414 — это модель GLM с 9 миллиардами параметров, унаследовавшая технологии GLM-4-32B и обеспечивающая более лёгкое развертывание. Отлично справляется с генерацией кода, веб-дизайном, созданием SVG и написанием текстов на основе поиска.",
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking: открытая VLM от Zhipu AI и Tsinghua KEG Lab, разработанная для сложного мультимодального восприятия. Основана на GLM-4-9B-0414, добавляет рассуждения цепочки мыслей и RL для значительного улучшения межмодального рассуждения и стабильности.",
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414 — это модель глубинного мышления, созданная на основе GLM-4-32B-0414 с использованием данных холодного старта и расширенного RL. Дополнительно обучена на математике, коде и логике, значительно улучшая способности к решению сложных задач по сравнению с базовой моделью.",
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414 — компактная модель GLM с 9 миллиардами параметров, сочетающая открытость и высокую производительность. Демонстрирует отличные результаты в математических рассуждениях и решении общих задач, лидируя среди моделей своего класса.",
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat — это открытая модель GLM-4 от Zhipu AI. Обеспечивает высокую производительность в области семантики, математики, логики, программирования и знаний. Помимо многотурового чата, поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и работу с длинными текстами. Поддерживает 26 языков (включая китайский, английский, японский, корейский и немецкий). Демонстрирует отличные результаты на AlignBench-v2, MT-Bench, MMLU и C-Eval, а также поддерживает контекст до 128K токенов для академического и бизнес-применения.",
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B: первая модель долгосрочного контекстного рассуждения (LRM), обученная с использованием RL, оптимизированная для рассуждений с длинным текстом. Её прогрессивное расширение контекста RL обеспечивает стабильный переход от короткого к длинному контексту. Превосходит OpenAI-o3-mini и Qwen3-235B-A22B на семи тестах QA для документов с длинным контекстом, соперничая с Claude-3.7-Sonnet-Thinking. Особенно сильна в математике, логике и многошаговых рассуждениях.",
"Yi-34B-Chat.description": "Yi-1.5-34B сохраняет сильные языковые способности серии, а также использует инкрементальное обучение на 500 миллиардах высококачественных токенов для значительного улучшения логики, математики и программирования.",
"abab5.5-chat.description": "Создана для продуктивных сценариев с обработкой сложных задач и эффективной генерацией текста для профессионального использования.",
"abab5.5s-chat.description": "Разработана для чатов с китайской персонализацией, обеспечивая высококачественный диалог на китайском языке для различных приложений.",
"abab6.5g-chat.description": "Предназначена для многозначных чатов с персонализацией, поддерживает генерацию диалогов высокого качества на английском и других языках.",
"abab6.5s-chat.description": "Подходит для широкого спектра задач обработки естественного языка, включая генерацию текста и диалоговые системы.",
"abab6.5t-chat.description": "Оптимизирована для китайских чатов с персонализацией, обеспечивая плавный диалог, соответствующий привычкам китайского языка.",
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1 — это передовая языковая модель, оптимизированная с помощью обучения с подкреплением и данных холодного старта, обеспечивающая отличные результаты в логике, математике и программировании.",
"accounts/fireworks/models/deepseek-v3.description": "Мощная языковая модель с архитектурой Mixture-of-Experts (MoE) от DeepSeek с общим числом параметров 671B и 37B активных параметров на токен.",
"accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta разработала и выпустила серию LLM Meta Llama 3, включающую предварительно обученные и дообученные на инструкциях модели генерации текста с объемом 8B и 70B параметров. Модели Llama 3, дообученные на инструкциях, оптимизированы для ведения диалогов и превосходят многие существующие открытые чат-модели по общепринятым отраслевым метрикам.",
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "Модели Meta Llama 3, дообученные на инструкциях, оптимизированы для ведения диалогов и превосходят многие существующие открытые чат-модели по общепринятым отраслевым метрикам. Llama 3 8B Instruct (версия HF) — это оригинальная версия Llama 3 8B Instruct с точностью FP16, результаты которой соответствуют официальной реализации Hugging Face.",
"accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta разработала и выпустила серию LLM Meta Llama 3 — набор предварительно обученных и дообученных на инструкциях моделей генерации текста с объемом 8B и 70B параметров. Модели Llama 3, дообученные на инструкциях, оптимизированы для ведения диалогов и превосходят многие существующие открытые чат-модели по общепринятым отраслевым метрикам.",
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 — это многоязычное семейство LLM, включающее предварительно обученные и дообученные на инструкциях модели генерации текста с объемом 8B, 70B и 405B параметров. Модели, дообученные на инструкциях, оптимизированы для многоязычного диалога и превосходят многие существующие открытые и закрытые чат-модели по общепринятым отраслевым метрикам. Модель 405B — самая мощная в семействе Llama 3.1, использует вывод FP8, максимально приближенный к эталонной реализации.",
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 — это многоязычное семейство LLM, включающее предварительно обученные и дообученные на инструкциях модели генерации текста с объемом 8B, 70B и 405B параметров. Модели, дообученные на инструкциях, оптимизированы для многоязычного диалога и превосходят многие существующие открытые и закрытые чат-модели по общепринятым отраслевым метрикам.",
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 — это многоязычное семейство LLM, включающее предварительно обученные и дообученные на инструкциях модели генерации текста с объемом 8B, 70B и 405B параметров. Модели, дообученные на инструкциях, оптимизированы для многоязычного диалога и превосходят многие существующие открытые и закрытые чат-модели по общепринятым отраслевым метрикам.",
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Дообученная на инструкциях модель визуального рассуждения от Meta с 11 миллиардами параметров, оптимизированная для распознавания изображений, логического анализа, генерации описаний и ответов на вопросы, связанные с изображениями. Понимает визуальные данные, такие как диаграммы и графики, и объединяет зрение и язык, создавая текстовые описания деталей изображений.",
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct — это легковесная многоязычная модель от Meta, разработанная для эффективной работы с низкой задержкой и сниженной стоимостью по сравнению с более крупными моделями. Типичные сценарии использования включают переформулировку запросов и помощь в написании текстов.",
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Дообученная на инструкциях модель визуального рассуждения от Meta с 90 миллиардами параметров, оптимизированная для распознавания изображений, логического анализа, генерации описаний и ответов на вопросы, связанные с изображениями. Понимает визуальные данные, такие как диаграммы и графики, и объединяет зрение и язык, создавая текстовые описания деталей изображений. Примечание: эта модель предоставляется в экспериментальном режиме как серверлесс-решение. Для использования в продакшене учтите, что Fireworks может прекратить развертывание без предварительного уведомления.",
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct — обновление декабря для модели Llama 3.1 70B. Улучшает использование инструментов, поддержку многоязычного текста, математику и программирование по сравнению с выпуском июля 2024 года. Обеспечивает лидирующую в отрасли производительность в рассуждении, математике и следовании инструкциям, предлагая сопоставимую с 3.1 405B производительность при значительном выигрыше в скорости и стоимости.",
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "Модель с 24 миллиардами параметров, обладающая передовыми возможностями, сопоставимыми с более крупными моделями.",
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 — это дообученная на инструкциях версия модели Mixtral MoE 8x22B v0.1 с включенной поддержкой API завершения чата.",
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct — это дообученная на инструкциях версия модели Mixtral MoE 8x7B с включенной поддержкой API завершения чата.",
"accounts/fireworks/models/mythomax-l2-13b.description": "Улучшенный вариант MythoMix, возможно, его более изысканная форма, объединяющая MythoLogic-L2 и Huginn с использованием экспериментальной техники слияния тензорных типов. Благодаря своей уникальности отлично подходит для повествования и ролевых игр.",
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct — это легковесная, передовая открытая мультимодальная модель, построенная на синтетических данных и отобранных общедоступных веб-источниках, с акцентом на качественные данные, требующие рассуждений, в области текста и визуальной информации. Принадлежит к семейству Phi-3 и поддерживает мультимодальность с контекстом до 128K токенов. Модель проходит тщательную донастройку, включая обучение с учителем и оптимизацию предпочтений, чтобы обеспечить точное следование инструкциям и высокий уровень безопасности.",
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "Модель Qwen QwQ направлена на развитие возможностей ИИ в области рассуждений, демонстрируя, что открытые модели могут конкурировать с закрытыми передовыми решениями. QwQ-32B-Preview — это экспериментальный выпуск, сопоставимый с o1 и превосходящий GPT-4o и Claude 3.5 Sonnet по рассуждению и анализу на метриках GPQA, AIME, MATH-500 и LiveCodeBench. Примечание: модель предоставляется в экспериментальном режиме как серверлесс-решение. Для использования в продакшене учтите, что Fireworks может прекратить развертывание без предварительного уведомления.",
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "Модель Qwen-VL с 72 миллиардами параметров — последняя разработка Alibaba, отражающая почти год инноваций.",
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 — это серия LLM только с декодером, разработанная командой Qwen и Alibaba Cloud, доступная в вариантах 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, как в базовой, так и в дообученной на инструкциях версиях.",
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder — последняя модель LLM из серии Qwen, предназначенная для программирования (ранее CodeQwen). Примечание: модель предоставляется в экспериментальном режиме как серверлесс-решение. Для использования в продакшене учтите, что Fireworks может прекратить развертывание без предварительного уведомления.",
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large — это высококлассная LLM, занимающая позицию сразу за GPT-4, Gemini 1.5 Pro и Claude 3 Opus в рейтинге LMSYS. Отличается выдающимися многоязычными возможностями, особенно в испанском, китайском, японском, немецком и французском языках. Yi-Large также удобна для разработчиков, так как использует ту же схему API, что и OpenAI, обеспечивая легкую интеграцию.",
"ai21-jamba-1.5-large.description": "Многоязычная модель с 398 миллиардами параметров (94 миллиарда активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
"ai21-jamba-1.5-mini.description": "Многоязычная модель с 52 миллиардами параметров (12 миллиардов активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
"ai21-labs/AI21-Jamba-1.5-Large.description": "Многоязычная модель с 398 миллиардами параметров (94 миллиарда активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
"ai21-labs/AI21-Jamba-1.5-Mini.description": "Многоязычная модель с 52 миллиардами параметров (12 миллиардов активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
"alibaba/qwen-3-14b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
"alibaba/qwen-3-235b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
"alibaba/qwen-3-30b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
"alibaba/qwen-3-32b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct — это самая агентно-ориентированная модель для программирования в серии Qwen, демонстрирующая высокие результаты в агентном кодировании, использовании браузера и других ключевых задачах программирования, сопоставимых с уровнем Claude Sonnet.",
"amazon/nova-lite.description": "Очень недорогая мультимодальная модель с чрезвычайно быстрой обработкой изображений, видео и текста.",
"amazon/nova-micro.description": "Только текстовая модель с ультранизкой задержкой и минимальными затратами.",
"amazon/nova-pro.description": "Высокопроизводительная мультимодальная модель с оптимальным балансом точности, скорости и стоимости для широкого спектра задач.",
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 — это легкая и эффективная многоязычная модель эмбеддингов, поддерживающая размеры 1024, 512 и 256.",
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet поднимает отраслевой стандарт, превосходя конкурентов и Claude 3 Opus по широкому спектру оценок, сохраняя при этом средний уровень скорости и стоимости.",
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поднимает отраслевой стандарт, превосходя конкурентов и Claude 3 Opus по широкому спектру оценок, сохраняя при этом средний уровень скорости и стоимости.",
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенные ответы на простые запросы. Обеспечивает плавное, человекоподобное взаимодействие с ИИ и поддерживает ввод изображений с контекстом до 200 тысяч токенов.",
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus — самая мощная модель от Anthropic с передовыми возможностями для сложных задач. Обеспечивает свободную генерацию и понимание новых сценариев, поддерживает ввод изображений и контекст до 200 тысяч токенов.",
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, предлагая высокую ценность при низкой стоимости. Надежен для масштабируемого внедрения ИИ и поддерживает ввод изображений с контекстом до 200 тысяч токенов.",
"anthropic.claude-instant-v1.description": "Быстрая, экономичная и при этом мощная модель для повседневного общения, анализа текста, суммирования и вопросов по документам.",
"anthropic.claude-v2.description": "Высокопроизводительная модель для задач от сложного диалога и креативной генерации до точного следования инструкциям.",
"anthropic.claude-v2:1.description": "Обновленная версия Claude 2 с удвоенным контекстом, улучшенной надежностью, сниженным уровнем галлюцинаций и повышенной точностью на основе доказательств для длинных документов и RAG.",
"anthropic/claude-3-haiku.description": "Claude 3 Haiku — самая быстрая модель от Anthropic, предназначенная для корпоративных задач с длинными запросами. Быстро анализирует крупные документы, такие как квартальные отчеты, контракты или юридические дела, при этом стоит вдвое дешевле аналогов.",
"anthropic/claude-3-opus.description": "Claude 3 Opus — самая интеллектуальная модель от Anthropic с лидирующей производительностью в сложных задачах, свободно обрабатывает открытые запросы и новые сценарии с высоким уровнем понимания.",
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku отличается повышенной скоростью, точностью программирования и эффективным использованием инструментов, подходит для сценариев с высокими требованиями к скорости и взаимодействию с инструментами.",
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet — быстрая и эффективная модель из семейства Sonnet, обеспечивающая улучшенную производительность в программировании и логике. Некоторые версии постепенно заменяются на Sonnet 3.7 и выше.",
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet — обновленная модель Sonnet с улучшенными логическими и программными возможностями, подходящая для сложных корпоративных задач.",
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 — высокопроизводительная быстрая модель от Anthropic с очень низкой задержкой и высокой точностью.",
"anthropic/claude-opus-4.1.description": "Opus 4.1 — флагманская модель от Anthropic, оптимизированная для программирования, сложной логики и длительных задач.",
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая высший интеллект с масштабируемой производительностью для сложных задач, требующих качественного логического вывода.",
"anthropic/claude-opus-4.description": "Opus 4 — флагманская модель от Anthropic, предназначенная для сложных задач и корпоративных приложений.",
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 — новейшая гибридная модель логического вывода от Anthropic, оптимизированная для сложных рассуждений и программирования.",
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 — гибридная модель логического вывода от Anthropic, сочетающая режимы мышления и немышления.",
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B — это разреженная LLM с 72 миллиардами общих и 16 миллиардами активных параметров, основанная на архитектуре группированной MoE (MoGE). Она группирует экспертов при выборе и ограничивает количество активируемых экспертов на группу, что обеспечивает равномерную нагрузку и повышает эффективность развертывания на Ascend.",
"aya.description": "Aya 23 — многоязычная модель от Cohere, поддерживающая 23 языка для различных сценариев использования.",
"aya:35b.description": "Aya 23 — многоязычная модель от Cohere, поддерживающая 23 языка для различных сценариев использования.",
"azure-DeepSeek-R1-0528.description": "Развернута Microsoft; DeepSeek R1 обновлена до версии DeepSeek-R1-0528. Обновление включает увеличение вычислительных ресурсов и оптимизацию алгоритмов постобучения, что значительно улучшает глубину рассуждений и выводов. Модель демонстрирует высокие результаты в математике, программировании и логике, приближаясь к лидерам, таким как O3 и Gemini 2.5 Pro.",
"baichuan-m2-32b.description": "Baichuan M2 32B — это модель MoE от Baichuan Intelligence с сильными способностями к рассуждению.",
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B — это открытая, коммерчески пригодная LLM с 13 миллиардами параметров от Baichuan, демонстрирующая лучшие в своем классе результаты на авторитетных китайских и английских бенчмарках.",
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B — это MoE LLM от Baidu с 300 миллиардами общих параметров и 47 миллиардами активных на токен, обеспечивающая баланс между высокой производительностью и эффективностью вычислений. Как основная модель ERNIE 4.5, она превосходна в понимании, генерации, рассуждении и программировании. Использует мультимодальный гетерогенный метод предобучения MoE с совместным обучением на текстах и изображениях, что усиливает общие возможности, особенно в следовании инструкциям и знании мира.",
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview — это модель нового поколения от Baidu с нативной мультимодальностью, обладающая сильными возможностями в понимании мультимодальных данных, следовании инструкциям, создании контента, фактическом вопросо-ответе и использовании инструментов.",
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro — это более быстрая и улучшенная версия FLUX Pro с отличным качеством изображений и точным следованием подсказкам.",
"black-forest-labs/flux-dev.description": "FLUX Dev — это версия FLUX для разработки, предназначенная для некоммерческого использования.",
"black-forest-labs/flux-pro.description": "FLUX Pro — профессиональная модель FLUX для генерации изображений высокого качества.",
"black-forest-labs/flux-schnell.description": "FLUX Schnell — это модель генерации изображений, оптимизированная для высокой скорости.",
"c4ai-aya-expanse-32b.description": "Aya Expanse — это высокопроизводительная многоязычная модель с 32 миллиардами параметров, использующая настройку по инструкциям, арбитраж данных, обучение предпочтениям и объединение моделей, чтобы конкурировать с монолингвальными моделями. Поддерживает 23 языка.",
"c4ai-aya-expanse-8b.description": "Aya Expanse — это высокопроизводительная многоязычная модель с 8 миллиардами параметров, использующая настройку по инструкциям, арбитраж данных, обучение предпочтениям и объединение моделей, чтобы конкурировать с монолингвальными моделями. Поддерживает 23 языка.",
"c4ai-aya-vision-32b.description": "Aya Vision — это передовая мультимодальная модель, демонстрирующая высокие результаты на ключевых языковых, текстовых и визуальных бенчмарках. Поддерживает 23 языка. Версия с 32 миллиардами параметров ориентирована на выдающуюся многоязычную производительность.",
"c4ai-aya-vision-8b.description": "Aya Vision — это передовая мультимодальная модель, демонстрирующая высокие результаты на ключевых языковых, текстовых и визуальных бенчмарках. Версия с 8 миллиардами параметров ориентирована на низкую задержку и высокую производительность.",
"charglm-3.description": "CharGLM-3 создана для ролевых игр и эмоционального общения, поддерживает сверхдолгую многотуровую память и персонализированный диалог.",
"charglm-4.description": "CharGLM-4 создана для ролевых игр и эмоционального общения, поддерживает сверхдолгую многотуровую память и персонализированный диалог.",
"chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель, обновляемая в реальном времени. Она сочетает в себе мощное понимание языка и генерацию для масштабных сценариев использования, таких как поддержка клиентов, образование и техническая помощь.",
"claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
"claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — это самая быстрая модель следующего поколения от Anthropic. По сравнению с Claude 3 Haiku, она улучшена по навыкам и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным тестам.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — это самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждений на рынке. Она может выдавать почти мгновенные ответы или расширенные пошаговые рассуждения, которые пользователи могут наблюдать. Sonnet особенно силен в кодировании, анализе данных, задачах визуализации и агентах.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, с молниеносной скоростью и расширенными возможностями рассуждения.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 — это самая быстрая и умная модель Haiku от Anthropic, с молниеносной скоростью и расширенными возможностями рассуждения.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, плавности и понимании.",
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, плавности и понимании.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
"claude-opus-4-6.description": "Claude Opus 4.6 — самая интеллектуальная модель от Anthropic для создания агентов и программирования.",
"claude-opus-4.5.description": "Claude Opus 4.5 — это флагманская модель Anthropic, сочетающая первоклассный интеллект с масштабируемой производительностью для сложных задач высокого качества.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 — это самая интеллектуальная модель Anthropic для создания агентов и программирования.",
"claude-opus-4.6.description": "Claude Opus 4.6 — это самая интеллектуальная модель Anthropic для создания агентов и программирования.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать почти мгновенные ответы или пошаговые рассуждения с видимым процессом.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 — лучшее сочетание скорости и интеллекта от Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 — это самая интеллектуальная модель Anthropic на сегодняшний день.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 — это лучшее сочетание скорости и интеллекта от Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 может выдавать почти мгновенные ответы или пошаговые рассуждения, которые пользователи могут наблюдать. Пользователи API могут точно контролировать, сколько времени модель тратит на размышления.",
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
"codegemma.description": "CodeGemma — легковесная модель для различных задач программирования, обеспечивающая быструю итерацию и интеграцию.",
"codegemma:2b.description": "CodeGemma — легковесная модель для различных задач программирования, обеспечивающая быструю итерацию и интеграцию.",
"codellama.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
"codellama:13b.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
"codellama:34b.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
"codellama:70b.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
"codeqwen.description": "CodeQwen1.5 — крупная языковая модель, обученная на обширных данных кода, предназначенная для сложных задач программирования.",
"codestral-latest.description": "Codestral — наша самая продвинутая модель для программирования; версия v2 (январь 2025) оптимизирована для задач с низкой задержкой и высокой частотой, таких как FIM, исправление кода и генерация тестов.",
"codestral.description": "Codestral — первая модель для программирования от Mistral AI, обеспечивающая высокое качество генерации кода.",
"cogito-2.1:671b.description": "Cogito v2.1 671B — открытая LLM из США, свободная для коммерческого использования. Обеспечивает производительность на уровне ведущих моделей, более эффективную работу с токенами, поддержку контекста до 128k и высокую общую мощность.",
"cogview-3-flash.description": "CogView-3-Flash — это бесплатная модель генерации изображений, запущенная Zhipu. Она создает изображения, соответствующие инструкциям пользователя, при этом достигая более высоких оценок эстетического качества. CogView-3-Flash в основном используется в таких областях, как художественное творчество, дизайн, разработка игр и виртуальная реальность, помогая пользователям быстро преобразовывать текстовые описания в изображения.",
"cogview-4.description": "CogView-4 — первая открытая модель от Zhipu для генерации изображений по тексту с поддержкой китайских иероглифов. Улучшает семантическое понимание, качество изображений и рендеринг текста на китайском и английском языках, поддерживает произвольную длину двуязычных подсказок и может генерировать изображения в любом разрешении в заданных пределах.",
"cohere-command-r-plus.description": "Command R+ — продвинутая модель, оптимизированная для RAG, предназначенная для корпоративных задач.",
"cohere-command-r.description": "Command R — масштабируемая генеративная модель, разработанная для RAG и использования инструментов, обеспечивающая промышленный уровень ИИ.",
"cohere/Cohere-command-r-plus.description": "Command R+ — продвинутая модель, оптимизированная для RAG, предназначенная для корпоративных задач.",
"cohere/Cohere-command-r.description": "Command R — масштабируемая генеративная модель, разработанная для RAG и использования инструментов, обеспечивающая промышленный уровень ИИ.",
"cohere/command-a.description": "Command A — самая мощная модель Cohere на сегодняшний день, превосходно справляющаяся с использованием инструментов, агентами, RAG и многоязычными задачами. Поддерживает контекст длиной 256K, работает всего на двух GPU и обеспечивает на 150% большую пропускную способность по сравнению с Command R+ 08-2024.",
"cohere/embed-v4.0.description": "Модель, преобразующая текст, изображения или смешанный контент в эмбеддинги для классификации или других задач.",
"comfyui/flux-dev.description": "FLUX.1 Dev — высококачественная модель генерации изображений по тексту (1050 шагов), идеально подходящая для креативных и художественных задач премиум-класса.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev — модель редактирования изображений с поддержкой редактирования по тексту, включая локальные изменения и перенос стиля.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev — безопасная модель генерации изображений по тексту, разработанная совместно с Krea, с встроенными фильтрами безопасности.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell — сверхбыстрая модель генерации изображений по тексту, создающая качественные изображения за 14 шага. Идеальна для задач в реальном времени и быстрого прототипирования.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 — классическая модель генерации изображений по тексту с разрешением 512x512, идеально подходящая для быстрого прототипирования и творческих экспериментов.",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 с встроенными энкодерами CLIP/T5 не требует внешних файлов энкодеров. Подходит для моделей, таких как sd3.5_medium_incl_clips, с низким потреблением ресурсов.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 — модель нового поколения для генерации изображений по тексту с вариантами Large и Medium. Требует внешние файлы энкодеров CLIP и обеспечивает отличное качество изображений и соответствие подсказкам.",
"comfyui/stable-diffusion-custom-refiner.description": "Пользовательская модель SDXL для преобразования изображений. Используйте имя файла custom_sd_lobe.safetensors; при наличии VAE — custom_sd_vae_lobe.safetensors. Поместите файлы моделей в соответствующие папки Comfy.",
"comfyui/stable-diffusion-custom.description": "Пользовательская модель SD для генерации изображений по тексту. Используйте имя файла custom_sd_lobe.safetensors; при наличии VAE — custom_sd_vae_lobe.safetensors. Поместите файлы моделей в соответствующие папки Comfy.",
"comfyui/stable-diffusion-refiner.description": "Модель SDXL для преобразования изображений, обеспечивающая высококачественные трансформации, включая перенос стиля, восстановление и креативные вариации.",
"comfyui/stable-diffusion-xl.description": "SDXL — модель генерации изображений по тексту с поддержкой высокого разрешения 1024x1024, обеспечивающая лучшее качество и детализацию изображений.",
"command-a-03-2025.description": "Command A — наша самая мощная модель на сегодняшний день, превосходно справляющаяся с использованием инструментов, агентами, RAG и многоязычными задачами. Поддерживает контекст до 256K, работает на двух GPU и обеспечивает на 150% большую пропускную способность по сравнению с Command R+ 08-2024.",
"command-light-nightly.description": "Чтобы сократить интервал между основными релизами, мы предлагаем ночные сборки Command. Для серии command-light это называется command-light-nightly. Это самая новая и экспериментальная (возможно, нестабильная) версия, обновляется без уведомлений, поэтому не рекомендуется для продакшена.",
"command-light.description": "Упрощённый и более быстрый вариант Command, почти такой же мощный, но с более высокой скоростью.",
"command-nightly.description": "Чтобы сократить интервал между основными релизами, мы предлагаем ночные сборки Command. Для основной серии это называется command-nightly. Это самая новая и экспериментальная (возможно, нестабильная) версия, обновляется без уведомлений, поэтому не рекомендуется для продакшена.",
"command-r-03-2024.description": "command-r — это модель чата, следящая за инструкциями, которая выполняет языковые задачи с более высоким качеством, улучшенной надёжностью и более длинным контекстом по сравнению с предыдущими моделями. Она поддерживает сложные рабочие процессы, такие как генерация кода, RAG, использование инструментов и агентов.",
"command-r-08-2024.description": "command-r-08-2024 — обновлённая модель Command R, выпущенная в августе 2024 года.",
"command-r-plus-04-2024.description": "command-r-plus — псевдоним модели command-r-plus-04-2024, поэтому использование command-r-plus в API указывает на эту модель.",
"command-r-plus-08-2024.description": "Command R+ — модель чата, следящая за инструкциями, с более высоким качеством, надёжностью и увеличенным окном контекста по сравнению с предыдущими версиями. Идеальна для сложных RAG-процессов и многошагового использования инструментов.",
"command-r-plus.description": "Command R+ — высокопроизводительная LLM, предназначенная для реальных корпоративных сценариев и сложных приложений.",
"command-r.description": "Command R — LLM, оптимизированная для чатов и задач с длинным контекстом, идеально подходящая для динамичного взаимодействия и управления знаниями.",
"command-r7b-12-2024.description": "command-r7b-12-2024 — компактное и эффективное обновление, выпущенное в декабре 2024 года. Отлично справляется с задачами RAG, использования инструментов и агентов, требующих сложного многошагового рассуждения.",
"command.description": "Модель чата, следящая за инструкциями, обеспечивающая более высокое качество и надёжность в языковых задачах, с увеличенным окном контекста по сравнению с базовыми генеративными моделями.",
"computer-use-preview.description": "computer-use-preview — специализированная модель для инструмента \"использование компьютера\", обученная понимать и выполнять задачи, связанные с компьютером.",
"dall-e-2.description": "Модель DALL·E второго поколения с более реалистичной и точной генерацией изображений и разрешением в 4 раза выше, чем у первого поколения.",
"dall-e-3.description": "Последняя модель DALL·E, выпущенная в ноябре 2023 года, обеспечивает более реалистичную и точную генерацию изображений с улучшенной детализацией.",
"databricks/dbrx-instruct.description": "DBRX Instruct обеспечивает надёжную обработку инструкций в различных отраслях.",
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR — это модель визуально-языкового типа от DeepSeek AI, ориентированная на оптическое распознавание текста (OCR) и «контекстное оптическое сжатие». Она исследует методы сжатия контекста из изображений, эффективно обрабатывает документы и преобразует их в структурированный текст (например, Markdown). Точно распознаёт текст на изображениях, подходит для оцифровки документов, извлечения текста и структурированной обработки.",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B — это дистиллят модели DeepSeek-R1-0528 на базе Qwen3 8B. Она достигает уровня SOTA среди открытых моделей, превосходя Qwen3 8B на 10% в AIME 2024 и сопоставима с производительностью Qwen3-235B-thinking. Отличается выдающимися результатами в математике, программировании и логике. Использует архитектуру Qwen3-8B и токенизатор DeepSeek-R1-0528.",
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 использует дополнительные вычислительные ресурсы и алгоритмические оптимизации постобучения для углубления рассуждений. Демонстрирует высокие результаты в математике, программировании и логике, приближаясь к лидерам, таким как o3 и Gemini 2.5 Pro.",
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Дистиллированные модели DeepSeek-R1 используют обучение с подкреплением и cold-start данные для улучшения рассуждений и установления новых стандартов среди открытых моделей для многозадачных сценариев.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Дистиллированные модели DeepSeek-R1 используют обучение с подкреплением и cold-start данные для улучшения рассуждений и установления новых стандартов среди открытых моделей для многозадачных сценариев.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Дистиллированные модели DeepSeek-R1 используют обучение с подкреплением и cold-start данные для улучшения рассуждений и установления новых стандартов среди открытых моделей для многозадачных сценариев.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B — дистиллят модели Qwen2.5-32B, дообученный на 800 тысячах отобранных выборок DeepSeek-R1. Отличается выдающимися результатами в математике, программировании и логике, достигая высоких показателей на AIME 2024, MATH-500 (94.3% точности) и GPQA Diamond.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B: дистиллированная версия Qwen2.5-Math-7B, дообученная на 800 тысячах тщательно отобранных выборок DeepSeek-R1. Обеспечивает высокую производительность: 92,8% на MATH-500, 55,5% на AIME 2024 и рейтинг 1189 на CodeForces для модели с 7 миллиардами параметров.",
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 улучшает рассуждения с помощью обучения с подкреплением и cold-start данных, устанавливая новые стандарты среди открытых моделей и превосходя OpenAI-o1-mini.",
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 — это обновление моделей DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, объединяющее общие и программные способности. Улучшает написание текстов и следование инструкциям для лучшего соответствия предпочтениям, демонстрируя значительный прогресс на AlpacaEval 2.0, ArenaHard, AlignBench и MT-Bench.",
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus — обновлённая модель V3.1, позиционируемая как гибридный агентный LLM. Исправляет ошибки, сообщённые пользователями, повышает стабильность, согласованность языка и снижает количество смешанных китайско-английских и некорректных символов. Интегрирует режимы мышления и немышления с шаблонами чата для гибкого переключения. Также улучшает производительность Code Agent и Search Agent для более надёжного использования инструментов и выполнения многошаговых задач.",
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 использует гибридную архитектуру рассуждений и поддерживает как режим мышления, так и немышления.",
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek V3.2 Exp использует гибридную архитектуру рассуждений и поддерживает как режимы мышления, так и немышления.",
"deepseek-ai/DeepSeek-V3.2.description": "DeepSeek-V3.2 — это модель, сочетающая высокую вычислительную эффективность с превосходными возможностями рассуждения и работы в качестве агента. Её подход основан на трёх основных технологических прорывах: DeepSeek Sparse Attention (DSA) — эффективный механизм внимания, который значительно снижает вычислительную сложность при сохранении производительности модели и оптимизирован для сценариев с длинным контекстом; масштабируемая структура обучения с подкреплением, благодаря которой производительность модели может соперничать с GPT-5, а её версия с высокой вычислительной мощностью может соперничать с Gemini-3.0-Pro по возможностям рассуждения; и крупномасштабный конвейер синтеза задач для агентов, разработанный для интеграции возможностей рассуждения в сценарии использования инструментов, что улучшает следование инструкциям и обобщение в сложных интерактивных средах. Модель достигла золотых медалей на Международной математической олимпиаде (IMO) и Международной олимпиаде по информатике (IOI) 2025 года.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 — модель MoE с 671 миллиардами параметров, использующая MLA и DeepSeekMoE с балансировкой нагрузки без потерь для эффективного обучения и вывода. Предобучена на 14.8 триллионах высококачественных токенов с использованием SFT и RL, превосходит другие открытые модели и приближается к ведущим закрытым решениям.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) — инновационная модель с глубоким пониманием языка и возможностью взаимодействия.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 — это модель рассуждений следующего поколения с улучшенными возможностями сложных рассуждений и цепочки размышлений.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
"deepseek-chat.description": "Новая модель с открытым исходным кодом, объединяющая общие и кодовые возможности. Она сохраняет общий диалоговый стиль модели чата и сильные навыки кодирования модели программиста, с улучшенным выравниванием предпочтений. DeepSeek-V2.5 также улучшает написание текстов и выполнение инструкций.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
"deepseek-ocr.description": "DeepSeek-OCR — визуально-языковая модель от DeepSeek AI, ориентированная на OCR и «контекстное оптическое сжатие». Она исследует методы сжатия контекста из изображений, эффективно обрабатывает документы и преобразует их в структурированные текстовые форматы, такие как Markdown. Точно распознаёт текст на изображениях, идеально подходит для оцифровки документов, извлечения текста и структурированной обработки.",
"deepseek-r1-0528.description": "Полная модель 685B выпущена 28.05.2025. DeepSeek-R1 использует масштабное обучение с подкреплением на этапе постобучения, значительно улучшая логическое мышление при минимуме размеченных данных. Демонстрирует высокие результаты в математике, программировании и языковом рассуждении.",
"deepseek-r1-250528.description": "DeepSeek R1 250528 — это полная модель логического вывода DeepSeek-R1, предназначенная для сложных математических и логических задач.",
"deepseek-r1-70b-fast-online.description": "Быстрая версия DeepSeek R1 70B с поддержкой поиска в интернете в реальном времени, обеспечивающая быстрые ответы при сохранении высокой производительности.",
"deepseek-r1-70b-online.description": "Стандартная версия DeepSeek R1 70B с поиском в интернете в реальном времени, подходящая для актуальных диалогов и текстовых задач.",
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B сочетает логическое мышление R1 с экосистемой Llama.",
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B — дистиллированная модель на основе Llama-3.1-8B, обученная на выходных данных DeepSeek R1.",
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama — дистиллированная модель DeepSeek-R1 на базе Llama.",
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B — дистиллированная модель R1 на основе Qianfan-70B с высокой ценностью.",
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B — дистиллированная модель R1 на базе Qianfan-8B, предназначенная для малых и средних приложений.",
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B — дистиллированная модель R1 на основе Llama-70B.",
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B — сверхлёгкая дистиллированная модель для сред с ограниченными ресурсами.",
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B — дистиллированная модель среднего размера для многосценарного применения.",
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B — дистиллированная модель R1 на базе Qwen-32B, обеспечивающая баланс между производительностью и стоимостью.",
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B — лёгкая дистиллированная модель для периферийных и корпоративных сред.",
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen — дистиллированная модель DeepSeek-R1 на базе Qwen.",
"deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
"deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выдает цепочку рассуждений перед финальным ответом для повышения точности.",
"deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus — оптимизированная для терминальных устройств LLM от DeepSeek.",
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 — модель глубокого мышления, соответствующая версии Terminus, созданная для высокоэффективного логического вывода.",
"deepseek-v3.1.description": "DeepSeek-V3.1 — гибридная модель логического вывода нового поколения от DeepSeek, поддерживающая режимы с мышлением и без, с более высокой эффективностью мышления по сравнению с DeepSeek-R1-0528. Оптимизации после обучения значительно улучшают использование инструментов агентами и выполнение задач. Поддерживает окно контекста 128k и до 64k выходных токенов.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 — модель логического вывода следующего поколения с улучшенным сложным мышлением и цепочкой рассуждений, подходящая для задач, требующих глубокого анализа.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp внедряет разреженное внимание для повышения эффективности обучения и вывода на длинных текстах по более низкой цене, чем deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "На высоко сложных задачах модель Speciale значительно превосходит стандартную версию, но потребляет значительно больше токенов и обходится дороже. В настоящее время DeepSeek-V3.2-Speciale предназначена только для исследовательского использования, не поддерживает вызов инструментов и не оптимизирована специально для повседневных разговоров или задач письма.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think — полноценная модель глубокого мышления с усиленным длинноцепочечным рассуждением.",
"deepseek-v3.2.description": "DeepSeek-V3.2: последняя модель программирования от DeepSeek с сильными возможностями рассуждения.",
"deepseek-v3.description": "DeepSeek-V3 — мощная модель MoE с 671B общих параметров и 37B активных на токен.",
"deepseek-vl2-small.description": "DeepSeek VL2 Small — лёгкая мультимодальная модель для сред с ограниченными ресурсами и высокой нагрузкой.",
"deepseek-vl2.description": "DeepSeek VL2 — мультимодальная модель для понимания изображений и текста и точного визуального вопросо-ответа.",
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 — модель MoE с 685B параметрами и последняя итерация флагманской серии чатов DeepSeek.\n\nОснована на [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует высокую производительность в различных задачах.",
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 — модель MoE с 685B параметрами и последняя итерация флагманской серии чатов DeepSeek.\n\nОснована на [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует высокую производительность в различных задачах.",
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 — гибридная модель логического вывода с длинным контекстом от DeepSeek, поддерживающая смешанные режимы мышления/без мышления и интеграцию инструментов.",
"deepseek/deepseek-chat.description": "DeepSeek-V3 — высокопроизводительная гибридная модель логического вывода от DeepSeek для сложных задач и интеграции инструментов.",
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 — это модель, достигшая значительных прорывов в области математического рассуждения. Её ключевое новшество — механизм обучения с «самопроверкой», благодаря которому она достигла уровня золотой медали на нескольких ведущих математических соревнованиях.",
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 — обновлённый вариант, ориентированный на открытую доступность и более глубокое логическое мышление.",
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 значительно улучшает логическое мышление при минимуме размеченных данных и выводит цепочку рассуждений перед финальным ответом для повышения точности.",
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B — дистиллированная LLM на основе Llama 3.3 70B, дообученная на выходных данных DeepSeek R1 для достижения конкурентной производительности с передовыми моделями.",
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B — дистиллированная LLM на основе Llama-3.1-8B-Instruct, обученная на выходных данных DeepSeek R1.",
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B — дистиллированная LLM на основе Qwen 2.5 14B, обученная на выходных данных DeepSeek R1. Превосходит OpenAI o1-mini по нескольким бенчмаркам, достигая передовых результатов среди плотных моделей. Основные показатели:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nРейтинг CodeForces: 1481\nДообучение на выходных данных DeepSeek R1 обеспечивает конкурентную производительность с более крупными моделями.",
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B — дистиллированная LLM на основе Qwen 2.5 32B, обученная на выходных данных DeepSeek R1. Превосходит OpenAI o1-mini по нескольким бенчмаркам, достигая передовых результатов среди плотных моделей. Основные показатели:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nРейтинг CodeForces: 1691\nДообучение на выходных данных DeepSeek R1 обеспечивает конкурентную производительность с более крупными моделями.",
"deepseek/deepseek-r1.description": "DeepSeek R1 обновлён до версии DeepSeek-R1-0528. Благодаря увеличенным вычислениям и алгоритмическим оптимизациям после обучения, модель значительно улучшает глубину и качество логического мышления. Демонстрирует высокие результаты в математике, программировании и логике, приближаясь к лидерам, таким как o3 и Gemini 2.5 Pro.",
"deepseek/deepseek-r1/community.description": "DeepSeek R1 — последняя открытая модель от команды DeepSeek с очень высокой производительностью в логическом мышлении, особенно в математике, программировании и рассуждении, сопоставимая с OpenAI o1.",
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 значительно улучшает логическое мышление при минимуме размеченных данных и выводит цепочку рассуждений перед финальным ответом для повышения точности.",
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) — экспериментальная модель логического мышления от DeepSeek, подходящая для задач высокой сложности.",
"deepseek/deepseek-v3.description": "Быстрая универсальная LLM с улучшенным логическим мышлением.",
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 обеспечивает значительный прорыв в скорости логического мышления по сравнению с предыдущими моделями. Занимает первое место среди открытых моделей и соперничает с самыми продвинутыми закрытыми решениями. DeepSeek-V3 использует Multi-Head Latent Attention (MLA) и архитектуру DeepSeekMoE, проверенные в DeepSeek-V2. Также внедрена вспомогательная стратегия без потерь для балансировки нагрузки и цель многотокенного предсказания для повышения производительности.",
"deepseek_r1.description": "DeepSeek-R1 — модель логического мышления, основанная на обучении с подкреплением, решающая проблемы повторов и читаемости. До этапа RL использует данные холодного старта для повышения качества рассуждений. Сопоставима с OpenAI-o1 в задачах по математике, программированию и логике, с тщательно продуманным обучением для улучшения общих результатов.",
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B — дистиллированная модель на основе Llama-3.3-70B-Instruct. Является частью серии DeepSeek-R1, дообучена на выборках, сгенерированных DeepSeek-R1, и демонстрирует высокие результаты в математике, программировании и логике.",
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B — дистиллированная модель на основе Qwen2.5-14B, дообученная на 800K отобранных выборках, сгенерированных DeepSeek-R1, обеспечивая высокое качество логического мышления.",
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B — дистиллированная модель на основе Qwen2.5-32B, дообученная на 800K отобранных выборках, сгенерированных DeepSeek-R1, превосходящая в математике, программировании и логике.",
"devstral-2512.description": "Devstral 2 — это корпоративная текстовая модель, которая превосходно справляется с использованием инструментов для исследования кодовых баз, редактирования нескольких файлов и поддержки агентов для разработки программного обеспечения.",
"devstral-2:123b.description": "Devstral 2 123B превосходно использует инструменты для анализа кодовой базы, редактирования нескольких файлов и поддержки агентов в области программной инженерии.",
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite — новая облегчённая модель с ультрабыстрым откликом, обеспечивающая высокое качество и низкую задержку.",
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k — комплексное обновление модели Doubao-1.5-Pro, повышающее общую производительность на 10%. Поддерживает контекстное окно 256k и до 12k токенов вывода, обеспечивая высокую производительность, расширенное окно и отличную ценность для широкого спектра задач.",
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro — флагманская модель нового поколения с улучшениями по всем направлениям, превосходящая в знаниях, программировании и рассуждении.",
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 — новая модель глубокого рассуждения (версия m включает нативное мультимодальное глубокое рассуждение), превосходящая в математике, программировании, научном анализе и общих задачах, таких как креативное письмо. Достигает или приближается к топовым результатам на бенчмарках AIME 2024, Codeforces и GPQA. Поддерживает контекстное окно 128k и вывод до 16k токенов.",
"doubao-1.5-thinking-pro.description": "Doubao-1.5 — новая модель глубокого рассуждения, превосходящая в математике, программировании, научном анализе и общих задачах, таких как креативное письмо. Достигает или приближается к топовым результатам на бенчмарках AIME 2024, Codeforces и GPQA. Поддерживает контекстное окно 128k и вывод до 16k токенов.",
"doubao-1.5-thinking-vision-pro.description": "Новая визуальная модель глубокого рассуждения с улучшенным мультимодальным пониманием и логикой, достигающая SOTA-результатов на 37 из 59 публичных бенчмарков.",
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS — нативная модель-агент, ориентированная на графический интерфейс, которая взаимодействует с интерфейсами через человекоподобное восприятие, рассуждение и действия.",
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям. Поддерживает контекстное окно 128k и до 16k токенов вывода.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.",
"doubao-lite-32k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагая более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 32k.",
"doubao-pro-32k.description": "Флагманская модель с наилучшей производительностью для сложных задач, демонстрирующая отличные результаты в вопросах по справочным данным, суммировании, создании контента, классификации текста и ролевых играх. Поддерживает рассуждение и дообучение с контекстным окном 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash — ультрабыстрая мультимодальная модель глубокого рассуждения с TPOT до 10 мс. Поддерживает текст и изображения, превосходит предыдущую lite-модель в понимании текста и сопоставима с pro-моделями в области зрения. Поддерживает контекстное окно 256k и до 16k токенов вывода.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite — новая мультимодальная модель глубокого рассуждения с регулируемой степенью рассуждения (минимальная, низкая, средняя, высокая), обеспечивающая лучшую ценность и отличный выбор для повседневных задач. Поддерживает контекст до 256k.",
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking значительно усиливает рассуждение, улучшая ключевые способности в программировании, математике и логике по сравнению с Doubao-1.5-thinking-pro, а также добавляет понимание изображений. Поддерживает контекстное окно 256k и до 16k токенов вывода.",
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision — визуальная модель глубокого рассуждения с улучшенным мультимодальным пониманием и логикой для образования, анализа изображений, инспекции/безопасности и визуального поиска с вопросами и ответами. Поддерживает контекст до 256k и до 64k токенов вывода.",
"doubao-seed-1.6.description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого рассуждения с режимами авто, мышления и без мышления. В режиме без мышления значительно превосходит Doubao-1.5-pro/250115. Поддерживает контекст до 256k и до 16k токенов вывода.",
"doubao-seed-1.8.description": "Doubao-Seed-1.8 обладает улучшенным мультимодальным пониманием и агентными возможностями, поддерживает ввод текста, изображений и видео, а также кэширование контекста, обеспечивая высокую эффективность при выполнении сложных задач.",
"doubao-seed-2.0-code.description": "Doubao-Seed-2.0-code глубоко оптимизирован для агентного кодирования, поддерживает мультимодальные входные данные и контекстное окно до 256k, подходящее для кодирования, понимания визуальной информации и рабочих процессов агентов.",
"doubao-seed-2.0-lite.description": "Doubao-Seed-2.0-lite — это новая мультимодальная модель глубокого рассуждения, обеспечивающая лучшую ценность и отличный выбор для общих задач, с контекстным окном до 256k.",
"doubao-seed-2.0-mini.description": "Doubao-Seed-2.0-mini — это легковесная модель с быстрым откликом и высокой производительностью, подходящая для небольших задач и сценариев с высокой конкуренцией.",
"doubao-seed-2.0-pro.description": "Doubao-Seed-2.0-pro — это флагманская универсальная модель агента от ByteDance, обеспечивающая всесторонние прорывы в планировании и выполнении сложных задач.",
"doubao-seed-code.description": "Doubao-Seed-Code глубоко оптимизирован для агентного программирования, поддерживает мультимодальный ввод (текст/изображение/видео) и контекстное окно 256k, совместим с API Anthropic и подходит для программирования, понимания изображений и рабочих процессов агентов.",
"doubao-seedance-1-0-lite-i2v-250428.description": "Стабильное качество генерации с высокой экономической эффективностью, способное создавать видео из первого кадра, первых и последних кадров или эталонных изображений.",
"doubao-seedance-1-0-lite-t2v-250428.description": "Стабильное качество генерации с высокой экономической эффективностью, способное создавать видео на основе текстовых инструкций.",
"doubao-seedance-1-0-pro-250528.description": "Seedance 1.0 Pro — это базовая модель генерации видео, поддерживающая многокадровое повествование. Она демонстрирует высокую производительность по нескольким параметрам. Модель достигает прорыва в семантическом понимании и следовании инструкциям, что позволяет ей создавать видео в формате 1080P с плавным движением, богатыми деталями, разнообразными стилями и визуальной эстетикой кинематографического уровня.",
"doubao-seedance-1-0-pro-fast-251015.description": "Seedance 1.0 Pro Fast — это универсальная модель, разработанная для минимизации затрат при максимизации производительности, достигая отличного баланса между качеством генерации видео, скоростью и ценой. Она наследует основные преимущества Seedance 1.0 Pro, предлагая при этом более высокую скорость генерации и более конкурентоспособные цены, обеспечивая создателям двойную оптимизацию эффективности и стоимости.",
"doubao-seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддерживает текст-видео, изображение-видео (первый кадр, первый+последний кадр) и генерацию аудио, синхронизированного с визуальными эффектами.",
"doubao-seededit-3-0-i2i-250628.description": "Модель изображений Doubao от ByteDance Seed поддерживает ввод текста и изображений с высококачественной и управляемой генерацией изображений. Поддерживает редактирование изображений по тексту с размерами вывода от 512 до 1536 по длинной стороне.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной и управляемой генерацией. Генерирует изображения по текстовым подсказкам.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной и управляемой генерацией. Генерирует изображения по текстовым подсказкам.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 — это последняя мультимодальная модель изображений от ByteDance, объединяющая возможности преобразования текста в изображение, изображения в изображение и пакетной генерации изображений, а также включающая здравый смысл и способности к рассуждению. По сравнению с предыдущей версией 4.0, она обеспечивает значительно улучшенное качество генерации, лучшую согласованность редактирования и слияние нескольких изображений. Модель предлагает более точный контроль над визуальными деталями, естественно воспроизводя мелкий текст и лица, а также достигает более гармоничного макета и цветовой палитры, улучшая общую эстетику.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite — это последняя модель генерации изображений от ByteDance. Впервые она интегрирует возможности онлайн-поиска, что позволяет использовать информацию в реальном времени и улучшать актуальность создаваемых изображений. Интеллект модели также был обновлен, что позволяет точно интерпретировать сложные инструкции и визуальный контент. Кроме того, она предлагает улучшенное покрытие глобальных знаний, согласованность ссылок и качество генерации в профессиональных сценариях, лучше удовлетворяя потребности корпоративного визуального творчества.",
"emohaa.description": "Emohaa — модель для поддержки психического здоровья с профессиональными навыками консультирования, помогающая пользователям разобраться в эмоциональных проблемах.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B — легковесная модель с открытым исходным кодом для локального и кастомизированного развертывания.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking — это текстовая модель MoE (смесь экспертов) с общим количеством параметров 21B и активными параметрами 3B, обеспечивающая значительно улучшенное качество и глубину рассуждений.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B — крупная модель с открытым исходным кодом, обладающая улучшенными возможностями понимания и генерации.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B — сверхкрупная модель MoE от Baidu ERNIE с выдающимися способностями к рассуждению.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview — модель с контекстом 8K для предварительной оценки возможностей ERNIE 4.5.",
"ernie-4.5-turbo-128k-preview.description": "Предварительная версия ERNIE 4.5 Turbo 128K с возможностями уровня релиза, подходящая для интеграции и тестирования.",
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K — высокопроизводительная универсальная модель с поддержкой поиска и вызова инструментов для задач Вопрос-Ответ, программирования и агентов.",
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K — версия со средним контекстом для Вопрос-Ответ, поиска в базе знаний и многотурового диалога.",
"ernie-4.5-turbo-latest.description": "Актуальная версия ERNIE 4.5 Turbo с оптимизированной общей производительностью, идеально подходит в качестве основной модели для продакшена.",
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview — предварительная мультимодальная модель с контекстом 32K для оценки возможностей в области зрения.",
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K — мультимодальная модель со средне-длинным контекстом для понимания длинных документов и изображений.",
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest — новейшая мультимодальная модель с улучшенным пониманием изображений и текста, а также рассуждением.",
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview — предварительная мультимодальная модель для понимания и генерации изображений и текста, подходит для визуального Вопрос-Ответ и анализа контента.",
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL — зрелая мультимодальная модель для промышленного понимания и распознавания изображений и текста.",
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B — мультимодальная модель с открытым исходным кодом для понимания изображений и текста, а также рассуждения.",
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking — флагманская модель с нативной полной мультимодальностью, объединяющая текст, изображение, аудио и видео. Обеспечивает широкие улучшения для сложных задач Вопрос-Ответ, творчества и агентов.",
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview — предварительная версия флагманской мультимодальной модели с объединением текста, изображения, аудио и видео. Обеспечивает широкие улучшения для сложных задач Вопрос-Ответ, творчества и агентов.",
"ernie-char-8k.description": "ERNIE Character 8K — модель диалога с персонажем для создания IP-образов и длительного общения.",
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview — предварительная модель для создания персонажей и сюжетов, предназначенная для оценки и тестирования.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K — модель персонажа для написания романов и создания сюжетов, подходит для генерации длинных историй.",
"ernie-irag-edit.description": "ERNIE iRAG Edit — модель редактирования изображений с поддержкой стирания, перерисовки и генерации вариантов.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K — легковесная высокопроизводительная модель для сценариев с чувствительностью к задержке и стоимости.",
"ernie-novel-8k.description": "ERNIE Novel 8K предназначена для написания длинных романов и IP-сюжетов с участием нескольких персонажей.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K — модель с высокой пропускной способностью и ценностью для масштабных онлайн-сервисов и корпоративных приложений.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview — это модель быстрого мышления с контекстом 32K для сложных рассуждений и многократных диалогов.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
"ernie-x1.1.description": "ERNIE X1.1 — это предварительная версия модели мышления для оценки и тестирования.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая текстовые и визуальные входные данные с высококонтролируемой и качественной генерацией изображений. Она создает изображения на основе текстовых запросов.",
"fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
"fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] — модель генерации изображений с 12 миллиардами параметров, созданная для быстрой и качественной генерации.",
"fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
"fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
"fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
"fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском и английском языках, а также высококачественные изменения, такие как перенос стиля и вращение объектов.",
"fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с впечатляющим рендерингом китайского текста и разнообразными визуальными стилями.",
"flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 14 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
"flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
"flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
"flux-kontext-pro.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
"flux-merged.description": "FLUX.1 [merged] объединяет глубокие функции, исследованные в \"DEV\", с высокоскоростными преимуществами \"Schnell\", расширяя пределы производительности и расширяя области применения.",
"flux-pro-1.1-ultra.description": "Генерация изображений сверхвысокого разрешения с выходом 4 МП, создаёт чёткие изображения за 10 секунд.",
"flux-pro-1.1.description": "Обновлённая профессиональная модель генерации изображений с отличным качеством и точным следованием подсказкам.",
"flux-pro.description": "Коммерческая модель генерации изображений высшего уровня с непревзойдённым качеством и разнообразием результатов.",
"flux-schnell.description": "FLUX.1 [schnell] — самая продвинутая open-source модель с малым числом шагов, превосходящая аналогичные модели и даже сильные недистиллированные модели, такие как Midjourney v6.0 и DALL-E 3 (HD). Тщательно настроена для сохранения разнообразия предобучения, значительно улучшая визуальное качество, следование инструкциям, вариативность размеров/пропорций, работу со шрифтами и разнообразие вывода.",
"flux.1-schnell.description": "FLUX.1-schnell — высокопроизводительная модель генерации изображений для быстрой генерации в разных стилях.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) обеспечивает стабильную и настраиваемую производительность для сложных задач.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) обеспечивает мощную мультимодальную поддержку для сложных задач.",
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro — высокопроизводительная модель ИИ от Google, предназначенная для масштабирования широкого спектра задач.",
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 — эффективная мультимодальная модель для масштабируемого применения.",
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 — эффективная мультимодальная модель, созданная для широкого внедрения.",
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 — новейшая экспериментальная модель с заметными улучшениями в текстовых и мультимодальных сценариях.",
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B — эффективная мультимодальная модель, созданная для широкого внедрения.",
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B — эффективная мультимодальная модель для масштабируемого применения.",
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 обеспечивает оптимизированную мультимодальную обработку для сложных задач.",
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash — новейшая мультимодальная модель ИИ от Google с быстрой обработкой, поддержкой текста, изображений и видео для эффективного масштабирования задач.",
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 — масштабируемое мультимодальное ИИ-решение для сложных задач.",
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 — новейшая модель, готовая к производству, с более качественным выводом, особенно в математике, длинном контексте и визуальных задачах.",
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 обеспечивает мощную мультимодальную обработку с большей гибкостью для разработки приложений.",
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 использует последние оптимизации для более эффективной мультимодальной обработки.",
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro поддерживает до 2 миллионов токенов, являясь идеальной мультимодальной моделью среднего размера для сложных задач.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
"gemini-2.0-flash-exp-image-generation.description": "Экспериментальная модель Gemini 2.0 Flash с поддержкой генерации изображений.",
"gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
"gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
"gemini-2.5-flash-image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
"gemini-2.5-flash-image:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.",
"gemini-2.5-flash-lite-preview-09-2025.description": "Предварительный выпуск (25 сентября 2025 г.) модели Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview — самая выгодная модель от Google с полным набором возможностей.",
"gemini-2.5-flash.description": "Gemini 2.5 Flash — самая выгодная модель от Google с полным набором возможностей.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.",
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.",
"gemini-2.5-pro.description": "Gemini 2.5 Pro — флагманская модель рассуждения от Google с поддержкой длинного контекста для сложных задач.",
"gemini-3-flash-preview.description": "Gemini 3 Flash — самая быстрая и интеллектуальная модель, сочетающая передовые ИИ-возможности с точной привязкой к поисковым данным.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — это модель генерации изображений от Google, которая также поддерживает мультимодальный диалог.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google, также поддерживающая мультимодальный чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro — самая мощная агентная модель от Google с поддержкой визуализации и глубокой интерактивности, основанная на передовых возможностях рассуждения.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) — это самая быстрая нативная модель генерации изображений от Google с поддержкой мышления, генерации и редактирования изображений в диалоговом режиме.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) — самая быстрая нативная модель генерации изображений от Google с поддержкой мышления, генерации и редактирования изображений в диалоговом формате.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview — самая экономичная мультимодальная модель от Google, оптимизированная для задач с высоким объемом, перевода и обработки данных.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview улучшает Gemini 3 Pro с расширенными возможностями рассуждений и добавляет поддержку среднего уровня мышления.",
"gemini-flash-latest.description": "Последний выпуск Gemini Flash",
"gemini-flash-lite-latest.description": "Последний выпуск Gemini Flash-Lite",
"gemini-pro-latest.description": "Последний выпуск Gemini Pro",
"gemma-7b-it.description": "Gemma 7B — экономичное решение для задач малого и среднего масштаба.",
"gemma2-9b-it.description": "Gemma 2 9B оптимизирована для выполнения конкретных задач и интеграции с инструментами.",
"gemma2.description": "Gemma 2 — эффективная модель от Google, охватывающая сценарии от небольших приложений до сложной обработки данных.",
"gemma2:27b.description": "Gemma 2 — эффективная модель от Google, охватывающая сценарии от небольших приложений до сложной обработки данных.",
"gemma2:2b.description": "Gemma 2 — эффективная модель от Google, охватывающая сценарии от небольших приложений до сложной обработки данных.",
"generalv3.5.description": "Spark Max — самая функциональная версия, поддерживающая веб-поиск и множество встроенных плагинов. Оптимизированные базовые возможности, системные роли и вызов функций обеспечивают отличную производительность в сложных сценариях.",
"generalv3.description": "Spark Pro — высокопроизводительная языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, здравоохранение и образование. Поддерживает веб-поиск и встроенные плагины (погода, дата и др.). Обеспечивает высокую эффективность в сложных задачах, понимании языка и создании текста, идеально подходит для профессионального использования.",
"glm-4-0520.description": "GLM-4-0520 — последняя версия модели, разработанная для сложных и разнообразных задач с отличной производительностью.",
"glm-4-7.description": "GLM-4.7 — флагманская модель от Zhipu AI. Улучшает возможности программирования, долгосрочного планирования задач и взаимодействия с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей с открытым исходным кодом в различных публичных бенчмарках. Общие способности улучшены: ответы стали более лаконичными и естественными, а письмо — более захватывающим. В сложных агентных задачах улучшено следование инструкциям при вызове инструментов, а также эстетика интерфейса и эффективность выполнения долгосрочных задач. • Улучшенные возможности программирования: значительно улучшена многозадачная поддержка языков программирования и производительность терминальных агентов; GLM-4.7 реализует механизм «сначала подумай, потом действуй» в таких фреймворках, как Claude Code, Kilo Code, TRAE, Cline и Roo Code, с более стабильной работой на сложных задачах. • Улучшение эстетики интерфейса: GLM-4.7 демонстрирует значительный прогресс в качестве генерации интерфейсов, способна создавать сайты, презентации и постеры с лучшей визуальной привлекательностью. • Улучшенные вызовы инструментов: GLM-4.7 усиливает возможности вызова инструментов, набирая 67 баллов в оценке BrowseComp и 84.7 в τ²-Bench, превосходя Claude Sonnet 4.5 как SOTA среди open-source моделей. • Улучшенные способности к рассуждению: значительно улучшены математические и логические способности, 42.8% в HLE (\"Последний экзамен человечества\"), что на 41% выше, чем у GLM-4.6, и выше GPT-5.1. • Общие улучшения: диалоги GLM-4.7 стали более лаконичными, интеллектуальными и человечными; письмо и ролевая игра — более литературными и захватывающими.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat демонстрирует высокие результаты в семантике, математике, логике, программировании и знаниях. Поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и рассуждение над длинными текстами. Поддерживает 26 языков, включая японский, корейский и немецкий.",
"glm-4-air-250414.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
"glm-4-air.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
"glm-4-airx.description": "GLM-4-AirX — более эффективный вариант GLM-4-Air с ускорением рассуждений до 2.6 раз.",
"glm-4-alltools.description": "GLM-4-AllTools — универсальная агентная модель, оптимизированная для сложного планирования инструкций и использования инструментов, таких как веб-браузинг, объяснение кода и генерация текста. Подходит для многозадачного выполнения.",
"glm-4-flash-250414.description": "GLM-4-Flash идеально подходит для простых задач: самая быстрая и бесплатная.",
"glm-4-flash.description": "GLM-4-Flash идеально подходит для простых задач: самая быстрая и бесплатная.",
"glm-4-flashx.description": "GLM-4-FlashX — улучшенная версия Flash с ультрабыстрым рассуждением.",
"glm-4-long.description": "GLM-4-Long поддерживает сверхдлинные входные данные для задач, связанных с памятью, и обработки больших документов.",
"glm-4-plus.description": "GLM-4-Plus — флагманская модель с высоким уровнем интеллекта, сильной поддержкой длинных текстов и сложных задач, а также улучшенной общей производительностью.",
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking — самая мощная известная ~10B VLM, охватывающая передовые задачи, такие как понимание видео, визуальные вопросы и ответы, решение предметных задач, OCR, чтение документов и графиков, GUI-агенты, фронтенд-кодирование и привязка. Превосходит даже 8 раз более крупную Qwen2.5-VL-72B по многим задачам. Использует цепочку рассуждений для повышения точности и объяснимости, превосходя традиционные модели без мышления.",
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking — самая мощная известная ~10B VLM, охватывающая передовые задачи, такие как понимание видео, визуальные вопросы и ответы, решение предметных задач, OCR, чтение документов и графиков, GUI-агенты, фронтенд-кодирование и привязка. Превосходит даже 8 раз более крупную Qwen2.5-VL-72B по многим задачам. Использует цепочку рассуждений для повышения точности и объяснимости, превосходя традиционные модели без мышления.",
"glm-4.5-air.description": "Облегчённая версия GLM-4.5, обеспечивающая баланс между производительностью и стоимостью, с гибкими режимами гибридного мышления.",
"glm-4.5-airx.description": "GLM-4.5-AirX — ускоренная версия с быстрым откликом для масштабных и высокоскоростных сценариев.",
"glm-4.5-x.description": "GLM-4.5 Fast — быстрая версия с производительностью до 100 токенов в секунду.",
"glm-4.5.description": "Флагманская модель Zhipu с переключаемыми режимами мышления, открытым исходным кодом и поддержкой контекста до 128K.",
"glm-4.5v.description": "Модель визуального логического вывода нового поколения от Zhipu с архитектурой MoE: 106B параметров, 12B активных. Достигает SOTA среди моделей аналогичного размера в задачах обработки изображений, видео, документов и GUI.",
"glm-4.6.description": "GLM-4.6 (355B) — последняя флагманская модель Zhipu, превосходящая предшественников в программировании, обработке длинных текстов, логике и агентных задачах. Особенно сопоставима с Claude Sonnet 4 по программированию, став лучшей кодовой моделью Китая.",
"glm-4.6v-flash.description": "Серия GLM-4.6V представляет собой значительную итерацию семейства GLM в мультимодальном направлении, включая GLM-4.6V (флагман), GLM-4.6V-FlashX (легковесная и высокоскоростная версия) и GLM-4.6V-Flash (полностью бесплатная версия). Она расширяет окно контекста времени обучения до 128k токенов, достигает передовой точности визуального восприятия при сопоставимых масштабах параметров и впервые нативно интегрирует возможности Function Call (вызов инструментов) в архитектуру визуальной модели. Это объединяет процесс от «визуального восприятия» до «исполняемых действий», предоставляя единый технический фундамент для мультимодальных агентов в реальных производственных сценариях.",
"glm-4.6v-flashx.description": "Серия GLM-4.6V представляет собой значительную итерацию семейства GLM в мультимодальном направлении, включая GLM-4.6V (флагман), GLM-4.6V-FlashX (легковесная и высокоскоростная версия) и GLM-4.6V-Flash (полностью бесплатная версия). Она расширяет окно контекста времени обучения до 128k токенов, достигает передовой точности визуального восприятия при сопоставимых масштабах параметров и впервые нативно интегрирует возможности Function Call (вызов инструментов) в архитектуру визуальной модели. Это объединяет процесс от «визуального восприятия» до «исполняемых действий», предоставляя единый технический фундамент для мультимодальных агентов в реальных производственных сценариях.",
"glm-4.6v.description": "Серия GLM-4.6V представляет собой значительную итерацию семейства GLM в мультимодальном направлении, включая GLM-4.6V (флагман), GLM-4.6V-FlashX (легковесная и высокоскоростная версия) и GLM-4.6V-Flash (полностью бесплатная версия). Она расширяет окно контекста времени обучения до 128k токенов, достигает передовой точности визуального восприятия при сопоставимых масштабах параметров и впервые нативно интегрирует возможности Function Call (вызов инструментов) в архитектуру визуальной модели. Это объединяет процесс от «визуального восприятия» до «исполняемых действий», предоставляя единый технический фундамент для мультимодальных агентов в реальных производственных сценариях.",
"glm-4.7-flash.description": "GLM-4.7-Flash — модель уровня 30B SOTA, предлагающая баланс между производительностью и эффективностью. Улучшает программирование, долгосрочное планирование задач и взаимодействие с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей аналогичного размера с открытым исходным кодом. При выполнении сложных задач интеллектуальных агентов демонстрирует лучшее следование инструкциям при вызове инструментов, а также улучшает эстетику интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash — модель уровня 30B SOTA, предлагающая баланс между производительностью и эффективностью. Улучшает программирование, долгосрочное планирование задач и взаимодействие с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей аналогичного размера с открытым исходным кодом. При выполнении сложных задач интеллектуальных агентов демонстрирует лучшее следование инструкциям при вызове инструментов, а также улучшает эстетику интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
"glm-4.7.description": "GLM-4.7 — новейшая флагманская модель Zhipu, оптимизированная для сценариев агентного программирования с улучшенными возможностями кода, долгосрочного планирования задач и взаимодействия с инструментами. Демонстрирует лидирующую производительность среди open-source моделей на множестве публичных бенчмарков. Общие возможности улучшены: ответы стали более лаконичными и естественными, а тексты — более выразительными. В сложных агентных задачах улучшено следование инструкциям при вызове инструментов, а также эстетика интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
"glm-4.description": "GLM-4 — предыдущая флагманская модель, выпущенная в январе 2024 года, теперь заменена более мощной GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash ориентирована на эффективное понимание одиночных изображений в сценариях быстрого анализа, таких как обработка изображений в реальном времени или пакетная обработка.",
"glm-4v-plus-0111.description": "GLM-4V-Plus понимает видео и несколько изображений, подходит для мультимодальных задач.",
"glm-4v-plus.description": "GLM-4V-Plus понимает видео и несколько изображений, подходит для мультимодальных задач.",
"glm-4v.description": "GLM-4V обеспечивает высокое качество понимания изображений и логического вывода в визуальных задачах.",
"glm-5.description": "GLM-5 — это флагманская модель следующего поколения от Zhipu, специально разработанная для агентной инженерии. Она обеспечивает надежную производительность в сложных системных разработках и задачах с долгосрочной перспективой. В области программирования и агентных возможностей GLM-5 достигает передовых результатов среди моделей с открытым исходным кодом. В реальных сценариях программирования пользовательский опыт приближается к Claude Opus 4.5. Модель превосходно справляется со сложной системной инженерией и долгосрочными агентными задачами, что делает её идеальной базовой моделью для универсальных агентных помощников.",
"glm-image.description": "GLM-Image — это новая флагманская модель генерации изображений от Zhipu. Модель была обучена на отечественных чипах и использует оригинальную гибридную архитектуру, которая сочетает авторегрессионное моделирование с диффузионным декодером. Этот дизайн обеспечивает сильное понимание глобальных инструкций наряду с детальной проработкой локальных элементов, преодолевая давние проблемы в создании контента, насыщенного знаниями, такого как постеры, презентации и образовательные диаграммы. Это представляет собой важное исследование в направлении нового поколения парадигм «когнитивной генерации», примером которых является Nano Banana Pro.",
"glm-z1-air.description": "Модель логического вывода с высокой точностью для задач, требующих глубокого анализа.",
"glm-z1-airx.description": "Ультрабыстрая модель логического вывода с высоким качеством рассуждений.",
"glm-z1-flash.description": "Серия GLM-Z1 обеспечивает мощный логический вывод, особенно в задачах логики, математики и программирования.",
"glm-z1-flashx.description": "Быстрая и экономичная модель: ускоренная версия Flash с ультрабыстрым выводом и высокой параллельностью.",
"glm-zero-preview.description": "GLM-Zero-Preview демонстрирует сильные способности к логическому выводу, особенно в логике, математике и программировании.",
"global.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 — это самая быстрая и интеллектуальная модель Haiku от Anthropic, обладающая молниеносной скоростью и расширенным мышлением.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект и масштабируемую производительность для сложных задач, требующих высококачественных ответов и рассуждений.",
"global.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 — это самая интеллектуальная модель Anthropic для создания агентов и программирования.",
"global.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 — это самая интеллектуальная модель Anthropic на сегодняшний день.",
"global.anthropic.claude-sonnet-4-6.description": "Claude Sonnet 4.6 — это лучшее сочетание скорости и интеллекта от Anthropic.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлагает возможности следующего поколения, включая высокую скорость, встроенную работу с инструментами, мультимодальную генерацию и контекстное окно объёмом 1 миллион токенов.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite — облегчённый вариант Gemini с отключённым по умолчанию режимом мышления для снижения задержек и стоимости, который можно включить с помощью параметров.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite предлагает функции следующего поколения, включая высокую скорость, встроенную работу с инструментами, мультимодальную генерацию и контекстное окно объёмом 1 миллион токенов.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash — высокопроизводительная модель от Google, предназначенная для расширенных мультимодальных задач с элементами логического мышления.",
"google/gemini-2.5-flash-image-preview.description": "Экспериментальная модель Gemini 2.5 Flash с поддержкой генерации изображений.",
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) — модель генерации изображений от Google с поддержкой мультимодального общения.",
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite — облегчённый вариант Gemini 2.5, оптимизированный по задержке и стоимости, подходит для сценариев с высокой пропускной способностью.",
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash — самая продвинутая флагманская модель Google, созданная для сложных задач в области логики, программирования, математики и науки. Включает встроенное «мышление» для более точных ответов и тонкой обработки контекста.\n\nПримечание: у модели есть два варианта — с мышлением и без. Стоимость вывода значительно различается в зависимости от включения мышления. Если вы выберете стандартный вариант (без суффикса «:thinking»), модель будет явно избегать генерации токенов мышления.\n\nЧтобы использовать мышление и получать соответствующие токены, необходимо выбрать вариант с суффиксом «:thinking», что приведёт к более высокой стоимости вывода.\n\nGemini 2.5 Flash также можно настроить с помощью параметра «максимум токенов рассуждения», как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash — самая продвинутая флагманская модель Google, созданная для сложных задач в области логики, программирования, математики и науки. Включает встроенное «мышление» для более точных ответов и тонкой обработки контекста.\n\nПримечание: у модели есть два варианта — с мышлением и без. Стоимость вывода значительно различается в зависимости от включения мышления. Если вы выберете стандартный вариант (без суффикса «:thinking»), модель будет явно избегать генерации токенов мышления.\n\nЧтобы использовать мышление и получать соответствующие токены, необходимо выбрать вариант с суффиксом «:thinking», что приведёт к более высокой стоимости вывода.\n\nGemini 2.5 Flash также можно настроить с помощью параметра «максимум токенов рассуждения», как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash — это семейство моделей Google, охватывающее задачи от низкой задержки до высокопроизводительного рассуждения.",
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview — самая продвинутая модель Google с режимом мышления, предназначенная для решения сложных задач в области программирования, математики и STEM, а также для анализа больших наборов данных, кодовых баз и документов с длинным контекстом.",
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro — флагманская модель логического мышления от Google с поддержкой длинного контекста для сложных задач.",
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google с поддержкой мультимодального общения.",
"google/gemini-3-pro-preview.description": "Gemini 3 Pro — модель следующего поколения в семействе Gemini, способная понимать текст, аудио, изображения и видео, а также справляться со сложными задачами и большими кодовыми базами.",
"google/gemini-embedding-001.description": "Современная модель встраивания с высокой производительностью для задач на английском языке, в многоязычной среде и в программировании.",
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash обеспечивает оптимизированную мультимодальную обработку для широкого спектра сложных задач.",
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro сочетает в себе новейшие оптимизации для более эффективной обработки мультимодальных данных.",
"google/gemma-2-27b-it.description": "Gemma 2 27B — универсальная языковая модель с высокой производительностью в различных сценариях.",
"google/gemma-2-27b.description": "Gemma 2 — семейство эффективных моделей от Google, подходящее как для небольших приложений, так и для сложной обработки данных.",
"google/gemma-2-2b-it.description": "Продвинутая компактная языковая модель, предназначенная для использования на периферийных устройствах.",
"google/gemma-2-9b-it.description": "Gemma 2 9B, разработанная Google, обеспечивает эффективное выполнение инструкций и общую высокую производительность.",
"google/gemma-2-9b-it:free.description": "Gemma 2 — лёгкое семейство моделей с открытым исходным кодом от Google для обработки текста.",
"google/gemma-2-9b.description": "Gemma 2 — семейство эффективных моделей от Google, подходящее как для небольших приложений, так и для сложной обработки данных.",
"google/gemma-2b-it.description": "Gemma Instruct (2B) обеспечивает базовую обработку инструкций для лёгких приложений.",
"google/gemma-3-12b-it.description": "Gemma 3 12B — языковая модель с открытым исходным кодом от Google, устанавливающая новый стандарт эффективности и производительности.",
"google/gemma-3-27b-it.description": "Gemma 3 27B — языковая модель с открытым исходным кодом от Google, устанавливающая новый стандарт эффективности и производительности.",
"google/text-embedding-005.description": "Модель встраивания текста, ориентированная на английский язык, оптимизирована для задач на английском и программировании.",
"google/text-multilingual-embedding-002.description": "Многоязычная модель встраивания текста, оптимизированная для кросс-языковых задач на множестве языков.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo для задач генерации и понимания текста, оптимизирован для выполнения инструкций.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k — высокоёмкая модель генерации текста для сложных задач.",
"gpt-35-turbo.description": "GPT-3.5 Turbo — эффективная модель от OpenAI для чатов и генерации текста с поддержкой параллельного вызова функций.",
"gpt-4-0125-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-0613.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для комплексного анализа информации и синтеза данных.",
"gpt-4-1106-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-32k-0613.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для интеграции информации и анализа данных в сложных сценариях.",
"gpt-4-32k.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для интеграции информации и анализа данных в сложных сценариях.",
"gpt-4-turbo-2024-04-09.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-turbo-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-turbo.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
"gpt-4-vision-preview.description": "Предварительная версия GPT-4 Vision, предназначенная для анализа и обработки изображений.",
"gpt-4.1-mini.description": "GPT-4.1 mini сочетает интеллект, скорость и экономичность, что делает его привлекательным для множества сценариев использования.",
"gpt-4.1-nano.description": "GPT-4.1 nano — самая быстрая и экономичная модель в линейке GPT-4.1.",
"gpt-4.1.description": "GPT-4.1 — наша флагманская модель для решения сложных задач и междисциплинарных проблем.",
"gpt-4.5-preview.description": "GPT-4.5-preview — последняя универсальная модель с глубокими знаниями о мире и улучшенным пониманием намерений. Отлично справляется с творческими задачами и планированием агентов. Актуальность знаний — октябрь 2023 года.",
"gpt-4.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для комплексного анализа информации и синтеза данных.",
"gpt-4o-2024-05-13.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая глубокое понимание и генерацию текста для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"gpt-4o-2024-08-06.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени. Она сочетает в себе мощное языковое понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая глубокое понимание и генерацию текста для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"gpt-4o-audio-preview.description": "Предварительная версия GPT-4o Audio с поддержкой аудиовхода и аудиовыхода.",
"gpt-4o-mini-audio-preview.description": "Модель GPT-4o mini Audio с поддержкой аудиовхода и аудиовыхода.",
"gpt-4o-mini-realtime-preview.description": "Вариант GPT-4o-mini с поддержкой аудио и текста в режиме реального времени.",
"gpt-4o-mini-search-preview.description": "Предварительная версия GPT-4o mini Search обучена понимать и выполнять веб-поисковые запросы через API Chat Completions. Поиск в интернете тарифицируется отдельно за каждый вызов инструмента, помимо стоимости токенов.",
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe — это модель преобразования речи в текст, которая транскрибирует аудио с помощью GPT-4o, улучшая точность распознавания слов, определение языка и общую точность по сравнению с оригинальной моделью Whisper.",
"gpt-4o-mini-tts.description": "GPT-4o mini TTS — это модель преобразования текста в речь, основанная на GPT-4o mini, преобразующая текст в естественно звучащую речь с максимальным входом до 2000 токенов.",
"gpt-4o-mini.description": "GPT-4o mini — новейшая модель OpenAI после GPT-4 Omni, поддерживающая ввод текста и изображений с текстовым выводом. Это самая продвинутая компактная модель, значительно дешевле современных передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo, при этом сохраняет высокий уровень интеллекта (82% MMLU).",
"gpt-4o-realtime-preview-2024-10-01.description": "Вариант GPT-4o с поддержкой аудио и текста в режиме реального времени.",
"gpt-4o-realtime-preview-2025-06-03.description": "Вариант GPT-4o с поддержкой аудио и текста в режиме реального времени.",
"gpt-4o-realtime-preview.description": "Вариант GPT-4o с поддержкой аудио и текста в режиме реального времени.",
"gpt-4o-search-preview.description": "Предварительная версия GPT-4o Search обучена понимать и выполнять веб-поисковые запросы через API Chat Completions. Поиск в интернете тарифицируется отдельно за каждый вызов инструмента, помимо стоимости токенов.",
"gpt-4o-transcribe.description": "GPT-4o Transcribe — это модель преобразования речи в текст, которая транскрибирует аудио с помощью GPT-4o, улучшая точность распознавания слов, определение языка и общую точность по сравнению с оригинальной моделью Whisper.",
"gpt-4o.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая глубокое понимание и генерацию текста для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"gpt-5-chat-latest.description": "Модель GPT-5, используемая в ChatGPT, сочетает в себе мощное понимание и генерацию для разговорных приложений.",
"gpt-5-chat.description": "GPT-5 Chat — предварительная модель, оптимизированная для разговорных сценариев. Поддерживает ввод текста и изображений, выводит только текст и подходит для чат-ботов и разговорного ИИ.",
"gpt-5-codex.description": "GPT-5 Codex — это вариант GPT-5, оптимизированный для агентных задач программирования в средах, подобных Codex.",
"gpt-5-mini.description": "Быстрый и экономичный вариант GPT-5 для четко определенных задач, обеспечивающий быстрые ответы при сохранении качества.",
"gpt-5-nano.description": "Самый быстрый и экономичный вариант GPT-5, идеально подходящий для приложений с чувствительностью к задержке и стоимости.",
"gpt-5-pro.description": "GPT-5 Pro использует больше вычислительных ресурсов для более глубокого анализа и стабильно выдает более качественные ответы.",
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat: вариант GPT-5.1, предназначенный для сценариев общения.",
"gpt-5.1-codex-max.description": "GPT-5.1 Codex Max: самая интеллектуальная модель кодирования от OpenAI, оптимизированная для долгосрочных агентных задач кодирования, поддерживает токены рассуждений.",
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: уменьшенный и более дешевый вариант Codex, оптимизированный для агентных задач программирования.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: вариант GPT-5.1, оптимизированный для агентных задач программирования, включая сложные рабочие процессы с кодом и агентами в API ответов.",
"gpt-5.1.description": "GPT-5.1 — флагманская модель, оптимизированная для программирования и агентных задач с настраиваемой глубиной рассуждений и поддержкой длинного контекста.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat — это вариант ChatGPT (chat-latest) с последними улучшениями в области диалогов.",
"gpt-5.2-codex.description": "GPT-5.2-Codex — это обновленный вариант GPT-5.2, оптимизированный для долгосрочных агентных задач кодирования.",
"gpt-5.2-pro.description": "GPT-5.2 pro: более умный и точный вариант GPT-5.2 (только через Responses API), подходит для сложных задач и многошагового рассуждения.",
"gpt-5.2.description": "GPT-5.2 — флагманская модель для программирования и агентных рабочих процессов с улучшенными логическими способностями и поддержкой длинного контекста.",
"gpt-5.3-chat-latest.description": "GPT-5.3 Chat — это последняя модель ChatGPT, используемая в ChatGPT, с улучшенным опытом общения.",
"gpt-5.3-codex.description": "GPT-5.3-Codex — это самая мощная модель агентного кодирования на сегодняшний день, оптимизированная для агентных задач кодирования в Codex или аналогичных средах.",
"gpt-5.4-mini.description": "GPT-5.4 mini — самая мощная мини-модель OpenAI для кодирования, работы с компьютером и субагентов.",
"gpt-5.4-nano.description": "GPT-5.4 nano — самая доступная модель класса GPT-5.4 от OpenAI для простых задач с большим объемом.",
"gpt-5.4-pro.description": "GPT-5.4 Pro использует больше вычислительных ресурсов для более глубокого анализа и предоставления consistently лучших ответов, доступна только в API ответов.",
"gpt-5.4.description": "GPT-5.4 — это передовая модель для сложной профессиональной работы с наивысшими возможностями рассуждений.",
"gpt-5.description": "Лучшая модель для междисциплинарного программирования и агентных задач. GPT-5 делает скачок в точности, скорости, логике, понимании контекста, структурированном мышлении и решении проблем.",
"gpt-audio.description": "GPT Audio — универсальная модель общения с поддержкой ввода и вывода аудио, доступная через API завершения чата.",
"gpt-image-1-mini.description": "Бюджетный вариант GPT Image 1 с нативной поддержкой ввода текста и изображений и генерацией изображений.",
"gpt-image-1.5.description": "Улучшенная модель GPT Image 1 с генерацией в 4 раза быстрее, более точным редактированием и улучшенной визуализацией текста.",
"gpt-image-1.description": "Нативная мультимодальная модель генерации изображений ChatGPT.",
"gpt-oss-120b.description": "Требуется заявка на доступ. GPT-OSS-120B — это крупная open-source языковая модель от OpenAI с мощными возможностями генерации текста.",
"gpt-oss-20b.description": "Требуется заявка на доступ. GPT-OSS-20B — это средняя open-source языковая модель от OpenAI с эффективной генерацией текста.",
"gpt-oss:120b.description": "GPT-OSS 120B — крупная open-source LLM от OpenAI с квантованием MXFP4, позиционируемая как флагманская модель. Требует многопроцессорной или высокопроизводительной рабочей станции. Обеспечивает отличные результаты в сложных рассуждениях, генерации кода и многоязычной обработке, с поддержкой вызова функций и интеграции инструментов.",
"gpt-oss:20b.description": "GPT-OSS 20B — open-source LLM от OpenAI с квантованием MXFP4, подходящая для мощных потребительских GPU или Apple Silicon. Эффективна в генерации диалогов, программировании и логических задачах, поддерживает вызов функций и использование инструментов.",
"gpt-realtime.description": "Универсальная модель реального времени с поддержкой ввода/вывода текста и аудио, а также ввода изображений.",
"grok-3-mini.description": "Легковесная модель, которая сначала думает, а потом отвечает. Быстрая и умная для логических задач, не требующих глубоких знаний, с доступом к необработанным следам рассуждений.",
"grok-3.description": "Флагманская модель, превосходно справляющаяся с корпоративными задачами, такими как извлечение данных, программирование и суммирование, с глубокими знаниями в области финансов, здравоохранения, права и науки.",
"grok-4-0709.description": "Grok 4 от xAI с мощными логическими возможностями.",
"grok-4-1-fast-non-reasoning.description": "Передовая мультимодальная модель, оптимизированная для высокоэффективного использования инструментов агентами.",
"grok-4-1-fast-reasoning.description": "Передовая мультимодальная модель, оптимизированная для высокоэффективного использования инструментов агентами.",
"grok-4-fast-non-reasoning.description": "Мы рады представить Grok 4 Fast — наш последний прогресс в области экономичных моделей рассуждения.",
"grok-4-fast-reasoning.description": "Мы рады представить Grok 4 Fast — наш последний прогресс в области экономичных моделей рассуждения.",
"grok-4.20-beta-0309-non-reasoning.description": "Вариант без рассуждений для простых случаев использования.",
"grok-4.20-beta-0309-reasoning.description": "Интеллектуальная, сверхбыстрая модель, которая рассуждает перед ответом.",
"grok-4.20-multi-agent-beta-0309.description": "Команда из 4 или 16 агентов, превосходно подходит для исследовательских задач. В настоящее время не поддерживает клиентские инструменты. Поддерживает только серверные инструменты xAI (например, X Search, инструменты веб-поиска) и удаленные инструменты MCP.",
"grok-4.description": "Наша новейшая и самая мощная флагманская модель, превосходящая в НЛП, математике и логике — идеальный универсал.",
"grok-code-fast-1.description": "Мы рады представить grok-code-fast-1 — быструю и экономичную модель рассуждения, превосходную в агентном программировании.",
"grok-imagine-image-pro.description": "Создавайте изображения из текстовых подсказок, редактируйте существующие изображения с помощью естественного языка или итеративно улучшайте изображения через многократные диалоги.",
"grok-imagine-image.description": "Создавайте изображения из текстовых подсказок, редактируйте существующие изображения с помощью естественного языка или итеративно улучшайте изображения через многократные диалоги.",
"groq/compound-mini.description": "Compound-mini — это составная ИИ-система, работающая на базе общедоступных моделей в GroqCloud, которая интеллектуально и избирательно использует инструменты для ответа на запросы пользователей.",
"groq/compound.description": "Compound — это составная ИИ-система, работающая на базе нескольких общедоступных моделей в GroqCloud, которая интеллектуально и избирательно использует инструменты для ответа на запросы пользователей.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B — это креативная и интеллектуальная языковая модель, объединяющая лучшие качества нескольких топовых моделей.",
"hunyuan-2.0-instruct-20251111.description": "Особенности выпуска: базовая модель была обновлена с TurboS до **Hunyuan 2.0**, что привело к всестороннему улучшению возможностей. Она значительно улучшает следование инструкциям, понимание многократных и длинных текстов, литературное творчество, точность знаний, кодирование и способности к рассуждению.",
"hunyuan-2.0-thinking-20251109.description": "Особенности выпуска: базовая модель была обновлена с TurboS до **Hunyuan 2.0**, что привело к всестороннему улучшению возможностей. Она значительно улучшает способность модели следовать сложным инструкциям, понимать многократные и длинные тексты, работать с кодом, функционировать как агент и выполнять задачи рассуждений.",
"hunyuan-a13b.description": "Первая гибридная модель рассуждения от Hunyuan, улучшенная версия hunyuan-standard-256K (всего 80B, активных 13B). По умолчанию использует медленное мышление, поддерживает переключение между быстрым и медленным режимами через параметры или префикс /no_think. Общие возможности улучшены по сравнению с предыдущим поколением, особенно в математике, науке, понимании длинных текстов и задачах агентов.",
"hunyuan-code.description": "Последняя модель кода Hunyuan, обученная на 200B высококачественных данных кода плюс шесть месяцев данных SFT, с контекстом 8K. Она занимает лидирующие позиции в автоматизированных тестах кода и экспертных оценках на пяти языках.",
"hunyuan-functioncall.description": "Последняя модель MoE FunctionCall от Hunyuan, обученная на высококачественных данных вызова инструментов, с окном контекста 32K и ведущими показателями по различным измерениям.",
"hunyuan-large-longcontext.description": "Превосходно справляется с задачами на длинных документах, такими как суммаризация и вопросы-ответы, а также с общей генерацией. Сильна в анализе и генерации длинных текстов для сложного, детализированного контента.",
"hunyuan-large.description": "Hunyuan-large имеет ~389 миллиардов общих параметров и ~52 миллиарда активных, являясь крупнейшей и самой мощной открытой моделью MoE в архитектуре Transformer.",
"hunyuan-lite.description": "Обновлена до архитектуры MoE с контекстом 256K, опережает многие открытые модели в NLP, коде, математике и отраслевых тестах.",
"hunyuan-pro.description": "Модель MoE с триллионом параметров и контекстом 32K, лидирующая в тестах, сильна в сложных инструкциях и рассуждениях, продвинутой математике, вызове функций и оптимизирована для перевода, финансов, права и медицины.",
"hunyuan-role.description": "Последняя модель ролевой игры Hunyuan, официально дообученная на данных ролевой игры, обеспечивающая более сильную базовую производительность в сценариях ролевой игры.",
"hunyuan-standard-256K.description": "Использует улучшенную маршрутизацию для смягчения дисбаланса нагрузки и коллапса экспертов. Достигает 99,9% точности в задачах с длинным контекстом. MOE-256K дополнительно расширяет длину и качество контекста.",
"hunyuan-standard.description": "Использует улучшенную маршрутизацию для смягчения дисбаланса нагрузки и коллапса экспертов. Достигает 99,9% точности в задачах с длинным контекстом. MOE-32K предлагает высокую ценность при обработке длинных входных данных.",
"hunyuan-t1-20250321.description": "Развивает сбалансированные способности в искусстве и STEM, с сильным захватом информации из длинных текстов. Поддерживает рассуждения и ответы на вопросы по математике, логике, науке и программированию на разных уровнях сложности.",
"hunyuan-t1-20250403.description": "Улучшает генерацию кода на уровне проектов и качество написания, усиливает понимание многотемных диалогов и следование инструкциям ToB, улучшает понимание на уровне слов и снижает проблемы смешанного упрощённого/традиционного китайского и китайско-английского вывода.",
"hunyuan-t1-20250529.description": "Улучшает творческое письмо и композицию, усиливает фронтенд-кодирование, математическое и логическое рассуждение, а также улучшает следование инструкциям.",
"hunyuan-t1-20250711.description": "Значительно улучшает сложные задачи по математике, логике и программированию, повышает стабильность вывода и усиливает возможности работы с длинными текстами.",
"hunyuan-t1-latest.description": "Существенно улучшает модель медленного мышления в сложной математике, рассуждениях, трудном программировании, следовании инструкциям и качестве креативного письма.",
"hunyuan-t1-vision-20250916.description": "Новейшая модель глубокого рассуждения t1-vision с серьёзными улучшениями в VQA, визуальной привязке, OCR, графиках, решении задач по фото и создании изображений, а также с усиленной поддержкой английского и языков с низкими ресурсами.",
"hunyuan-turbo-20241223.description": "Эта версия улучшает масштабирование инструкций для лучшей обобщённости, значительно улучшает математическое/программное/логическое рассуждение, усиливает понимание на уровне слов и улучшает качество написания.",
"hunyuan-turbo-latest.description": "Общие улучшения в понимании NLP, написании, чатах, вопросах-ответах, переводах и других областях; более человекоподобные ответы, лучшее уточнение неоднозначных намерений, улучшенный разбор слов, более высокое качество творчества и интерактивности, а также более сильные многотемные диалоги.",
"hunyuan-turbo.description": "Предварительная версия LLM нового поколения от Hunyuan с новой архитектурой MoE, обеспечивающая более быстрое рассуждение и лучшие результаты, чем hunyuan-pro.",
"hunyuan-turbos-latest.description": "Новейшая флагманская модель Hunyuan TurboS с более сильным рассуждением и улучшенным общим пользовательским опытом.",
"hunyuan-turbos-longtext-128k-20250325.description": "Превосходно справляется с задачами на длинных документах, такими как суммаризация и вопросы-ответы, а также с общей генерацией. Сильна в анализе и генерации длинных текстов для сложного, детализированного контента.",
"hunyuan-turbos-vision-video.description": "Применимо к сценариям понимания видео. Особенности выпуска: основано на модели понимания видео **Hunyuan Turbos-Vision**, поддерживающей базовые возможности понимания видео, такие как описание видео и ответы на вопросы о содержании видео.",
"hunyuan-vision-1.5-instruct.description": "Быстродействующая модель преобразования изображения в текст, построенная на текстовой базе TurboS, демонстрирующая заметные улучшения по сравнению с предыдущей версией в области базового распознавания изображений и анализа рассуждений.",
"hunyuan-vision.description": "Последняя мультимодальная модель Hunyuan, поддерживающая ввод изображения + текста для генерации текста.",
"image-01-live.description": "Модель генерации изображений с высокой детализацией, поддерживает генерацию по тексту и управляемые стили.",
"image-01.description": "Новая модель генерации изображений с высокой детализацией, поддерживает генерацию по тексту и по изображению.",
"imagen-4.0-fast-generate-001.description": "Серия моделей генерации изображений Imagen 4-го поколения, версия Fast.",
"imagen-4.0-generate-001.description": "Серия моделей генерации изображений Imagen 4-го поколения.",
"imagen-4.0-ultra-generate-001.description": "Серия моделей генерации изображений Imagen 4-го поколения, версия Ultra.",
"inception/mercury-coder-small.description": "Mercury Coder Small идеально подходит для генерации, отладки и рефакторинга кода с минимальной задержкой.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 — третья модель архитектуры Ling 2.0 от команды Bailing компании Ant Group. Это модель MoE с 100 миллиардами параметров, из которых активно только 6.1 миллиарда на токен (4.8 миллиарда без учета эмбеддингов). Несмотря на легкую конфигурацию, она сопоставима или превосходит плотные модели на 40 миллиардов и более крупные MoE-модели по многим метрикам, демонстрируя высокую эффективность благодаря архитектуре и стратегии обучения.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 — компактная высокопроизводительная MoE LLM с 16 миллиардами параметров и только 1.4 миллиарда активных на токен (789 миллионов без эмбеддингов), обеспечивающая очень быструю генерацию. Благодаря эффективной архитектуре MoE и большому объему качественных обучающих данных, она достигает уровня производительности, сопоставимого с плотными моделями до 10 миллиардов и более крупными MoE-моделями.",
"inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 — высокопроизводительная модель мышления, оптимизированная на базе Ling-flash-2.0. Использует архитектуру MoE с 100 миллиардами параметров и только 6.1 миллиарда активных на инференс. Алгоритм icepop стабилизирует обучение с подкреплением для MoE, обеспечивая устойчивый рост в сложных задачах. Достигает прорывных результатов в сложных бенчмарках (математика, генерация кода, логика), превосходя плотные модели до 40 миллиардов и конкурируя с более крупными открытыми и закрытыми моделями. Также показывает отличные результаты в креативном письме, а ее эффективная архитектура обеспечивает быструю генерацию при низких затратах на развертывание и высокой нагрузке.",
"inclusionai/ling-1t.description": "Ling-1T — MoE-модель от inclusionAI с триллионом параметров, оптимизированная для задач с высокой нагрузкой на мышление и работы с большим контекстом.",
"inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 — MoE-модель от inclusionAI, оптимизированная для эффективности и производительности в задачах мышления, подходит для задач среднего и крупного масштаба.",
"inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 — легковесная MoE-модель от inclusionAI, значительно снижает затраты при сохранении способности к логическому выводу.",
"inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview — мультимодальная модель от inclusionAI, поддерживает ввод речи, изображений и видео, с улучшенной визуализацией и распознаванием речи.",
"inclusionai/ring-1t.description": "Ring-1T — MoE-модель от inclusionAI с триллионом параметров, предназначенная для масштабных задач логического вывода и исследований.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 — вариант модели Ring от inclusionAI для сценариев с высокой пропускной способностью, с акцентом на скорость и экономичность.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 — легковесная MoE-модель от inclusionAI с высокой пропускной способностью, разработана для параллельной обработки.",
"intern-latest.description": "По умолчанию указывает на последнюю выпущенную модель серии Intern, в настоящее время установленную на intern-s1-pro.",
"intern-s1-mini.description": "Легковесная мультимодальная большая модель с сильными научными способностями к рассуждению.",
"intern-s1-pro.description": "Мы запустили нашу самую продвинутую открытую мультимодальную модель рассуждений, которая в настоящее время является лучшей среди открытых мультимодальных больших языковых моделей по общим показателям.",
"intern-s1.description": "Открытая мультимодальная модель рассуждений демонстрирует не только сильные универсальные способности, но и достигает передовых результатов в широком спектре научных задач.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat — открытая модель для чата на базе архитектуры InternLM2. Модель с 7 миллиардами параметров ориентирована на генерацию диалогов с поддержкой китайского и английского языков, использует современные методы обучения для создания плавных и интеллектуальных бесед. Подходит для сценариев, таких как поддержка клиентов и персональные ассистенты.",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO — мультимодальная предварительно обученная модель для сложного логического вывода на основе изображений и текста.",
"internvl3-14b.description": "InternVL3 14B — мультимодальная модель среднего размера, обеспечивающая баланс между производительностью и стоимостью.",
"internvl3-1b.description": "InternVL3 1B — легковесная мультимодальная модель для развертывания в условиях ограниченных ресурсов.",
"internvl3-38b.description": "InternVL3 38B — крупная открытая мультимодальная модель для высокоточного понимания изображений и текста.",
"internvl3.5-241b-a28b.description": "Наша недавно выпущенная мультимодальная большая модель обладает улучшенным пониманием изображений и текста, а также способностями к долгосрочному восприятию изображений, достигая производительности, сопоставимой с ведущими закрытыми моделями.",
"internvl3.5-latest.description": "По умолчанию указывает на последнюю модель серии InternVL3.5, в настоящее время установленную на internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG — модель генерации с дополнением через поиск изображений, предназначенная для поиска изображений, извлечения информации из изображений и текста, а также генерации контента.",
"jamba-large.description": "Наша самая мощная и продвинутая модель, предназначенная для сложных корпоративных задач с выдающейся производительностью.",
"jamba-mini.description": "Самая эффективная модель в своем классе, обеспечивающая баланс между скоростью и качеством при минимальных ресурсах.",
"jina-deepsearch-v1.description": "DeepSearch объединяет веб-поиск, чтение и логический анализ для глубокого исследования. Представьте себе агента, который берет вашу исследовательскую задачу, проводит многократный поиск, анализирует и только потом выдает ответ. Этот процесс включает непрерывное исследование, логическое мышление и многогранное решение задач, что принципиально отличается от стандартных LLM, отвечающих на основе предобученных данных или традиционных RAG-систем с одноразовым поиском.",
"k2p5.description": "Kimi K2.5 — это самая универсальная модель Kimi на сегодняшний день, оснащенная нативной мультимодальной архитектурой, поддерживающей как визуальные, так и текстовые вводы, режимы «мышления» и «немышления», а также как разговорные, так и агентные задачи.",
"kimi-k2-0711-preview.description": "kimi-k2 — базовая модель MoE с мощными возможностями программирования и агентных задач (1T параметров, 32B активных), превосходящая другие открытые модели в логике, программировании, математике и агентных бенчмарках.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлагает окно контекста 256k, улучшенное агентное программирование, более качественный фронтенд-код и лучшее понимание контекста.",
"kimi-k2-instruct.description": "Kimi K2 Instruct — официальная модель логического мышления от Kimi с поддержкой длинного контекста для кода, вопросов-ответов и других задач.",
"kimi-k2-thinking-turbo.description": "Высокоскоростной вариант K2 с длинным мышлением, поддержкой контекста 256k, мощной логикой и скоростью вывода 60100 токенов/сек.",
"kimi-k2-thinking.description": "kimi-k2-thinking — модель мышления от Moonshot AI с общими агентными и логическими возможностями. Отличается глубоким рассуждением и способна решать сложные задачи с помощью многошагового использования инструментов.",
"kimi-k2-turbo-preview.description": "kimi-k2 — базовая модель MoE с мощными возможностями программирования и агентных задач (1T параметров, 32B активных), превосходящая другие открытые модели в логике, программировании, математике и агентных бенчмарках.",
"kimi-k2.5.description": "Kimi K2.5: самая универсальная модель от Kimi на сегодняшний день, с нативной мультимодальной архитектурой, поддерживающей как визуальные, так и текстовые вводы, режимы \"мышления\" и \"без мышления\", а также задачи разговоров и агентов.",
"kimi-k2.description": "Kimi-K2 — базовая модель MoE от Moonshot AI с мощными возможностями программирования и агентных задач, всего 1T параметров и 32B активных. Превосходит другие открытые модели в логике, программировании, математике и агентных задачах.",
"kimi-k2:1t.description": "Kimi K2 — крупная модель MoE LLM от Moonshot AI с 1T параметров и 32B активных на проход. Оптимизирована для агентных задач, включая продвинутое использование инструментов, логическое мышление и синтез кода.",
"kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (бесплатно на ограниченное время) ориентирован на понимание кода и автоматизацию для эффективных кодирующих агентов.",
"labs-devstral-small-2512.description": "Devstral Small 2 превосходно справляется с использованием инструментов для исследования кодовых баз, редактирования нескольких файлов и поддержки агентов для разработки программного обеспечения.",
"lite.description": "Spark Lite — легковесная LLM с ультранизкой задержкой и эффективной обработкой. Полностью бесплатна и поддерживает поиск в интернете в реальном времени. Быстрые ответы хорошо работают на устройствах с низкой вычислительной мощностью и при дообучении модели, обеспечивая высокую экономичность и интеллектуальный опыт, особенно в задачах вопросов-ответов, генерации контента и поиска.",
"llama-3.1-70b-versatile.description": "Llama 3.1 70B обеспечивает улучшенное логическое мышление для сложных приложений, поддерживая высокую вычислительную нагрузку с высокой эффективностью и точностью.",
"llama-3.1-8b-instant.description": "Llama 3.1 8B — высокоэффективная модель с быстрой генерацией текста, идеально подходящая для масштабных и экономичных приложений.",
"llama-3.1-instruct.description": "Модель Llama 3.1, настроенная на выполнение инструкций, оптимизирована для чатов и превосходит многие открытые модели чатов по отраслевым бенчмаркам.",
"llama-3.2-11b-vision-instruct.description": "Мощное логическое мышление по изображениям высокого разрешения, подходит для приложений визуального понимания.",
"llama-3.2-11b-vision-preview.description": "Llama 3.2 разработана для задач, сочетающих зрение и текст, превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное мышление.",
"llama-3.2-90b-vision-instruct.description": "Продвинутое логическое мышление по изображениям для приложений агентов визуального понимания.",
"llama-3.2-90b-vision-preview.description": "Llama 3.2 разработана для задач, сочетающих зрение и текст, превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное мышление.",
"llama-3.2-vision-instruct.description": "Модель Llama 3.2-Vision, настроенная на выполнение инструкций, оптимизирована для визуального распознавания, логики по изображениям, описания и общих визуальных вопросов-ответов.",
"llama-3.3-70b-versatile.description": "Meta Llama 3.3 — многоязычная LLM с 70B параметров (ввод/вывод текста), доступна в вариантах предварительного обучения и настройки на инструкции. Вариант, настроенный на инструкции, оптимизирован для многоязычного диалога и превосходит многие открытые и закрытые модели чатов по отраслевым бенчмаркам.",
"llama-3.3-instruct.description": "Модель Llama 3.3, настроенная на выполнение инструкций, оптимизирована для чатов и превосходит многие открытые модели чатов по отраслевым бенчмаркам.",
"llama3-70b-8192.description": "Meta Llama 3 70B обеспечивает исключительную обработку сложных задач для требовательных проектов.",
"llama3-8b-8192.description": "Meta Llama 3 8B демонстрирует высокую логическую производительность в различных сценариях.",
"llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use обеспечивает мощный вызов инструментов для эффективной обработки сложных задач.",
"llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use оптимизирована для эффективного использования инструментов с быстрой параллельной обработкой.",
"llama3.1-8b.description": "Llama 3.1 8B: компактный вариант Llama с низкой задержкой для легких онлайн-инференций и чатов.",
"llama3.1.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405B параметров для сложных диалогов, многоязычного перевода и анализа данных.",
"llama3.1:405b.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405B параметров для сложных диалогов, многоязычного перевода и анализа данных.",
"llama3.1:70b.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405B параметров для сложных диалогов, многоязычного перевода и анализа данных.",
"llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B объединяет визуальную обработку для генерации сложных выводов на основе визуального ввода.",
"llava.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
"llava:13b.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
"llava:34b.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
"magistral-medium-latest.description": "Magistral Medium 1.2 — это передовая модель рассуждений от Mistral AI (сентябрь 2025 года) с поддержкой обработки изображений.",
"magistral-small-2509.description": "Magistral Small 1.2 — это компактная модель рассуждений с открытым исходным кодом от Mistral AI (сентябрь 2025 года) с поддержкой обработки изображений.",
"mathstral.description": "MathΣtral создана для научных исследований и математических рассуждений, обладает высокой вычислительной мощностью и способностью к объяснению.",
"max-32k.description": "Spark Max 32K обеспечивает обработку больших контекстов с улучшенным пониманием и логическим мышлением, поддерживает ввод до 32K токенов для чтения длинных документов и работы с приватными знаниями.",
"megrez-3b-instruct.description": "Megrez 3B Instruct — это компактная и эффективная модель от Wuwen Xinqiong.",
"meituan/longcat-flash-chat.description": "Открытая базовая модель без рассуждений от Meituan, оптимизированная для диалогов и агентных задач, сильна в использовании инструментов и сложных многоходовых взаимодействиях.",
"meta-llama-3-70b-instruct.description": "Мощная модель с 70 миллиардами параметров, превосходно справляющаяся с рассуждениями, программированием и широким спектром языковых задач.",
"meta-llama-3-8b-instruct.description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для чатов и генерации текста.",
"meta-llama-3.1-405b-instruct.description": "Llama 3.1 — модель, обученная на инструкциях, оптимизированная для многоязычных чатов, демонстрирует высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
"meta-llama-3.1-70b-instruct.description": "Llama 3.1 — модель, обученная на инструкциях, оптимизированная для многоязычных чатов, демонстрирует высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
"meta-llama-3.1-8b-instruct.description": "Llama 3.1 — модель, обученная на инструкциях, оптимизированная для многоязычных чатов, демонстрирует высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
"meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) обеспечивает высокое качество обработки языка и стабильный опыт общения.",
"meta-llama/Llama-2-70b-hf.description": "LLaMA-2 обеспечивает высокое качество обработки языка и стабильное взаимодействие.",
"meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference — мощная модель для сложных диалогов.",
"meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference поддерживает многоязычность и обладает широкими знаниями в различных областях.",
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
"meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
"meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 — многоязычная LLM с 70 миллиардами параметров (ввод/вывод текста), обученная на инструкциях. Оптимизирована для многоязычных чатов и превосходит многие открытые и закрытые модели на отраслевых бенчмарках.",
"meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
"meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite создана для высокой производительности с низкой задержкой.",
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo обеспечивает глубокое понимание и генерацию текста для самых требовательных задач.",
"meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite сбалансирована для работы в условиях ограниченных ресурсов.",
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo — высокопроизводительная LLM для широкого спектра задач.",
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "Модель Llama 3.1 Turbo с 405 миллиардами параметров обладает огромной контекстной емкостью для обработки больших данных и превосходно справляется с задачами ультра-масштабного ИИ.",
"meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405 миллиардов параметров, предназначена для сложных диалогов, многоязычного перевода и анализа данных.",
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B точно настроена для высоконагруженных приложений; квантование FP8 обеспечивает эффективные вычисления и точность в сложных сценариях.",
"meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405 миллиардов параметров, предназначена для сложных диалогов, многоязычного перевода и анализа данных.",
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B использует квантование FP8, поддерживает до 131 072 токенов контекста и входит в число лучших открытых моделей для сложных задач по многим бенчмаркам.",
"meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct оптимизирована для высококачественных диалогов и демонстрирует отличные результаты в оценках с участием людей.",
"meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct оптимизирована для высококачественных диалогов, превосходя многие закрытые модели.",
"meta-llama/llama-3.1-70b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 70 миллиардами параметров, обученный на инструкциях и оптимизированный для высококачественных диалогов. В отраслевых оценках показывает отличные результаты по сравнению с ведущими закрытыми моделями. (Доступна только для проверенных корпоративных клиентов.)",
"meta-llama/llama-3.1-8b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 8 миллиардами параметров, обученный на инструкциях, особенно быстр и эффективен. В отраслевых оценках демонстрирует отличные результаты, превосходя многие ведущие закрытые модели. (Доступна только для проверенных корпоративных клиентов.)",
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 поддерживает многоязычие и является одной из ведущих генеративных моделей.",
"meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 разработан для задач, сочетающих зрение и текст. Превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное рассуждение.",
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Вариант, настроенный на инструкции, оптимизирован для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых бенчмарках. Дата отсечения знаний: декабрь 2023.",
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Вариант, настроенный на инструкции, оптимизирован для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых бенчмарках. Дата отсечения знаний: декабрь 2023.",
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct — самая крупная и мощная модель Llama 3.1 Instruct, высокоразвитая модель для диалогового рассуждения и генерации синтетических данных, а также прочная основа для дообучения в конкретных доменах. Многоязычные LLM Llama 3.1 — это набор предварительно обученных и настроенных на инструкции моделей генерации в размерах 8B, 70B и 405B (ввод текста/вывод текста). Модели, настроенные на инструкции, оптимизированы для многоязычного диалога и превосходят многие доступные открытые чат-модели в отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на разных языках. Модели, настроенные на инструкции, подходят для чатов в стиле помощника, а предварительно обученные модели — для более широких задач генерации естественного языка. Выводы Llama 3.1 также можно использовать для улучшения других моделей, включая генерацию и доработку синтетических данных. Llama 3.1 — это авторегрессионная модель Transformer с оптимизированной архитектурой. Настроенные версии используют SFT и RLHF для соответствия человеческим предпочтениям в полезности и безопасности.",
"meta.llama3-1-70b-instruct-v1:0.description": "Обновлённая версия Meta Llama 3.1 70B Instruct с расширенным контекстом до 128K, поддержкой нескольких языков и улучшенным рассуждением. Модели Llama 3.1 предназначены для коммерческого и исследовательского использования, оптимизированы для диалогов и превосходят многие открытые модели в отраслевых бенчмарках.",
"meta.llama3-1-8b-instruct-v1:0.description": "Обновлённая версия Meta Llama 3.1 8B Instruct с контекстом 128K, поддержкой нескольких языков и улучшенным рассуждением. Подходит для диалогов в стиле помощника и генерации текста. Результаты могут использоваться для улучшения других моделей, включая генерацию синтетических данных.",
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3 — открытая LLM для разработчиков, исследователей и компаний, предназначенная для создания, тестирования и масштабирования идей генеративного ИИ. Подходит для создания контента, диалогов, понимания языка и корпоративных приложений.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 — самая продвинутая многоязычная открытая модель Llama, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Версия с настройкой под инструкции оптимизирована для многоязычного общения и превосходит многие открытые и закрытые модели чатов по отраслевым бенчмаркам. Актуальность знаний: декабрь 2023.",
"meta/Meta-Llama-3-70B-Instruct.description": "Мощная модель с 70 миллиардами параметров, превосходно справляющаяся с рассуждениями, программированием и широким спектром языковых задач.",
"meta/Meta-Llama-3-8B-Instruct.description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для общения и генерации текста.",
"meta/Meta-Llama-3.1-405B-Instruct.description": "Модель Llama 3.1 с настройкой под инструкции, оптимизированная для многоязычного общения, демонстрирует высокие результаты по отраслевым бенчмаркам среди открытых и закрытых моделей чатов.",
"meta/Meta-Llama-3.1-70B-Instruct.description": "Модель Llama 3.1 с настройкой под инструкции, оптимизированная для многоязычного общения, демонстрирует высокие результаты по отраслевым бенчмаркам среди открытых и закрытых моделей чатов.",
"meta/Meta-Llama-3.1-8B-Instruct.description": "Модель Llama 3.1 с настройкой под инструкции, оптимизированная для многоязычного общения, демонстрирует высокие результаты по отраслевым бенчмаркам среди открытых и закрытых моделей чатов.",
"meta/llama-3.1-405b-instruct.description": "Продвинутая LLM, поддерживающая генерацию синтетических данных, дистилляцию знаний и рассуждение для чат-ботов, программирования и специализированных задач.",
"meta/llama-3.1-70b-instruct.description": "Создана для сложных диалогов с отличным пониманием контекста, рассуждением и генерацией текста.",
"meta/llama-3.1-70b.description": "Обновлённая Meta Llama 3 70B Instruct с контекстом 128K, поддержкой многоязычности и улучшенным рассуждением.",
"meta/llama-3.1-8b-instruct.description": "Передовая модель с высоким уровнем понимания языка, рассуждения и генерации текста.",
"meta/llama-3.1-8b.description": "Llama 3.1 8B поддерживает окно контекста 128K, идеально подходит для общения в реальном времени и анализа данных, обеспечивая значительную экономию по сравнению с более крупными моделями. Предоставляется через Groq на аппаратуре LPU для быстрого и эффективного вывода.",
"meta/llama-3.2-11b-vision-instruct.description": "Передовая модель визуально-языкового понимания, превосходно справляющаяся с высококачественным рассуждением по изображениям.",
"meta/llama-3.2-11b.description": "Модель с настройкой под инструкции для визуального рассуждения (ввод: текст+изображение, вывод: текст), оптимизированная для визуального распознавания, рассуждения, описания и общего визуального QA.",
"meta/llama-3.2-1b-instruct.description": "Передовая компактная языковая модель с высоким уровнем понимания, рассуждения и генерации текста.",
"meta/llama-3.2-1b.description": "Модель только для текста, предназначенная для использования на устройствах, таких как многоязычный локальный поиск, суммирование и переформулирование.",
"meta/llama-3.2-3b-instruct.description": "Передовая компактная языковая модель с высоким уровнем понимания, рассуждения и генерации текста.",
"meta/llama-3.2-3b.description": "Модель только для текста, дообученная для использования на устройствах, таких как многоязычный локальный поиск, суммирование и переформулирование.",
"meta/llama-3.2-90b-vision-instruct.description": "Передовая модель визуально-языкового понимания, превосходно справляющаяся с высококачественным рассуждением по изображениям.",
"meta/llama-3.2-90b.description": "Модель с настройкой под инструкции для визуального рассуждения (ввод: текст+изображение, вывод: текст), оптимизированная для визуального распознавания, рассуждения, описания и общего визуального QA.",
"meta/llama-3.3-70b-instruct.description": "Продвинутая LLM, сильная в рассуждении, математике, здравом смысле и вызове функций.",
"meta/llama-3.3-70b.description": "Идеальный баланс производительности и эффективности. Создана для высокопроизводительного разговорного ИИ в создании контента, корпоративных приложениях и исследованиях, с высоким уровнем понимания языка для суммирования, классификации, анализа тональности и генерации кода.",
"meta/llama-4-maverick.description": "Семейство Llama 4 — это нативные мультимодальные модели ИИ, поддерживающие текст и мультимодальные взаимодействия, использующие MoE для передового понимания текста и изображений. Llama 4 Maverick — это модель с 17B параметрами и 128 экспертами, предоставляемая DeepInfra.",
"meta/llama-4-scout.description": "Семейство Llama 4 — это нативные мультимодальные модели ИИ, поддерживающие текст и мультимодальные взаимодействия, использующие MoE для передового понимания текста и изображений. Llama 4 Scout — это модель с 17B параметрами и 16 экспертами, предоставляемая DeepInfra.",
"microsoft/Phi-3-medium-128k-instruct.description": "Та же модель Phi-3-medium, но с увеличенным окном контекста для задач RAG или few-shot.",
"microsoft/Phi-3-medium-4k-instruct.description": "Модель с 14 млрд параметров, превосходящая Phi-3-mini по качеству, ориентирована на задачи, требующие глубокого рассуждения.",
"microsoft/Phi-3-mini-128k-instruct.description": "Та же модель Phi-3-mini, но с увеличенным окном контекста для задач RAG или few-shot.",
"microsoft/Phi-3-mini-4k-instruct.description": "Наименьшая модель в семействе Phi-3, оптимизированная для качества и низкой задержки.",
"microsoft/Phi-3-small-128k-instruct.description": "Та же модель Phi-3-small, но с увеличенным окном контекста для задач RAG или few-shot.",
"microsoft/Phi-3-small-8k-instruct.description": "Модель с 7 млрд параметров, превосходящая Phi-3-mini по качеству, ориентирована на задачи, требующие глубокого рассуждения.",
"microsoft/Phi-3.5-mini-instruct.description": "Обновлённая версия модели Phi-3-mini.",
"microsoft/Phi-3.5-vision-instruct.description": "Обновлённая версия модели Phi-3-vision.",
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 — языковая модель от Microsoft AI, превосходно справляющаяся со сложными диалогами, многоязычными задачами, рассуждением и задачами помощников.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B — самая продвинутая модель Wizard от Microsoft AI с высокой производительностью.",
"mimo-v2-flash.description": "MiMo-V2-Flash теперь официально с открытым исходным кодом! Это модель MoE (Mixture-of-Experts), специально созданная для экстремальной эффективности вывода, с общим количеством параметров 309B (15B активированы). Благодаря инновациям в гибридной архитектуре внимания и многослойной MTP-ускоренной обработке, она входит в число двух лучших моделей с открытым исходным кодом в глобальных рейтингах агентных тестов. Ее возможности кодирования превосходят все модели с открытым исходным кодом и сопоставимы с ведущими закрытыми моделями, такими как Claude 4.5 Sonnet, при этом затраты на вывод составляют всего 2,5%, а скорость генерации в 2 раза выше — доводя эффективность вывода больших моделей до предела.",
"mimo-v2-omni.description": "MiMo-V2-Omni специально создан для сложных мультимодальных взаимодействий и сценариев выполнения в реальном мире. Мы построили фундаментальную модель для всех модальностей с нуля, интегрировав текст, изображение и речь, и объединили «восприятие» и «действие» в единой архитектуре. Это не только преодолевает традиционные ограничения моделей, которые акцентируют внимание на понимании, а не на выполнении, но и наделяет модель естественными способностями в мультимодальном восприятии, использовании инструментов, выполнении функций и операциях с GUI. MiMo-V2-Omni может бесшовно интегрироваться с основными агентными фреймворками, обеспечивая переход от понимания к управлению и значительно снижая барьер для развертывания полностью мультимодальных агентов.",
"mimo-v2-pro.description": "Xiaomi MiMo-V2-Pro специально разработан для высокоинтенсивных агентных рабочих процессов в реальных сценариях. Он включает более 1 триллиона общих параметров (42B активированных параметров), использует инновационную гибридную архитектуру внимания и поддерживает сверхдлинный контекст длиной до 1 миллиона токенов. Построенный на мощной базовой модели, мы непрерывно масштабируем вычислительные ресурсы для более широкого диапазона агентных сценариев, расширяя пространство действий интеллекта и достигая значительной генерализации — от кодирования до выполнения задач в реальном мире («коготь»).",
"minicpm-v.description": "MiniCPM-V — мультимодальная модель нового поколения от OpenBMB с отличным OCR и пониманием мультимодальных данных для широкого спектра задач.",
"minimax-m2.1.description": "MiniMax-M2.1 — последняя версия серии MiniMax, оптимизированная для многоязычного программирования и сложных задач реального мира. Как нативная AI-модель, она значительно улучшает производительность, поддержку агентных фреймворков и адаптацию к различным сценариям, помогая компаниям и пользователям быстрее находить AI-решения для работы и жизни.",
"minimax-m2.5.description": "MiniMax-M2.5 — это передовая большая языковая модель, разработанная для повышения производительности и выполнения задач программирования в реальных условиях.",
"minimax-m2.description": "MiniMax M2 — эффективная большая языковая модель, специально созданная для программирования и агентных рабочих процессов.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 — лёгкая и передовая большая языковая модель, оптимизированная для программирования, агентных рабочих процессов и современного приложения, обеспечивающая более чистый и лаконичный вывод и быструю реакцию.",
"minimax/minimax-m2.description": "MiniMax-M2 — высокоэффективная модель, превосходно справляющаяся с программированием и агентными задачами в инженерных сценариях.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 — это компактная, быстрая, экономичная модель MoE, созданная для первоклассного кодирования и производительности агентов.",
"minimaxai/minimax-m2.5.description": "MiniMax-M2.5 — это последняя крупная языковая модель от MiniMax, использующая архитектуру Mixture-of-Experts (MoE) с 229 миллиардами общих параметров. Она достигает лидирующей в отрасли производительности в программировании, вызове инструментов агентов, поисковых задачах и офисных сценариях.",
"minimaxai/minimax-m2.description": "MiniMax-M2 — компактная, быстрая и экономичная модель MoE (230B общих, 10B активных параметров), созданная для высококлассного программирования и агентных задач при сохранении сильного общего интеллекта. Отлично справляется с редактированием нескольких файлов, циклами запуска-кода-исправления, проверкой тестов и сложными цепочками инструментов.",
"ministral-3b-latest.description": "Ministral 3B — это флагманская модель edge-класса от Mistral.",
"ministral-8b-latest.description": "Ministral 8B — высокоэффективная модель edge-класса от Mistral с оптимальным соотношением цена/качество.",
"mistral-ai/Mistral-Large-2411.description": "Флагманская модель Mistral для сложных задач, требующих масштабного рассуждения или специализации (генерация синтетического текста, кода, RAG или агенты).",
"mistral-ai/Mistral-Nemo.description": "Mistral Nemo — передовая LLM с выдающимися возможностями рассуждения, знаниями о мире и кодированием для своей размерности.",
"mistral-ai/mistral-small-2503.description": "Mistral Small подходит для любых задач, связанных с языком, где важны высокая эффективность и низкая задержка.",
"mistral-large-instruct.description": "Mistral-Large-Instruct-2407 — продвинутая плотная LLM с 123 миллиардами параметров, обладающая передовыми возможностями рассуждения, знаний и программирования.",
"mistral-large-latest.description": "Mistral Large — флагманская модель, сильная в многоязычных задачах, сложном рассуждении и генерации кода — идеально подходит для высокоуровневых приложений.",
"mistral-large.description": "Mixtral Large — флагманская модель от Mistral, сочетающая генерацию кода, математику и рассуждение с контекстным окном на 128K.",
"mistral-medium-latest.description": "Mistral Medium 3.1 обеспечивает передовую производительность при 8-кратном снижении затрат и упрощает корпоративное развертывание.",
"mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 — версия модели Mistral-Nemo-Base-2407, адаптированная под инструкции.",
"mistral-nemo.description": "Mistral Nemo — высокоэффективная модель на 12B параметров от Mistral AI и NVIDIA.",
"mistral-small-latest.description": "Mistral Small — экономичное, быстрое и надежное решение для перевода, суммирования и анализа тональности.",
"mistral-small.description": "Mistral Small подходит для любых языковых задач, где важны высокая эффективность и низкая задержка.",
"mistral.description": "Mistral — модель на 7B параметров от Mistral AI, подходящая для разнообразных языковых задач.",
"mistral/codestral-embed.description": "Модель для встраивания кода, предназначенная для индексирования кодовых баз и репозиториев в помощь ассистентам по программированию.",
"mistral/codestral.description": "Mistral Codestral 25.01 — передовая модель программирования, оптимизированная для низкой задержки и частого использования. Поддерживает более 80 языков и превосходна в FIM, исправлении кода и генерации тестов.",
"mistral/devstral-small.description": "Devstral — агентная LLM для задач в области разработки ПО, отличный выбор для инженерных агентов.",
"mistral/magistral-medium.description": "Сложное мышление, поддерживаемое глубоким пониманием и прозрачной логикой, которую можно проследить и проверить. Сохраняет точность рассуждений на разных языках даже в середине задачи.",
"mistral/magistral-small.description": "Сложное мышление, поддерживаемое глубоким пониманием и прозрачной логикой, которую можно проследить и проверить. Сохраняет точность рассуждений на разных языках даже в середине задачи.",
"mistral/ministral-3b.description": "Компактная и эффективная модель для задач на устройстве, таких как ассистенты и локальная аналитика, с низкой задержкой.",
"mistral/ministral-8b.description": "Более мощная модель с быстрой и экономной по памяти инференцией, идеально подходит для сложных рабочих процессов и требовательных edge-приложений.",
"mistral/mistral-embed.description": "Универсальная модель встраивания текста для семантического поиска, оценки схожести, кластеризации и RAG-процессов.",
"mistral/mistral-large.description": "Mistral Large идеально подходит для сложных задач, требующих мощного рассуждения или специализации — генерации синтетического текста, кода, RAG или агентов.",
"mistral/mistral-small.description": "Mistral Small идеально подходит для простых, пакетных задач, таких как классификация, поддержка клиентов или генерация текста, обеспечивая отличную производительность по доступной цене.",
"mistral/mixtral-8x22b-instruct.description": "Модель 8x22B Instruct. 8x22B — это открытая MoE-модель, предоставляемая Mistral.",
"mistral/pixtral-12b.description": "Модель на 12B параметров с пониманием изображений и текста.",
"mistral/pixtral-large.description": "Pixtral Large — вторая модель в нашей мультимодальной линейке с передовым пониманием изображений. Обрабатывает документы, графики и естественные изображения, сохраняя при этом выдающееся понимание текста от Mistral Large 2.",
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct известна своей высокой производительностью в различных языковых задачах.",
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 улучшает обработку инструкций и точность результатов.",
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 обеспечивает эффективные вычисления и отличное понимание языка для множества сценариев.",
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B — компактная, но высокопроизводительная модель, хорошо подходит для пакетной обработки и простых задач, таких как классификация и генерация текста, с уверенными логическими способностями.",
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) — очень крупная языковая модель для работы с тяжёлыми нагрузками.",
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B) обладает высокой пропускной способностью для обработки данных в крупном масштабе.",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B — разреженная модель MoE, ускоряющая вывод, подходит для многоязычных задач и генерации кода.",
"mistralai/mistral-nemo.description": "Mistral Nemo — модель на 7.3B параметров с поддержкой нескольких языков и высокой производительностью в программировании.",
"mixtral-8x7b-32768.description": "Mixtral 8x7B обеспечивает отказоустойчивую параллельную обработку для сложных задач.",
"mixtral.description": "Mixtral — модель MoE от Mistral AI с открытыми весами, поддерживающая генерацию кода и понимание языка.",
"mixtral:8x22b.description": "Mixtral — модель MoE от Mistral AI с открытыми весами, поддерживающая генерацию кода и понимание языка.",
"moonshot-v1-128k-vision-preview.description": "Модели Kimi Vision (включая moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) способны понимать содержимое изображений, включая текст, цвета и формы объектов.",
"moonshot-v1-128k.description": "Moonshot V1 128K предоставляет сверхдлинный контекст для генерации очень длинных текстов, обрабатывая до 128 000 токенов — идеально для исследований, академических задач и работы с большими документами.",
"moonshot-v1-32k-vision-preview.description": "Модели Kimi Vision (включая moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) способны понимать содержимое изображений, включая текст, цвета и формы объектов.",
"moonshot-v1-32k.description": "Moonshot V1 32K поддерживает 32 768 токенов для контекста средней длины, идеально подходит для длинных документов и сложных диалогов в создании контента, отчётах и чат-системах.",
"moonshot-v1-8k-vision-preview.description": "Модели Kimi Vision (включая moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) способны понимать содержимое изображений, включая текст, цвета и формы объектов.",
"moonshot-v1-8k.description": "Moonshot V1 8K оптимизирована для генерации коротких текстов с высокой эффективностью, обрабатывает 8192 токена — подходит для коротких чатов, заметок и быстрого контента.",
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B: модель программирования с открытым исходным кодом, оптимизированная с использованием масштабного RL для создания надежных, готовых к производству патчей. Набирает 60,4% на SWE-bench Verified, устанавливая новый рекорд среди открытых моделей для автоматизированных задач программирования, таких как исправление ошибок и обзор кода.",
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 — новейшая и самая мощная версия Kimi K2. Это топовая модель MoE с 1 триллионом общих и 32 миллиардами активных параметров. Ключевые особенности: улучшенный интеллект в программировании агентов, значительный прирост в бенчмарках и реальных задачах, а также улучшенная эстетика и удобство фронтенд-кода.",
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking — это последняя и самая мощная открытая модель мышления. Она значительно увеличивает глубину многошагового рассуждения и поддерживает стабильное использование инструментов в течение 200300 последовательных вызовов, устанавливая новые рекорды на Humanity's Last Exam (HLE), BrowseComp и других тестах. Она превосходна в программировании, математике, логике и сценариях агентов. Построена на архитектуре MoE с ~1 триллионом общих параметров, поддерживает окно контекста 256K и вызов инструментов.",
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711 — вариант instruct в серии Kimi, предназначен для высококачественного кода и использования инструментов.",
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905 — обновление, расширяющее контекст и логические возможности с оптимизациями для программирования.",
"moonshotai/kimi-k2-instruct-0905.description": "Модель kimi-k2-0905-preview поддерживает окно контекста 256K, обладает улучшенными возможностями программирования агентов, более качественным и практичным фронтенд-кодом и лучшим пониманием контекста.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo — высокоскоростная версия Kimi K2 Thinking, значительно снижает задержку при сохранении глубины рассуждений.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking — модель рассуждений от Moonshot, оптимизированная для задач глубокого мышления, с общими агентными возможностями.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 — самая интеллектуальная модель Kimi на сегодняшний день, с нативной мультимодальной архитектурой.",
"moonshotai/kimi-k2.description": "Kimi K2 — крупная модель MoE от Moonshot AI с 1 триллионом параметров и 32 миллиардами активных на проход, оптимизирована для агентных возможностей, включая продвинутую работу с инструментами, логическое мышление и синтез кода.",
"morph/morph-v3-fast.description": "Morph — специализированная модель для применения изменений в коде, предложенных передовыми моделями (например, Claude или GPT-4o), к существующим файлам со скоростью более 4500 токенов/сек. Это финальный этап в AI-пайплайне программирования, поддерживает 16k токенов на вход/выход.",
"morph/morph-v3-large.description": "Morph — специализированная модель для применения изменений в коде, предложенных передовыми моделями (например, Claude или GPT-4o), к существующим файлам со скоростью более 2500 токенов/сек. Это финальный этап в AI-пайплайне программирования, поддерживает 16k токенов на вход/выход.",
"musesteamer-air-image.description": "musesteamer-air-image — это модель генерации изображений, разработанная командой поиска Baidu для обеспечения исключительного соотношения цены и качества. Она может быстро создавать четкие, согласованные по действиям изображения на основе пользовательских подсказок, легко превращая описания пользователей в визуальные образы.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B — обновлённая версия Nous Hermes 2 с новейшими внутренними датасетами.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B — кастомизированная модель от NVIDIA, улучшающая полезность. Демонстрирует высокие результаты на Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, занимая первое место на всех трёх бенчмарках авто-выравнивания по состоянию на 1 октября 2024 года. Обучена на основе Llama-3.1-70B-Instruct с использованием RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference prompts.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Уникальная языковая модель с выдающейся точностью и эффективностью.",
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct — кастомизированная модель от NVIDIA, созданная для повышения полезности ответов LLM.",
"o1-mini.description": "o1-mini — это быстрая, экономичная модель рассуждений, разработанная для программирования, математики и науки. Она имеет контекст 128K и отсечку знаний на октябрь 2023 года.",
"o1-preview.description": "o1 — это новая модель рассуждений от OpenAI для сложных задач, требующих обширных знаний. Она имеет контекст 128K и отсечку знаний на октябрь 2023 года.",
"o1-pro.description": "Серия o1 обучена с использованием обучения с подкреплением для предварительного обдумывания ответов и решения сложных задач. o1-pro использует больше вычислений для более глубокого мышления и стабильно высокого качества ответов.",
"o1.description": "o1 — новая модель рассуждения от OpenAI с вводом текст+изображение и текстовым выводом, подходящая для сложных задач, требующих обширных знаний. Имеет контекстное окно 200K и отсечку знаний на октябрь 2023 года.",
"o3-2025-04-16.description": "o3 — новая модель рассуждения от OpenAI с вводом текст+изображение и текстовым выводом для сложных задач, требующих обширных знаний.",
"o3-deep-research.description": "o3-deep-research — наша самая продвинутая модель для глубоких исследований и многошаговых задач. Может искать в интернете и получать доступ к вашим данным через MCP-коннекторы.",
"o3-mini.description": "o3-mini — наша последняя компактная модель рассуждения, обеспечивающая более высокий интеллект при тех же затратах и задержке, что и o1-mini.",
"o3-pro-2025-06-10.description": "o3 Pro — новая модель рассуждения от OpenAI с вводом текст+изображение и текстовым выводом для сложных задач, требующих обширных знаний.",
"o3-pro.description": "o3-pro использует больше вычислений для более глубокого мышления и стабильно лучших ответов; доступна только через Responses API.",
"o3.description": "o3 — мощная универсальная модель, устанавливающая новый стандарт в математике, науке, программировании и визуальном рассуждении. Превосходна в техническом письме, следовании инструкциям и анализе текста, кода и изображений для многошаговых задач.",
"o4-mini-2025-04-16.description": "o4-mini — модель рассуждения от OpenAI с вводом текст+изображение и текстовым выводом, подходящая для сложных задач, требующих обширных знаний, с контекстным окном 200K.",
"o4-mini-deep-research.description": "o4-mini-deep-research — более быстрая и доступная модель для глубоких исследований и многошаговых задач. Может искать в интернете и получать доступ к вашим данным через MCP-коннекторы.",
"o4-mini.description": "o4-mini — последняя компактная модель серии o, оптимизированная для быстрого и эффективного рассуждения с высокой эффективностью в задачах программирования и компьютерного зрения.",
"open-codestral-mamba.description": "Codestral Mamba — языковая модель Mamba 2, ориентированная на генерацию кода, поддерживающая сложные задачи программирования и рассуждения.",
"open-mistral-7b.description": "Mistral 7B — компактная, но производительная модель, хорошо подходящая для пакетной обработки и простых задач, таких как классификация и генерация текста, с уверенными навыками рассуждения.",
"open-mistral-nemo.description": "Mistral Nemo — модель на 12B параметров, совместно разработанная с Nvidia, демонстрирующая высокие результаты в рассуждении и программировании, с легкой интеграцией.",
"open-mixtral-8x22b.description": "Mixtral 8x22B — крупная модель MoE для сложных задач, обеспечивающая мощные рассуждения и высокую пропускную способность.",
"open-mixtral-8x7b.description": "Mixtral 8x7B — разреженная модель MoE, ускоряющая вывод, подходящая для многоязычных задач и генерации кода.",
"openai/gpt-3.5-turbo-instruct.description": "Схожие возможности с моделями эпохи GPT-3, совместима с устаревшими конечными точками завершения, а не чата.",
"openai/gpt-3.5-turbo.description": "Самая способная и экономичная модель GPT-3.5 от OpenAI, оптимизированная для чата, но также сильная в классических завершениях.",
"openai/gpt-4-turbo.description": "gpt-4-turbo от OpenAI обладает обширными знаниями и экспертизой в различных областях, следует сложным инструкциям на естественном языке и точно решает трудные задачи. Актуальность знаний — апрель 2023 года, контекстное окно — 128k.",
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini обеспечивает меньшую задержку и лучшую стоимость для задач со средним контекстом.",
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano — сверхдешевый и низкозадерживающий вариант для частых коротких чатов или классификации.",
"openai/gpt-4.1.description": "Серия GPT-4.1 предлагает увеличенные контекстные окна и улучшенные инженерные и рассуждательные возможности.",
"openai/gpt-4o-mini.description": "GPT-4o-mini — быстрая, компактная версия GPT-4o для мультимодального использования с низкой задержкой.",
"openai/gpt-4o.description": "Семейство GPT-4o — это универсальная модель OpenAI с вводом текста и изображений и выводом текста.",
"openai/gpt-5-chat.description": "GPT-5 Chat — вариант GPT-5, оптимизированный для диалогов с низкой задержкой и лучшей интерактивностью.",
"openai/gpt-5-codex.description": "GPT-5-Codex — вариант GPT-5, дополнительно оптимизированный для программирования и масштабных рабочих процессов с кодом.",
"openai/gpt-5-mini.description": "GPT-5 Mini — уменьшенный вариант GPT-5 для сценариев с низкой задержкой и низкой стоимостью.",
"openai/gpt-5-nano.description": "GPT-5 Nano — ультракомпактный вариант для сценариев с жесткими ограничениями по стоимости и задержке.",
"openai/gpt-5-pro.description": "GPT-5 Pro — флагманская модель OpenAI с улучшенными возможностями рассуждения, генерации кода и корпоративными функциями, включая маршрутизацию во время выполнения и более строгие политики безопасности.",
"openai/gpt-5.1-chat.description": "GPT-5.1 Chat — легковесный представитель семейства GPT-5.1, оптимизированный для диалогов с низкой задержкой при сохранении сильных навыков рассуждения и выполнения инструкций.",
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini — уменьшенная и ускоренная версия GPT-5.1-Codex, подходящая для сценариев программирования с ограничениями по задержке и стоимости.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex — вариант GPT-5.1, оптимизированный для программной инженерии и рабочих процессов программирования, подходящий для крупных рефакторингов, сложной отладки и длительных автономных задач.",
"openai/gpt-5.1.description": "GPT-5.1 — новейшая флагманская модель в серии GPT-5, с существенными улучшениями по сравнению с GPT-5 в рассуждении, следовании инструкциям и естественности диалога, подходящая для широкого круга задач.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat — вариант ChatGPT для знакомства с последними улучшениями в диалогах.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro — более умный и точный вариант GPT-5.2 (только через API ответов), подходящий для сложных задач и многошагового рассуждения.",
"openai/gpt-5.2.description": "GPT-5.2 — флагманская модель для программирования и агентных рабочих процессов с улучшенным рассуждением и производительностью на длинных контекстах.",
"openai/gpt-5.description": "GPT-5 — высокопроизводительная модель OpenAI для широкого спектра производственных и исследовательских задач.",
"openai/gpt-oss-120b.description": "Высококлассная универсальная языковая модель с мощными и управляемыми возможностями рассуждения.",
"openai/gpt-oss-20b.description": "Компактная языковая модель с открытым весом, оптимизированная для низкой задержки и ограниченных ресурсов, включая локальные и пограничные развертывания.",
"openai/o1-mini.description": "o1-mini — быстрая и экономичная модель рассуждения, предназначенная для программирования, математики и науки. Имеет контекст 128K и актуальность знаний на октябрь 2023 года.",
"openai/o1-preview.description": "o1 — новая модель рассуждения от OpenAI для сложных задач, требующих обширных знаний. Имеет контекст 128K и актуальность знаний на октябрь 2023 года.",
"openai/o1.description": "OpenAI o1 — флагманская модель рассуждения, созданная для сложных задач, требующих глубокого мышления, обеспечивая высокую точность и сильные рассуждения в многошаговых задачах.",
"openai/o3-mini-high.description": "o3-mini (высокий уровень рассуждения) обеспечивает более высокий интеллект при тех же затратах и задержке, что и o1-mini.",
"openai/o3-mini.description": "o3-mini — новейшая компактная модель рассуждения от OpenAI, обеспечивающая более высокий интеллект при тех же затратах и задержке, что и o1-mini.",
"openai/o3.description": "OpenAI o3 — самая мощная модель рассуждения, устанавливающая новый стандарт в программировании, математике, науке и визуальном восприятии. Превосходно справляется со сложными многогранными запросами, особенно сильна в анализе изображений, графиков и диаграмм.",
"openai/o4-mini-high.description": "o4-mini — модель высокого уровня рассуждения, оптимизированная для быстрого и эффективного мышления с сильными результатами в программировании и зрении.",
"openai/o4-mini.description": "OpenAI o4-mini — компактная и эффективная модель рассуждения для сценариев с низкой задержкой.",
"openai/text-embedding-3-large.description": "Самая мощная модель встраивания от OpenAI для задач на английском и других языках.",
"openai/text-embedding-3-small.description": "Улучшенный и более производительный вариант модели встраивания ada от OpenAI.",
"openai/text-embedding-ada-002.description": "Устаревшая модель встраивания текста от OpenAI.",
"openrouter/auto.description": "В зависимости от длины контекста, темы и сложности ваш запрос направляется в Llama 3 70B Instruct, Claude 3.5 Sonnet (с самомодерацией) или GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini — предварительная модель, оптимизированная для задач, связанных с программированием.",
"oswe-vscode-secondary.description": "Raptor mini — предварительная модель, оптимизированная для задач, связанных с программированием.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 — это модель, которая сочетает высокую вычислительную эффективность с отличной производительностью в рассуждениях и работе агентов.",
"perplexity/sonar-pro.description": "Флагманский продукт Perplexity с привязкой к поиску, поддерживающий сложные запросы и уточнения.",
"perplexity/sonar-reasoning-pro.description": "Продвинутая модель, ориентированная на рассуждение, выводящая цепочку мыслей с расширенным поиском, включая несколько поисковых запросов на один запрос.",
"perplexity/sonar-reasoning.description": "Модель, ориентированная на рассуждение, выводящая цепочку мыслей с подробными объяснениями, основанными на поиске.",
"perplexity/sonar.description": "Легковесный продукт с привязкой к поиску, быстрее и дешевле, чем Sonar Pro.",
"phi3.description": "Phi-3 — легковесная открытая модель от Microsoft для эффективной интеграции и масштабного рассуждения.",
"phi3:14b.description": "Phi-3 — легковесная открытая модель от Microsoft для эффективной интеграции и масштабного рассуждения.",
"pixtral-12b-2409.description": "Pixtral отлично справляется с анализом графиков и изображений, вопросами по документам, мультимодальным рассуждением и выполнением инструкций. Он обрабатывает изображения в их исходном разрешении и соотношении сторон, поддерживая любое количество изображений в контексте до 128K.",
"pixtral-large-latest.description": "Pixtral Large — это открытая мультимодальная модель с 124 миллиардами параметров, построенная на базе Mistral Large 2. Это вторая модель в нашей мультимодальной линейке, обладающая передовыми возможностями понимания изображений.",
"pro-128k.description": "Spark Pro 128K обладает очень большой контекстной емкостью — до 128K, что делает его идеальным для анализа длинных документов, требующих полного охвата текста и логической связности, с поддержкой логики и разнообразных ссылок в сложных обсуждениях.",
"pro-deepseek-r1.description": "Выделенная корпоративная модель обслуживания с включенной параллельной обработкой.",
"pro-deepseek-v3.description": "Выделенная корпоративная модель обслуживания с включенной параллельной обработкой.",
"qianfan-70b.description": "Qianfan 70B — это крупная китайская модель для высококачественной генерации текста и сложного рассуждения.",
"qianfan-8b.description": "Qianfan 8B — это универсальная модель среднего размера, обеспечивающая баланс между стоимостью и качеством генерации текста и ответов на вопросы.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K предназначена для распознавания намерений и координации агентов с поддержкой длинного контекста.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K — это легковесная агентная модель для недорогих многотактных диалогов и рабочих процессов.",
"qianfan-check-vl.description": "Qianfan Check VL — это мультимодальная модель для проверки соответствия контента изображений и текста, а также задач распознавания.",
"qianfan-composition.description": "Qianfan Composition — это мультимодальная модель для создания и понимания смешанного контента изображение-текст.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL — это мультимодальная модель распознавания, ориентированная на англоязычные сценарии.",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B — мультимодальная модель на базе Llama для общего понимания изображений и текста.",
"qianfan-multipicocr.description": "Qianfan MultiPicOCR — это модель OCR для нескольких изображений, предназначенная для обнаружения и распознавания текста на изображениях.",
"qianfan-qi-vl.description": "Qianfan QI VL — мультимодальная модель для точного поиска и ответов на вопросы в сложных сценариях изображение-текст.",
"qianfan-singlepicocr.description": "Qianfan SinglePicOCR — это модель OCR для одного изображения с высокой точностью распознавания символов.",
"qianfan-vl-70b.description": "Qianfan VL 70B — это крупная мультимодальная модель для сложного понимания изображений и текста.",
"qianfan-vl-8b.description": "Qianfan VL 8B — это легковесная мультимодальная модель для повседневного анализа изображений и текстов и ответов на вопросы.",
"qvq-72b-preview.description": "QVQ-72B-Preview — это экспериментальная исследовательская модель от Qwen, направленная на улучшение визуального рассуждения.",
"qvq-max.description": "Модель визуального рассуждения Qwen QVQ поддерживает ввод изображений и вывод в виде цепочки рассуждений, демонстрируя высокую производительность в математике, программировании, визуальном анализе, творческих и общих задачах.",
"qvq-plus.description": "Модель визуального рассуждения с вводом изображений и выводом в виде цепочки рассуждений. Серия qvq-plus следует за qvq-max и обеспечивает более быстрое рассуждение с лучшим соотношением качества и стоимости.",
"qwen-coder-plus.description": "Модель программирования Qwen.",
"qwen-coder-turbo-latest.description": "Модель программирования Qwen.",
"qwen-coder-turbo.description": "Модель программирования Qwen.",
"qwen-flash.description": "Самая быстрая и недорогая модель Qwen, идеально подходит для простых задач.",
"qwen-image-2.0-pro.description": "Полная версия модели серии Qwen-Image-2.0 объединяет генерацию изображений и их редактирование в единую функцию. Она поддерживает более профессиональную обработку текста с емкостью до 1k токенов, обеспечивает более детализированные и реалистичные визуальные текстуры, позволяет точно описывать реалистичные сцены и демонстрирует более сильное семантическое соответствие запросам. Полная версия модели предоставляет наивысший уровень реализма и самые мощные возможности обработки текста в серии 2.0.",
"qwen-image-2.0.description": "Ускоренная версия модели серии Qwen-Image-2.0 объединяет генерацию изображений и их редактирование в единую функцию. Она поддерживает более профессиональную обработку текста с емкостью до 1k токенов, обеспечивает более утонченные и реалистичные визуальные текстуры, позволяет точно описывать реалистичные сцены и демонстрирует более сильное семантическое соответствие запросам. Ускоренная версия эффективно достигает оптимального баланса между качеством модели и производительностью.",
"qwen-image-edit-max.description": "Модель редактирования изображений Qwen поддерживает ввод и вывод нескольких изображений, позволяя точно редактировать текст в изображениях, добавлять, удалять или перемещать объекты, изменять действия субъектов, переносить стили изображений и улучшать визуальные детали.",
"qwen-image-edit-plus.description": "Модель редактирования изображений Qwen поддерживает ввод и вывод нескольких изображений, позволяя точно редактировать текст в изображениях, добавлять, удалять или перемещать объекты, изменять действия субъектов, переносить стили изображений и улучшать визуальные детали.",
"qwen-image-edit.description": "Qwen Image Edit — это модель преобразования изображений, которая редактирует изображения на основе входных изображений и текстовых подсказок, обеспечивая точные корректировки и творческие трансформации.",
"qwen-image-max.description": "Модель генерации изображений Qwen (серия Max) обеспечивает улучшенный реализм и визуальную естественность по сравнению с серией Plus, эффективно снижая артефакты, создаваемые ИИ, и демонстрируя выдающиеся результаты в отображении внешности человека, текстурных деталей и рендеринге текста.",
"qwen-image-plus.description": "Поддерживает широкий спектр художественных стилей и особенно хорошо справляется с рендерингом сложного текста в изображениях, позволяя интегрированное проектирование макета изображений и текста.",
"qwen-image.description": "Qwen-Image — это универсальная модель генерации изображений, поддерживающая различные художественные стили и сложную отрисовку текста, особенно на китайском и английском языках. Поддерживает многострочные макеты, абзацы и детализированную генерацию для сложных текстово-визуальных композиций.",
"qwen-long.description": "Ультра-крупная модель Qwen с поддержкой длинного контекста и диалогов в рамках одного или нескольких документов.",
"qwen-math-plus-latest.description": "Qwen Math — языковая модель, специализирующаяся на решении математических задач.",
"qwen-math-plus.description": "Qwen Math — языковая модель, специализирующаяся на решении математических задач.",
"qwen-math-turbo-latest.description": "Qwen Math — языковая модель, специализирующаяся на решении математических задач.",
"qwen-math-turbo.description": "Qwen Math — языковая модель, специализирующаяся на решении математических задач.",
"qwen-max.description": "Ультра-крупная модель Qwen с сотнями миллиардов параметров, поддерживающая китайский, английский и другие языки; API-модель, лежащая в основе текущих продуктов Qwen2.5.",
"qwen-omni-turbo.description": "Модели Qwen-Omni поддерживают мультимодальный ввод (видео, аудио, изображения, текст) и вывод в виде аудио и текста.",
"qwen-plus.description": "Улучшенная ультра-крупная модель Qwen с поддержкой китайского, английского и других языков.",
"qwen-turbo.description": "Qwen Turbo больше не обновляется; рекомендуется заменить на Qwen Flash. Ультра-крупная модель Qwen с поддержкой китайского, английского и других языков.",
"qwen-vl-chat-v1.description": "Qwen VL поддерживает гибкие взаимодействия, включая ввод нескольких изображений, многотактные вопросы и ответы, а также творческие задачи.",
"qwen-vl-max-latest.description": "Ультра-крупная мультимодальная модель Qwen. По сравнению с улучшенной версией, она еще больше усиливает визуальное рассуждение и следование инструкциям, обеспечивая более сильное восприятие и когнитивные способности.",
"qwen-vl-max.description": "Ультра-крупная мультимодальная модель Qwen. По сравнению с улучшенной версией, она еще больше усиливает визуальное рассуждение и следование инструкциям, обеспечивая более сильное визуальное восприятие и когнитивные способности.",
"qwen-vl-ocr.description": "Qwen OCR — это модель извлечения текста из документов, таблиц, экзаменационных изображений и рукописного текста. Поддерживает китайский, английский, французский, японский, корейский, немецкий, русский, итальянский, вьетнамский и арабский языки.",
"qwen-vl-plus-latest.description": "Улучшенная крупномасштабная мультимодальная модель Qwen с заметным улучшением детализации и распознавания текста, поддерживающая разрешение более одного мегапикселя и произвольные соотношения сторон.",
"qwen-vl-plus.description": "Улучшенная крупномасштабная мультимодальная модель Qwen с заметным улучшением детализации и распознавания текста, поддерживающая разрешение более одного мегапикселя и произвольные соотношения сторон.",
"qwen-vl-v1.description": "Предобученная модель, инициализированная от Qwen-7B с добавленным модулем зрения и входом изображения с разрешением 448.",
"qwen/qwen-2-7b-instruct.description": "Qwen2 — это новая серия языковых моделей Qwen. Qwen2 7B — это модель на основе трансформеров, превосходно справляющаяся с пониманием языка, многоязычностью, программированием, математикой и рассуждением.",
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 — это новая серия крупных языковых моделей с улучшенным пониманием и генерацией.",
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL — последняя итерация Qwen-VL, достигшая передовых результатов на визуальных бенчмарках, таких как MathVista, DocVQA, RealWorldQA и MTVQA. Понимает видео продолжительностью более 20 минут для качественного видео Q&A, диалогов и создания контента. Также справляется со сложным рассуждением и принятием решений, интегрируется с мобильными устройствами и роботами для действий на основе визуального контекста и текстовых инструкций. Помимо английского и китайского, распознаёт текст на изображениях на многих языках, включая большинство европейских, японский, корейский, арабский и вьетнамский.",
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct — одна из новейших LLM-моделей от Alibaba Cloud. Модель с 72 миллиардами параметров демонстрирует значительные улучшения в программировании и математике, поддерживает более 29 языков (включая китайский и английский), а также существенно улучшает следование инструкциям, понимание структурированных данных и генерацию структурированного вывода (особенно в формате JSON).",
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct — одна из новейших LLM-моделей от Alibaba Cloud. Модель с 32 миллиардами параметров демонстрирует значительные улучшения в программировании и математике, поддерживает более 29 языков (включая китайский и английский), а также существенно улучшает следование инструкциям, понимание структурированных данных и генерацию структурированного вывода (особенно в формате JSON).",
"qwen/qwen2.5-7b-instruct.description": "Двуязычная LLM-модель для китайского и английского языков, охватывающая задачи перевода, программирования, математики и логического мышления.",
"qwen/qwen2.5-coder-32b-instruct.description": "Продвинутая LLM-модель для генерации, анализа и исправления кода на популярных языках программирования.",
"qwen/qwen2.5-coder-7b-instruct.description": "Мощная среднеразмерная модель для программирования с контекстом до 32K, отлично справляется с многоязычным кодированием.",
"qwen/qwen3-14b.description": "Qwen3-14B — вариант модели с 14 миллиардами параметров, предназначенный для общего логического вывода и диалоговых сценариев.",
"qwen/qwen3-14b:free.description": "Qwen3-14B — плотная каузальная LLM-модель с 14,8 миллиардами параметров, созданная для сложного логического вывода и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Дообучена для следования инструкциям, использования инструментов и креативного письма на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 — вариант серии Qwen3, оптимизированный для многоязычного использования инструкций и сценариев с длинным контекстом.",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 — вариант модели Qwen3, усиленный для выполнения сложных математических и логических задач.",
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B — модель MoE с 235 миллиардами параметров от Qwen, из которых 22 миллиарда активны при каждом проходе. Переключается между режимом мышления (для сложного логического вывода, математики и программирования) и обычным режимом общения. Обеспечивает высокую точность логических рассуждений, поддержку более 100 языков и диалектов, продвинутое следование инструкциям и использование инструментов. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B — модель MoE с 235 миллиардами параметров от Qwen, из которых 22 миллиарда активны при каждом проходе. Переключается между режимом мышления (для сложного логического вывода, математики и программирования) и обычным режимом общения. Обеспечивает высокую точность логических рассуждений, поддержку более 100 языков и диалектов, продвинутое следование инструкциям и использование инструментов. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
"qwen/qwen3-30b-a3b.description": "Qwen3 — новейшее поколение LLM-моделей Qwen с плотной и MoE-архитектурами, превосходящее в логике, многоязычии и агентных задачах. Уникальная возможность переключения между режимом мышления и обычным режимом общения обеспечивает универсальную и высококачественную работу.\n\nQwen3 значительно превосходит предыдущие модели, такие как QwQ и Qwen2.5, демонстрируя отличные результаты в математике, программировании, логике, креативном письме и интерактивных диалогах. Вариант Qwen3-30B-A3B содержит 30,5 миллиарда параметров (3,3 миллиарда активных), 48 слоев, 128 экспертов (8 активных на задачу) и поддерживает контекст до 131K с помощью YaRN, устанавливая новый стандарт среди открытых моделей.",
"qwen/qwen3-30b-a3b:free.description": "Qwen3 — новейшее поколение LLM-моделей Qwen с плотной и MoE-архитектурами, превосходящее в логике, многоязычии и агентных задачах. Уникальная возможность переключения между режимом мышления и обычным режимом общения обеспечивает универсальную и высококачественную работу.\n\nQwen3 значительно превосходит предыдущие модели, такие как QwQ и Qwen2.5, демонстрируя отличные результаты в математике, программировании, логике, креативном письме и интерактивных диалогах. Вариант Qwen3-30B-A3B содержит 30,5 миллиарда параметров (3,3 миллиарда активных), 48 слоев, 128 экспертов (8 активных на задачу) и поддерживает контекст до 131K с помощью YaRN, устанавливая новый стандарт среди открытых моделей.",
"qwen/qwen3-32b.description": "Qwen3-32B — плотная каузальная LLM-модель с 32,8 миллиардами параметров, оптимизированная для сложного логического вывода и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Отлично справляется с инструкциями, использованием инструментов и креативным письмом на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
"qwen/qwen3-32b:free.description": "Qwen3-32B — плотная каузальная LLM-модель с 32,8 миллиардами параметров, оптимизированная для сложного логического вывода и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Отлично справляется с инструкциями, использованием инструментов и креативным письмом на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
"qwen/qwen3-8b:free.description": "Qwen3-8B — плотная каузальная LLM-модель с 8,2 миллиардами параметров, предназначенная для задач, требующих логического мышления, и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Дообучена для следования инструкциям, интеграции с инструментами и креативного письма на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus — модель-агент для программирования из серии Qwen, оптимизированная для сложного использования инструментов и длительных сессий.",
"qwen/qwen3-coder.description": "Qwen3-Coder — семейство моделей Qwen3 для генерации кода, сильное в понимании и генерации кода в длинных документах.",
"qwen/qwen3-max-preview.description": "Qwen3 Max (предпросмотр) — вариант Max для продвинутого логического вывода и интеграции инструментов.",
"qwen/qwen3-max.description": "Qwen3 Max — флагманская модель логического вывода в серии Qwen3, предназначенная для многоязычного логического анализа и интеграции инструментов.",
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus — визуально-усиленный вариант Qwen3 с улучшенным мультимодальным логическим выводом и обработкой видео.",
"qwen/qwen3.5-122b-a10b.description": "Qwen3.5-122B-A10B — это нативная мультимодальная крупная языковая модель, разработанная командой Qwen, с общим количеством параметров 122 миллиарда и только 10 миллиардами активных параметров. Модель использует высокоэффективную гибридную архитектуру, объединяющую Gated Delta Networks с Sparse Mixture of Experts (MoE). Она нативно поддерживает длину контекста 256K, расширяемую до примерно 1 миллиона токенов. Благодаря раннему обучению слиянию, модель достигает унифицированных базовых возможностей понимания языка и изображений, поддерживая текст, изображения и видео. Она демонстрирует отличную производительность на нескольких тестах, включая знания, рассуждения, кодирование, агентов, визуальное понимание и многоязычные задачи, превосходя GPT-5-mini и Qwen3-235B-A22B по нескольким метрикам. Модель имеет включенный по умолчанию режим мышления, поддерживает вызов инструментов и охватывает 201 язык и диалект.",
"qwen/qwen3.5-27b.description": "Qwen3.5-27B — это нативная мультимодальная крупная языковая модель, разработанная командой Qwen, с 27 миллиардами параметров. Модель использует высокоэффективную гибридную архитектуру, объединяющую Gated Delta Networks с Gated Attention. Она нативно поддерживает длину контекста 256K, расширяемую до примерно 1 миллиона токенов. Благодаря раннему обучению слиянию, модель достигает унифицированных базовых возможностей понимания языка и изображений, поддерживая текст, изображения и видео. Она демонстрирует отличную производительность на нескольких тестах, включая рассуждения, кодирование, агентов и визуальное понимание, превосходя Qwen3-235B-A22B и GPT-5-mini по нескольким метрикам. Модель имеет включенный по умолчанию режим мышления, поддерживает вызов инструментов и охватывает 201 язык и диалект.",
"qwen/qwen3.5-35b-a3b.description": "Qwen3.5-35B-A3B — это нативная мультимодальная крупная языковая модель, разработанная командой Qwen, с общим количеством параметров 35 миллиардов и только 3 миллиардами активных параметров. Модель использует высокоэффективную гибридную архитектуру, объединяющую Gated Delta Networks с Sparse Mixture of Experts (MoE). Она нативно поддерживает длину контекста 256K, расширяемую до примерно 1 миллиона токенов. Благодаря раннему обучению слиянию, модель достигает унифицированных базовых возможностей понимания языка и изображений, поддерживая текст, изображения и видео. Она демонстрирует отличную производительность на нескольких тестах, включая рассуждения, кодирование, агентов и визуальное понимание. Модель имеет включенный по умолчанию режим мышления, поддерживает вызов инструментов и охватывает 201 язык и диалект.",
"qwen/qwen3.5-397b-a17b.description": "Qwen3.5-397B-A17B — это последняя модель в серии Qwen для понимания языка и изображений, использующая архитектуру Mixture of Experts (MoE) с общим количеством параметров 397 миллиардов и 17 миллиардами активных параметров. Модель нативно поддерживает длину контекста 256K, расширяемую до примерно 1 миллиона токенов. Она поддерживает 201 язык и предлагает унифицированные возможности понимания языка и изображений, вызова инструментов и режимов мышления для рассуждений.",
"qwen/qwen3.5-4b.description": "Qwen3.5-4B — это нативная мультимодальная крупная языковая модель, разработанная командой Qwen, с 4 миллиардами параметров, являющаяся самой легкой плотной моделью в серии Qwen3.5. Модель использует высокоэффективную гибридную архитектуру, объединяющую Gated Delta Networks с Gated Attention. Она нативно поддерживает длину контекста 256K, расширяемую до примерно 1 миллиона токенов. Благодаря раннему обучению слиянию, модель достигает унифицированных базовых возможностей понимания языка и изображений, поддерживая текст, изображения и видео. Она демонстрирует отличную производительность среди моделей аналогичного размера, превосходя GPT-5-Nano и Gemini-2.5-Flash-Lite по нескольким метрикам. Модель имеет включенный по умолчанию режим мышления, поддерживает вызов инструментов и охватывает 201 язык и диалект.",
"qwen/qwen3.5-9b.description": "Qwen3.5-9B — это нативная мультимодальная крупная языковая модель, разработанная командой Qwen, с 9 миллиардами параметров. Как легкая плотная модель в серии Qwen3.5, она использует высокоэффективную гибридную архитектуру, объединяющую Gated Delta Networks с Gated Attention. Она нативно поддерживает длину контекста 256K, расширяемую до примерно 1 миллиона токенов. Благодаря раннему обучению слиянию, модель достигает унифицированных базовых возможностей понимания языка и изображений, поддерживая текст, изображения и видео. Модель имеет включенный по умолчанию режим мышления, поддерживает вызов инструментов и охватывает 201 язык и диалект.",
"qwen2.5-14b-instruct-1m.description": "Открытая модель Qwen2.5 с 72 миллиардами параметров.",
"qwen2.5-14b-instruct.description": "Открытая модель Qwen2.5 с 14 миллиардами параметров.",
"qwen2.5-32b-instruct.description": "Открытая модель Qwen2.5 с 32 миллиардами параметров.",
"qwen2.5-72b-instruct.description": "Открытая модель Qwen2.5 с 72 миллиардами параметров.",
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct — зрелая модель с открытым исходным кодом для инструкционного обучения, подходящая для многосценарного общения и генерации.",
"qwen2.5-coder-1.5b-instruct.description": "Открытая модель кода Qwen.",
"qwen2.5-coder-14b-instruct.description": "Открытая модель кода Qwen.",
"qwen2.5-coder-32b-instruct.description": "Открытая модель кода Qwen.",
"qwen2.5-coder-7b-instruct.description": "Открытая модель кода Qwen.",
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder — новейшая модель LLM с фокусом на программировании в семействе Qwen (ранее CodeQwen).",
"qwen2.5-instruct.description": "Qwen2.5 — последняя серия LLM от Qwen, включающая базовые и инструкционно-обученные модели от 0.5B до 72B параметров.",
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math демонстрирует высокую эффективность в решении математических задач.",
"qwen2.5-math-72b-instruct.description": "Qwen-Math демонстрирует высокую эффективность в решении математических задач.",
"qwen2.5-math-7b-instruct.description": "Qwen-Math демонстрирует высокую эффективность в решении математических задач.",
"qwen2.5-omni-7b.description": "Модели Qwen-Omni поддерживают мультимодальные входные данные (видео, аудио, изображения, текст) и вывод в виде аудио и текста.",
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct — открытая мультимодальная модель, подходящая для частного развертывания и многосценарного использования.",
"qwen2.5-vl-72b-instruct.description": "Улучшенное следование инструкциям, решение задач, математика и программирование, а также более точное распознавание объектов. Поддерживает точную локализацию визуальных элементов в различных форматах, понимание длинных видео (до 10 минут) с точной временной разметкой событий, определением порядка и скорости, а также агентов, способных управлять ОС или мобильными устройствами через парсинг и локализацию. Эффективное извлечение ключевой информации и вывод в формате JSON. Это версия 72B — самая мощная в серии.",
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct — легковесная мультимодальная модель, сочетающая низкие затраты на развертывание и хорошие способности к распознаванию.",
"qwen2.5-vl-instruct.description": "Qwen2.5-VL — новейшая модель слияния зрения и языка в семействе Qwen.",
"qwen2.5.description": "Qwen2.5 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen2.5:0.5b.description": "Qwen2.5 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen2.5:1.5b.description": "Qwen2.5 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen2.5:72b.description": "Qwen2.5 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen2.description": "Qwen2 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen2:0.5b.description": "Qwen2 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen2:1.5b.description": "Qwen2 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen2:72b.description": "Qwen2 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwen3-0.6b.description": "Qwen3 0.6B — начальная модель для простых рассуждений и ограниченных сред.",
"qwen3-1.7b.description": "Qwen3 1.7B — ультралегкая модель для развертывания на устройствах и периферии.",
"qwen3-14b.description": "Qwen3 14B — модель среднего размера для многоязычного ответа на вопросы и генерации текста.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 — флагманская инструкционная модель для широкого спектра задач генерации и рассуждения.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 — сверхкрупная модель для сложных задач рассуждения.",
"qwen3-235b-a22b.description": "Qwen3 — модель нового поколения Tongyi Qwen с существенными улучшениями в логике, общей способности, агентных функциях и многоязычной поддержке, с возможностью переключения режимов мышления.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 — инструкционная модель среднего размера для высококачественной генерации и ответов на вопросы.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 — модель среднего размера для рассуждений, сочетающая точность и эффективность.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B — универсальная модель среднего размера, сочетающая качество и стоимость.",
"qwen3-32b.description": "Qwen3 32B подходит для общих задач, требующих более глубокого понимания.",
"qwen3-4b.description": "Qwen3 4B подходит для небольших и средних приложений и локального вывода.",
"qwen3-8b.description": "Qwen3 8B — легковесная модель с гибким развертыванием для высоконагруженных задач.",
"qwen3-coder-30b-a3b-instruct.description": "Открытая модель кода Qwen. Новейшая qwen3-coder-30b-a3b-instruct основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct — флагманская модель кода для многоязычного программирования и сложного понимания кода.",
"qwen3-coder-flash.description": "Модель кода Qwen. Новейшая серия Qwen3-Coder основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.",
"qwen3-coder-next.description": "Следующее поколение Qwen coder, оптимизированное для сложной генерации кода из нескольких файлов, отладки и высокопроизводительных рабочих процессов агентов. Разработано для сильной интеграции инструментов и улучшенной производительности рассуждений.",
"qwen3-coder-plus.description": "Модель кода Qwen. Новейшая серия Qwen3-Coder основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.",
"qwen3-coder:480b.description": "Высокопроизводительная модель от Alibaba с длинным контекстом для задач агентов и программирования.",
"qwen3-max-2026-01-23.description": "Qwen3 Max: лучшая модель Qwen для сложных многошаговых задач программирования с поддержкой мышления.",
"qwen3-max-preview.description": "Лучшая модель Qwen для сложных многошаговых задач. Превью-версия поддерживает рассуждение.",
"qwen3-max.description": "Модели Qwen3 Max значительно превосходят серию 2.5 по общим возможностям, пониманию китайского и английского языков, следованию сложным инструкциям, выполнению открытых задач, многоязычности и использованию инструментов, с меньшим количеством галлюцинаций. Последняя версия qwen3-max улучшает программирование агентов и использование инструментов по сравнению с qwen3-max-preview. Эта версия достигает SOTA в своей области и ориентирована на более сложные потребности агентов.",
"qwen3-next-80b-a3b-instruct.description": "Модель следующего поколения Qwen3 без рассуждений с открытым исходным кодом. По сравнению с предыдущей версией (Qwen3-235B-A22B-Instruct-2507), улучшено понимание китайского языка, логическое мышление и генерация текста.",
"qwen3-next-80b-a3b-thinking.description": "Qwen3 Next 80B A3B Thinking — флагманская версия модели рассуждений для сложных задач.",
"qwen3-omni-flash.description": "Qwen-Omni принимает комбинированные входные данные (текст, изображения, аудио, видео) и выдает текст или речь. Поддерживает различные естественные голоса, многоязычную и диалектную речь, подходит для задач письма, распознавания изображений и голосовых помощников.",
"qwen3-vl-235b-a22b-instruct.description": "Qwen3 VL 235B A22B Instruct — флагманская мультимодальная модель для сложного понимания и генерации.",
"qwen3-vl-235b-a22b-thinking.description": "Qwen3 VL 235B A22B Thinking — флагманская версия для сложного мультимодального рассуждения и планирования.",
"qwen3-vl-30b-a3b-instruct.description": "Qwen3 VL 30B A3B Instruct — крупная мультимодальная модель, сочетающая точность и производительность рассуждений.",
"qwen3-vl-30b-a3b-thinking.description": "Qwen3 VL 30B A3B Thinking — версия с глубоким мышлением для сложных мультимодальных задач.",
"qwen3-vl-32b-instruct.description": "Qwen3 VL 32B Instruct — мультимодальная модель, обученная следованию инструкциям, для высококачественного визуально-текстового QA и генерации.",
"qwen3-vl-32b-thinking.description": "Qwen3 VL 32B Thinking — мультимодальная версия с глубоким мышлением для сложного рассуждения и анализа длинных цепочек.",
"qwen3-vl-8b-instruct.description": "Qwen3 VL 8B Instruct — легковесная мультимодальная модель для повседневного визуального QA и интеграции в приложения.",
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking — мультимодальная модель с цепочкой рассуждений для детального визуального анализа.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: легковесная, высокоскоростная версия рассуждений для задач с низкой задержкой или высоким объемом запросов.",
"qwen3-vl-plus.description": "Qwen VL — модель генерации текста с пониманием изображений. Поддерживает OCR, а также умеет обобщать и рассуждать, например, извлекать атрибуты с фото товаров или решать задачи по изображениям.",
"qwen3.5-122b-a10b.description": "Поддерживает ввод текста, изображений и видео. Для задач только с текстом её производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях она значительно превосходит серию Qwen3 VL.",
"qwen3.5-27b.description": "Поддерживает ввод текста, изображений и видео. Для задач только с текстом её производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях она значительно превосходит серию Qwen3 VL.",
"qwen3.5-35b-a3b.description": "Поддерживает ввод текста, изображений и видео. Для задач только с текстом её производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях она значительно превосходит серию Qwen3 VL.",
"qwen3.5-397b-a17b.description": "Поддерживает текст, изображения и видео. Для задач только с текстом его производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях он демонстрирует значительные улучшения по сравнению с серией Qwen3 VL.",
"qwen3.5-flash.description": "Самая быстрая и недорогая модель Qwen, идеально подходящая для простых задач.",
"qwen3.5-plus.description": "Qwen3.5 Plus поддерживает текстовый, графический и видео ввод. Её производительность в чисто текстовых задачах сопоставима с Qwen3 Max, с лучшей производительностью и меньшими затратами. Её мультимодальные возможности значительно улучшены по сравнению с серией Qwen3 VL.",
"qwen3.5:397b.description": "Qwen3.5 — это унифицированная модель для работы с текстом и изображениями с гибридной архитектурой (Mixture-of-Experts + линейное внимание), предлагающая сильные мультимодальные возможности рассуждения, программирования и работы с длинным контекстом с окном 256K.",
"qwen3.description": "Qwen3 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
"qwq-32b-preview.description": "QwQ — экспериментальная исследовательская модель от Qwen, ориентированная на улучшенный логический вывод.",
"qwq-32b.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обеспечивает более глубокое мышление и логический анализ, значительно повышая производительность на сложных задачах. QwQ-32B — среднеразмерная модель, сопоставимая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.",
"qwq-plus.description": "Модель логического вывода QwQ, обученная на основе Qwen2.5 с использованием RL, значительно улучшает логический анализ. Основные метрики в математике/коде (AIME 24/25, LiveCodeBench) и на общих бенчмарках (IFEval, LiveBench) достигают уровня DeepSeek-R1.",
"qwq.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обладает способностями к мышлению и логике, которые значительно улучшают производительность на сложных задачах. QwQ-32B — среднеразмерная модель, успешно конкурирующая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.",
"qwq_32b.description": "Среднеразмерная модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, способности QwQ к мышлению и логике значительно повышают производительность на сложных задачах.",
"r1-1776.description": "R1-1776 — дообученный вариант DeepSeek R1, предназначенный для предоставления нецензурированной, объективной и достоверной информации.",
"solar-mini-ja.description": "Solar Mini (Ja) расширяет возможности Solar Mini с акцентом на японский язык, сохраняя при этом высокую эффективность и производительность на английском и корейском.",
"solar-mini.description": "Solar Mini — компактная LLM-модель, превосходящая GPT-3.5, с мощной многоязычной поддержкой английского и корейского языков, предлагающая эффективное решение с малым объемом.",
"solar-pro.description": "Solar Pro — интеллектуальная LLM-модель от Upstage, ориентированная на следование инструкциям на одном GPU, с результатами IFEval выше 80. В настоящее время поддерживает английский язык; полный релиз с расширенной языковой поддержкой и увеличенным контекстом запланирован на ноябрь 2024 года.",
"sonar-deep-research.description": "Deep Research проводит всесторонние экспертные исследования и преобразует их в доступные и практичные отчеты.",
"sonar-pro.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.",
"sonar-reasoning-pro.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.",
"sonar-reasoning.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.",
"sonar.description": "Легковесный продукт с привязкой к поиску, быстрее и дешевле, чем Sonar Pro.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 — это модель, которая сочетает высокую вычислительную эффективность с отличной производительностью в рассуждениях и работе агентов.",
"spark-x.description": "Обзор возможностей X2: 1. Вводит динамическую настройку режима рассуждений, управляемую через поле `thinking`. 2. Расширенная длина контекста: 64K входных токенов и 128K выходных токенов. 3. Поддерживает функциональность Function Call.",
"stable-diffusion-3-medium.description": "Последняя модель преобразования текста в изображение от Stability AI. Эта версия значительно улучшает качество изображений, понимание текста и разнообразие стилей, точнее интерпретирует сложные текстовые запросы и генерирует более точные и разнообразные изображения.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo использует метод диффузионной дистилляции (ADD) для ускорения модели stable-diffusion-3.5-large.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large — модель преобразования текста в изображение с 800 миллионами параметров (MMDiT), обеспечивающая высокое качество и соответствие запросам, поддерживает изображения до 1 мегапикселя и эффективно работает на потребительском оборудовании.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 инициализирована из контрольной точки v1.2 и дообучена в течение 595 тыс. шагов на наборе данных \"laion-aesthetics v2 5+\" с разрешением 512x512, снижая влияние текстовой настройки на 10% для улучшения выборки без классификатора.",
"stable-diffusion-xl-base-1.0.description": "Открытая модель преобразования текста в изображение от Stability AI с передовыми возможностями генерации креативных изображений. Обладает высоким уровнем понимания инструкций и поддерживает обратное определение запросов для точной генерации.",
"stable-diffusion-xl.description": "stable-diffusion-xl значительно превосходит версию v1.5 и соответствует лучшим открытым моделям преобразования текста в изображение. Улучшения включают в себя в 3 раза большую архитектуру UNet, модуль уточнения для повышения качества изображений и более эффективные методы обучения.",
"step-1-128k.description": "Оптимальный баланс между производительностью и стоимостью для общих сценариев.",
"step-1-256k.description": "Обработка сверхдлинного контекста, идеально подходит для анализа длинных документов.",
"step-1-32k.description": "Поддержка диалогов средней длины для широкого круга задач.",
"step-1-8k.description": "Небольшая модель, подходящая для легких задач.",
"step-1-flash.description": "Высокоскоростная модель, подходящая для общения в реальном времени.",
"step-1.5v-mini.description": "Мощные возможности понимания видео.",
"step-1o-turbo-vision.description": "Продвинутое понимание изображений, превосходит 1o в математике и программировании. Меньше по размеру и быстрее по скорости вывода.",
"step-1o-vision-32k.description": "Продвинутое понимание изображений с лучшей визуальной производительностью, чем серия Step-1V.",
"step-1v-32k.description": "Поддержка визуального ввода для более насыщенного мультимодального взаимодействия.",
"step-1v-8k.description": "Небольшая визуальная модель для базовых задач с изображениями и текстом.",
"step-1x-edit.description": "Модель для редактирования изображений, модифицирует и улучшает изображения на основе текста и примеров. Поддерживает различные форматы ввода и генерирует правки в соответствии с намерением пользователя.",
"step-1x-medium.description": "Модель с мощной генерацией изображений по текстовому описанию. Благодаря поддержке китайского языка, лучше понимает и визуализирует китайские описания. Генерирует изображения высокого разрешения и качества, поддерживает перенос стиля.",
"step-2-16k-exp.description": "Экспериментальная сборка Step-2 с новейшими функциями и обновлениями. Не рекомендуется для продакшена.",
"step-2-16k.description": "Поддержка взаимодействия с большим контекстом для сложных диалогов.",
"step-2-mini.description": "Построена на архитектуре MFA следующего поколения, обеспечивает производительность уровня Step-1 при значительно меньших затратах, с высокой пропускной способностью и низкой задержкой. Отлично справляется с общими задачами и программированием.",
"step-2x-large.description": "Модель нового поколения StepFun для генерации изображений, создает изображения высокого качества по текстовому описанию. Обеспечивает реалистичную текстуру и качественную отрисовку текста на китайском и английском языках.",
"step-3.5-flash.description": "Флагманская модель языкового рассуждения от Stepfun. Эта модель обладает первоклассными возможностями рассуждения и быстрой и надёжной способностью выполнения задач. Она способна разбирать и планировать сложные задачи, быстро и надёжно вызывать инструменты для выполнения задач, а также справляться с различными сложными задачами, такими как логическое рассуждение, математика, разработка программного обеспечения и углублённые исследования.",
"step-3.description": "Модель с мощным визуальным восприятием и сложным логическим выводом, точно обрабатывает знания из разных областей, анализ математики и изображений, а также широкий спектр повседневных визуальных задач.",
"step-r1-v-mini.description": "Модель логического вывода с продвинутым пониманием изображений, способна обрабатывать изображения и текст, а затем генерировать текст после глубокого анализа. Отлично справляется с визуальной логикой, математикой, программированием и текстовыми задачами, поддерживает контекст до 100K.",
"stepfun-ai/step3.description": "Step3: передовая модель мультимодального рассуждения от StepFun, построенная на архитектуре MoE с 321 миллиардами общих и 38 миллиардами активных параметров. Её дизайн end-to-end минимизирует затраты на декодирование, обеспечивая высочайший уровень рассуждений в области зрения и языка. С дизайном MFA и AFD она остаётся эффективной как на флагманских, так и на бюджетных ускорителях. Предобучение использует более 20 триллионов текстовых токенов и 4 триллиона изображений-текстов на многих языках. Достигает передовых результатов среди открытых моделей в математике, программировании и мультимодальных тестах.",
"taichu4_vl_2b_nothinking.description": "Версия Taichu4.0-VL 2B без мышления отличается меньшим использованием памяти, легким дизайном, высокой скоростью отклика и сильными мультимодальными возможностями понимания.",
"taichu4_vl_32b.description": "Версия Taichu4.0-VL 32B с мышлением подходит для сложных мультимодальных задач понимания и рассуждений, демонстрируя выдающиеся результаты в мультимодальных математических рассуждениях, возможностях мультимодальных агентов и общем понимании изображений и визуального контента.",
"taichu4_vl_32b_nothinking.description": "Версия Taichu4.0-VL 32B без мышления предназначена для сложных сценариев понимания изображений и текста, а также визуальных вопросов и ответов, превосходя в описании изображений, визуальных вопросах и ответах, понимании видео и задачах визуальной локализации.",
"taichu4_vl_3b.description": "Версия Taichu4.0-VL 3B с мышлением эффективно выполняет мультимодальные задачи понимания и рассуждений, с комплексными улучшениями в визуальном понимании, визуальной локализации, распознавании OCR и связанных возможностях.",
"taichu_llm.description": "Большая языковая модель Zidong Taichu — это высокопроизводительная модель генерации текста, разработанная с использованием полностью отечественных технологий полного цикла. Благодаря структурной компрессии базовой модели с сотнями миллиардов параметров и оптимизации для конкретных задач, она значительно улучшает понимание сложных текстов и возможности рассуждений на основе знаний. Она превосходит в таких сценариях, как анализ длинных документов, извлечение информации на разных языках и генерация, ограниченная знаниями.",
"taichu_llm_14b.description": "Большая языковая модель Zidong Taichu — это высокопроизводительная модель генерации текста, разработанная с использованием полностью отечественных технологий полного цикла. Благодаря структурной компрессии базовой модели с сотнями миллиардов параметров и оптимизации для конкретных задач, она значительно улучшает понимание сложных текстов и возможности рассуждений на основе знаний. Она превосходит в таких сценариях, как анализ длинных документов, извлечение информации на разных языках и генерация, ограниченная знаниями.",
"taichu_llm_2b.description": "Большая языковая модель Zidong Taichu — это высокопроизводительная модель генерации текста, разработанная с использованием полностью отечественных технологий полного цикла. Благодаря структурной компрессии базовой модели с сотнями миллиардов параметров и оптимизации для конкретных задач, она значительно улучшает понимание сложных текстов и возможности рассуждений на основе знаний. Она превосходит в таких сценариях, как анализ длинных документов, извлечение информации на разных языках и генерация, ограниченная знаниями.",
"taichu_o1.description": "taichu_o1 — это модель больших рассуждений следующего поколения, которая достигает человеческого уровня цепочки размышлений через мультимодальное взаимодействие и обучение с подкреплением. Она поддерживает сложные симуляции принятия решений и, сохраняя высокую точность вывода, раскрывает интерпретируемые пути рассуждений. Она хорошо подходит для анализа стратегий, глубоких размышлений и подобных сценариев.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct использует 80 миллиардов параметров, из которых активно 13 миллиардов, обеспечивая производительность, сопоставимую с более крупными моделями. Поддерживает гибридное быстрое/медленное рассуждение, стабильное понимание длинных текстов и лидирующие возможности агентов на BFCL-v3 и τ-Bench. Поддержка GQA и мульти-квантованных форматов обеспечивает эффективный вывод.",
"tencent/Hunyuan-MT-7B.description": "Модель перевода Hunyuan включает Hunyuan-MT-7B и ансамбль Hunyuan-MT-Chimera. Hunyuan-MT-7B — это легковесная модель на 7 миллиардов параметров, поддерживающая 33 языка и 5 языков китайских меньшинств. На WMT25 заняла первое место в 30 из 31 языковой пары. Tencent Hunyuan использует полный цикл обучения от предобучения до SFT, RL для перевода и ансамблевого RL, достигая выдающейся производительности при компактных размерах и легкости развертывания.",
"text-embedding-3-large.description": "Самая мощная модель встраивания для задач на английском и других языках.",
"text-embedding-3-small.description": "Эффективная и экономичная модель встраивания нового поколения для поиска и RAG-сценариев.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 — это 32-миллиардная билингвальная модель (китайский/английский) с открытым доступом к весам, оптимизированная для генерации кода, вызова функций и задач агентов. Предобучена на 15Т высококачественных данных с акцентом на рассуждение и дополнительно дообучена с учетом предпочтений человека, выборочного отклонения и RL. Отличается выдающимися способностями к сложным рассуждениям, генерации артефактов и структурированному выводу, достигая уровня GPT-4o и DeepSeek-V3-0324 на множестве бенчмарков.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 — это 32-миллиардная билингвальная модель (китайский/английский) с открытым доступом к весам, оптимизированная для генерации кода, вызова функций и задач агентов. Предобучена на 15Т высококачественных данных с акцентом на рассуждение и дополнительно дообучена с учетом предпочтений человека, выборочного отклонения и RL. Отличается выдающимися способностями к сложным рассуждениям, генерации артефактов и структурированному выводу, достигая уровня GPT-4o и DeepSeek-V3-0324 на множестве бенчмарков.",
"thudm/glm-4-9b-chat.description": "Открытая версия последней предобученной модели GLM-4 от Zhipu AI.",
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 — это усовершенствованный вариант GLM-4-32B, ориентированный на глубокие математические, логические и кодовые задачи. Использует расширенное RL (специфические для задач и общие парные предпочтения) для улучшения многозадачных рассуждений. По сравнению с GLM-4-32B, Z1 значительно улучшает структурированное мышление и способности в формальных областях.\n\nПоддерживает принудительные «шаги размышлений» через инженерные подсказки, повышенную связность длинных ответов и оптимизирован для агентных рабочих процессов с длинным контекстом (через YaRN), вызов инструментов в формате JSON и тонкую выборку для стабильного рассуждения. Идеален для задач, требующих аккуратных многошаговых или формальных выводов.",
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B — это 32-миллиардная модель глубокого рассуждения из серии GLM-4-Z1, оптимизированная для сложных открытых задач, требующих длительного размышления. Построена на базе glm-4-32b-0414, включает дополнительные этапы RL и многоступенчатое выравнивание, вводя способность «размышления», имитирующую расширенную когнитивную обработку. Это включает итеративное рассуждение, многошаговый анализ и рабочие процессы с использованием инструментов, таких как поиск, извлечение и синтез с учетом цитирования.\n\nОтлично подходит для научного письма, сравнительного анализа и сложных вопросов. Поддерживает вызов функций для примитивов поиска/навигации (`search`, `click`, `open`, `finish`) в агентных пайплайнах. Поведение размышления управляется многоцикловыми петлями с формированием наград на основе правил и механизмами отложенных решений, протестировано на глубоких исследовательских фреймворках, таких как внутренняя стек-выравнивание OpenAI. Этот вариант ориентирован на глубину, а не на скорость.",
"tngtech/deepseek-r1t-chimera:free.description": "DeepSeek-R1T-Chimera создан путем объединения DeepSeek-R1 и DeepSeek-V3 (0324), сочетая рассуждение R1 с эффективностью токенов V3. Основан на трансформере DeepSeek-MoE и оптимизирован для генерации общего текста.\n\nОбъединяет предобученные веса для баланса между рассуждением, эффективностью и следованием инструкциям. Выпущен под лицензией MIT для исследовательского и коммерческого использования.",
"togethercomputer/StripedHyena-Nous-7B.description": "StripedHyena Nous (7B) обеспечивает повышенную вычислительную эффективность благодаря своей архитектуре и стратегии.",
"tts-1-hd.description": "Последняя модель синтеза речи, оптимизированная для качества.",
"tts-1.description": "Последняя модель синтеза речи, оптимизированная для скорости в реальном времени.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) настроена для точного выполнения инструкций с высокой языковой производительностью.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поднимает отраслевой стандарт, превосходя конкурентов и Claude 3 Opus по широкому спектру оценок, сохраняя при этом средний уровень скорости и стоимости.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, улучшена по всем навыкам и превосходит предыдущую флагманскую модель Claude 3 Opus по многим интеллектуальным метрикам.",
"v0-1.0-md.description": "v0-1.0-md — устаревшая модель, доступная через API v0.",
"v0-1.5-lg.description": "v0-1.5-lg подходит для задач, требующих продвинутого мышления и рассуждений.",
"v0-1.5-md.description": "v0-1.5-md подходит для повседневных задач и генерации пользовательских интерфейсов.",
"vercel/v0-1.0-md.description": "Доступ к моделям v0 для генерации, исправления и оптимизации современных веб-приложений с учетом особенностей фреймворков и актуальных знаний.",
"vercel/v0-1.5-md.description": "Доступ к моделям v0 для генерации, исправления и оптимизации современных веб-приложений с учетом особенностей фреймворков и актуальных знаний.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code оптимизирован для потребностей программирования на уровне предприятий. Основанный на превосходных возможностях Agent и VLM Seed 2.0, он специально улучшает способности кодирования с выдающейся производительностью фронтенда и целевой оптимизацией для общих многоязычных требований кодирования предприятий, что делает его идеальным для интеграции с различными инструментами программирования на основе ИИ.",
"volcengine/doubao-seed-2-0-lite.description": "Сбалансированное качество генерации и скорость отклика, подходит в качестве универсальной модели производственного уровня.",
"volcengine/doubao-seed-2-0-mini.description": "Указывает на последнюю версию doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Указывает на последнюю версию doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code — это LLM от ByteDance Volcano Engine, оптимизированная для агентного программирования, демонстрирующая высокие результаты на бенчмарках программирования и агентов с поддержкой контекста до 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash — это последняя модель с улучшениями в креативности, стабильности и реалистичности, обеспечивающая быструю генерацию и высокую ценность.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus — это последняя модель с улучшениями в креативности, стабильности и реалистичности, создающая более богатые детали.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview поддерживает редактирование одного изображения и слияние нескольких изображений.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I поддерживает гибкий выбор размеров изображения в пределах общей площади пикселей и ограничений соотношения сторон.",
"wan2.6-image.description": "Wanxiang 2.6 Image поддерживает редактирование изображений и смешанный вывод макета изображений и текста.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I поддерживает гибкий выбор размеров изображения в пределах общей площади пикселей и ограничений соотношения сторон (аналогично Wanxiang 2.5).",
"wanx-v1.description": "Базовая модель преобразования текста в изображение. Соответствует Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Отличается текстурированными портретами при умеренной скорости и низкой стоимости. Соответствует Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Полностью обновленная версия с более богатыми деталями изображения и немного меньшей скоростью. Соответствует Tongyi Wanxiang 2.1 Pro.",
"wanx2.1-t2i-turbo.description": "Полностью обновленная версия с быстрой генерацией, высоким общим качеством и отличной ценностью. Соответствует Tongyi Wanxiang 2.1 Speed.",
"whisper-1.description": "Универсальная модель распознавания речи с поддержкой многоязычного ASR, перевода речи и определения языка.",
"wizardlm2.description": "WizardLM 2 — языковая модель от Microsoft AI, превосходно справляющаяся со сложными диалогами, многоязычными задачами, рассуждениями и помощниками.",
"wizardlm2:8x22b.description": "WizardLM 2 — языковая модель от Microsoft AI, превосходно справляющаяся со сложными диалогами, многоязычными задачами, рассуждениями и помощниками.",
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (без рассуждений) — это высокопроизводительная, недорогая мультимодальная модель от xAI (поддерживает контекст до 2M), предназначенная для сценариев, чувствительных к задержке и стоимости, не требующих встроенного рассуждения. Рассуждение можно включить через параметр reasoning в API. Подсказки и ответы могут использоваться xAI или OpenRouter для улучшения будущих моделей.",
"x-ai/grok-4-fast.description": "Grok 4 Fast — это высокопроизводительная, недорогая модель от xAI (поддерживает контекст до 2M), идеально подходящая для сценариев с высокой конкуренцией и длинным контекстом.",
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4 Fast (без рассуждений) — это высокопроизводительная, недорогая мультимодальная модель от xAI (поддерживает контекст до 2M), предназначенная для сценариев, чувствительных к задержке и стоимости, не требующих встроенного рассуждения. Рассуждение можно включить через параметр reasoning в API. Подсказки и ответы могут использоваться xAI или OpenRouter для улучшения будущих моделей.",
"x-ai/grok-4.1-fast.description": "Grok 4 Fast — это высокопроизводительная, недорогая модель от xAI (поддерживает контекст до 2M), идеально подходящая для сценариев с высокой конкуренцией и длинным контекстом.",
"x-ai/grok-4.description": "Grok 4 — флагманская модель xAI с мощными возможностями рассуждения и мультимодальности.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 — быстрая модель программирования от xAI с читаемым и удобным для инженеров выводом.",
"x1.description": "Обновления X1.5: (1) добавлен динамический режим мышления, управляемый через поле `thinking`; (2) увеличена длина контекста до 64K входных и 64K выходных токенов; (3) поддерживает FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision превосходно справляется с визуальными задачами, демонстрируя передовые результаты в визуальном математическом рассуждении (MathVista) и вопросах по документам (DocVQA). Обрабатывает документы, диаграммы, графики, скриншоты и фотографии.",
"xai/grok-2.description": "Grok 2 — передовая модель с передовыми возможностями рассуждения, чата и программирования, превосходящая Claude 3.5 Sonnet и GPT-4 Turbo по LMSYS.",
"xai/grok-3-fast.description": "Флагманская модель xAI, превосходно подходящая для корпоративных задач, таких как извлечение данных, программирование и суммирование, с глубокими знаниями в области финансов, здравоохранения, права и науки. Быстрая версия работает на ускоренной инфраструктуре для более быстрых ответов при более высокой стоимости за токен.",
"xai/grok-3-mini-fast.description": "Легковесная модель xAI, которая «думает» перед ответом, идеально подходит для простых или логических задач без необходимости в глубоких знаниях. Доступны необработанные следы рассуждений. Быстрая версия работает на ускоренной инфраструктуре для более быстрых ответов при более высокой стоимости за токен.",
"xai/grok-3-mini.description": "Легковесная модель xAI, которая «думает» перед ответом, идеально подходит для простых или логических задач без необходимости в глубоких знаниях. Доступны необработанные следы рассуждений.",
"xai/grok-3.description": "Флагманская модель xAI, превосходно подходящая для корпоративных задач, таких как извлечение данных, программирование и суммирование, с глубокими знаниями в области финансов, здравоохранения, права и науки.",
"xai/grok-4.description": "Новейшая флагманская модель xAI с непревзойденной производительностью в области естественного языка, математики и рассуждений — универсальный лидер.",
"yi-large-fc.description": "Построена на базе yi-large с расширенными возможностями вызова инструментов, подходит для сценариев агентов и рабочих процессов.",
"yi-large-preview.description": "Ранняя версия; рекомендуется использовать более новую yi-large.",
"yi-large-rag.description": "Продвинутая служба на базе yi-large, объединяющая поиск и генерацию для точных ответов с поддержкой веб-поиска в реальном времени.",
"yi-large-turbo.description": "Исключительное соотношение цены и качества, настроено для оптимального баланса между качеством, скоростью и стоимостью.",
"yi-large.description": "Новая модель с 100 миллиардами параметров, обладающая сильными возможностями в вопросах и генерации текста.",
"yi-lightning-lite.description": "Облегченная версия; рекомендуется использовать yi-lightning.",
"yi-lightning.description": "Новая высокопроизводительная модель с быстрой генерацией и высоким качеством вывода.",
"yi-medium-200k.description": "Модель с длинным контекстом (200K) для глубокого понимания и генерации длинных текстов.",
"yi-medium.description": "Настроенная модель среднего размера с балансом возможностей и стоимости, оптимизирована для следования инструкциям.",
"yi-spark.description": "Компактная и быстрая модель с усиленными возможностями в математике и программировании.",
"yi-vision-v2.description": "Модель компьютерного зрения для сложных задач с мощным пониманием и анализом нескольких изображений.",
"yi-vision.description": "Модель компьютерного зрения для сложных задач с мощным пониманием изображений и анализом.",
"z-ai/glm-4.5-air.description": "GLM 4.5 Air — легковесный вариант GLM 4.5 для сценариев с ограниченным бюджетом, при этом сохраняет сильные способности к рассуждению.",
"z-ai/glm-4.5.description": "GLM 4.5 — флагманская модель Z.AI с гибридным рассуждением, оптимизированная для инженерных задач и задач с длинным контекстом.",
"z-ai/glm-4.6.description": "GLM 4.6 — флагманская модель Z.AI с расширенной длиной контекста и улучшенными возможностями программирования.",
"z-ai/glm-4.7.description": "GLM-4.7 — флагманская модель от Zhipu с улучшенными общими возможностями, более естественными и простыми ответами, а также более захватывающим опытом письма.",
"z-ai/glm4.7.description": "GLM-4.7 — это последняя флагманская модель Zhipu, улучшенная для сценариев Agentic Coding с улучшенными возможностями кодирования.",
"z-ai/glm5.description": "GLM-5 — это новая флагманская базовая модель Zhipu AI для инженерии агентов, достигающая открытого SOTA-результата в кодировании и возможностях агентов. Она сопоставима с производительностью Claude Opus 4.5.",
"z-image-turbo.description": "Z-Image — это легковесная модель генерации изображений из текста, которая может быстро создавать изображения, поддерживает рендеринг текста на китайском и английском языках, а также гибко адаптируется к различным разрешениям и соотношениям сторон.",
"zai-glm-4.7.description": "Эта модель обеспечивает высокую производительность в программировании с продвинутыми возможностями рассуждения, превосходным использованием инструментов и улучшенной реальной производительностью в агентных приложениях для программирования.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air — базовая модель для агентных приложений с архитектурой Mixture-of-Experts. Оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.",
"zai-org/GLM-4.5V.description": "GLM-4.5V — последняя мультимодальная модель Zhipu AI, построенная на флагманской текстовой модели GLM-4.5-Air (106B всего, 12B активно) с архитектурой MoE для высокой производительности при низкой стоимости. Следует пути GLM-4.1V-Thinking и добавляет 3D-RoPE для улучшения пространственного 3D-рассуждения. Оптимизирована через предобучение, SFT и RL, обрабатывает изображения, видео и длинные документы, занимает лидирующие позиции среди открытых моделей на 41 мультимодальном бенчмарке. Переключатель Thinking mode позволяет пользователям выбирать между скоростью и глубиной.",
"zai-org/GLM-4.6.description": "По сравнению с GLM-4.5, GLM-4.6 расширяет контекст с 128K до 200K для более сложных агентных задач. Получает более высокие оценки на бенчмарках кода и демонстрирует лучшую производительность в реальных приложениях, таких как Claude Code, Cline, Roo Code и Kilo Code, включая улучшенную генерацию фронтенд-страниц. Улучшено рассуждение и поддержка инструментов во время рассуждения, что усиливает общие возможности. Лучше интегрируется в агентные фреймворки, улучшает агентов поиска/инструментов и обладает более естественным стилем письма и ролевой игрой, предпочтительным для человека.",
"zai-org/GLM-4.6V.description": "GLM-4.6V: достигает передовой точности визуального восприятия для своего масштаба параметров и впервые нативно интегрирует возможности вызова функций в архитектуру модели зрения, соединяя \"визуальное восприятие\" с \"исполняемыми действиями\" и предоставляя унифицированную техническую основу для мультимодальных агентов в реальных бизнес-сценариях. Окно визуального контекста расширено до 128 тысяч, поддерживая обработку длинных видеопотоков и анализ изображений высокого разрешения.",
"zai/glm-4.5-air.description": "GLM-4.5 и GLM-4.5-Air — наши последние флагманские модели для агентных приложений, обе используют MoE. GLM-4.5 имеет 355B параметров всего и 32B активно на проход; GLM-4.5-Air — более легкая версия с 106B всего и 12B активно.",
"zai/glm-4.5.description": "Серия GLM-4.5 разработана для агентов. Флагманская модель GLM-4.5 сочетает рассуждение, программирование и агентные навыки с 355B параметров (32B активно) и предлагает два режима работы как гибридная система рассуждения.",
"zai/glm-4.5v.description": "GLM-4.5V построена на базе GLM-4.5-Air, унаследовав проверенные техники GLM-4.1V-Thinking и масштабируясь с мощной архитектурой MoE на 106B параметров.",
"zenmux/auto.description": "ZenMux auto-routing автоматически выбирает наиболее выгодную и производительную модель из поддерживаемых вариантов на основе вашего запроса."
}