lobehub/locales/bg-BG/models.json
Rdmclin2 965fc929e1
feat: add unified messaging tool for cross-platform communication (#13296)
*  feat: add cross-platform message tool for AI bot channel operations

Implement a unified message tool (`lobe-message`) that provides AI with
messaging capabilities across Discord, Telegram, Slack, Google Chat,
and IRC through a single interface with platform-specific extensions.

Core APIs: sendMessage, readMessages, editMessage, deleteMessage,
searchMessages, reactToMessage, getReactions, pin/unpin management,
channel/member info, thread operations, and polls.

Architecture follows the established builtin-tool pattern:
- Package: @lobechat/builtin-tool-message (manifest, types, executor,
  ExecutionRuntime, client components)
- Registry: registered in builtin-tools (renders, inspectors,
  interventions, streamings)
- Server runtime: stub service ready for platform adapter integration

https://claude.ai/code/session_011sHc6R7V4cSYKere9RY1QM

* feat: implement platform specific message service

* chore: add wechat platform

* chore: update wechat api service

* chore: update protocol implementation

* chore: optimize  platform api test

* fix: lark domain error

* feat: support bot message cli

* chore: refactor adapter to service

* chore: optimize bot status fetch

* fix: bot status

* fix: channel nav ignore

* feat: message tool support bot manage

* feat: add lobe-message runtime

* feat: support direct message

* feat: add history limit

* chore: update const limit

* feat: optimize  server id message history limit

* chore: optimize system role & inject platform environment info

* chore: update  readMessages vibe

* fix: form body width 50%

* chore: optimize tool prompt

* chore: update i18n files

* chore: optimize read message system role and update bot message lh

* updage readMessage api rate limit

* chore: comatible for readMessages

* fix: feishu readMessage implementation error

* fix: test case

* chore: update i18n files

* fix: lint error

* chore: add timeout for conversaction case

* fix: message test case

* fix: vite gzip error

---------

Co-authored-by: Claude <noreply@anthropic.com>
2026-03-31 00:26:32 +08:00

1325 lines
481 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"01-ai/yi-1.5-34b-chat.description": "Най-новият отворен модел на 01.AI с фино настройване и 34 милиарда параметъра, поддържащ множество сценарии за диалог, обучен с висококачествени данни и съобразен с човешките предпочитания.",
"01-ai/yi-1.5-9b-chat.description": "Най-новият отворен модел на 01.AI с фино настройване и 9 милиарда параметъра, поддържащ множество сценарии за диалог, обучен с висококачествени данни и съобразен с човешките предпочитания.",
"360/deepseek-r1.description": "DeepSeek-R1, внедрен от 360, използва мащабно подсилващо обучение в етапа след предварителното обучение, значително подобрявайки логическото мислене с минимално количество етикетирани данни. Сравнява се с OpenAI o1 при задачи по математика, програмиране и езиково разсъждение.",
"360gpt-pro-trans.description": "Модел, специализиран в превод, дълбоко фино настроен за водещо качество на превода.",
"360gpt-pro.description": "360GPT Pro е основен AI модел на 360 с ефективна обработка на текст за разнообразни NLP сценарии, поддържащ разбиране на дълги текстове и многократен диалог.",
"360gpt-turbo-responsibility-8k.description": "360GPT Turbo Responsibility 8K поставя акцент върху семантичната безопасност и отговорността при чувствително съдържание, осигурявайки точни и надеждни потребителски преживявания.",
"360gpt-turbo.description": "360GPT Turbo предлага мощни изчислителни и диалогови възможности с отлично семантично разбиране и ефективност на генериране, идеален за предприятия и разработчици.",
"360gpt2-o1.description": "360gpt2-o1 изгражда верига на мисълта чрез дървовидно търсене с механизъм за рефлексия и обучение чрез подсилване, позволявайки саморефлексия и самокорекция.",
"360gpt2-pro.description": "360GPT2 Pro е усъвършенстван NLP модел от 360 с отлични възможности за генериране и разбиране на текст, особено при творчески задачи, справяйки се със сложни трансформации и ролеви игри.",
"360zhinao2-o1.5.description": "360 Zhinao най-мощният модел за разсъждение, с най-силни способности, поддържащ както използване на инструменти, така и напреднало разсъждение.",
"360zhinao2-o1.description": "360zhinao2-o1 изгражда верига на мисълта чрез дървовидно търсене с механизъм за рефлексия и обучение чрез подсилване, позволявайки саморефлексия и самокорекция.",
"360zhinao3-o1.5.description": "360 Zhinao модел за разсъждение от следващо поколение.",
"4.0Ultra.description": "Spark Ultra е най-мощният модел от серията Spark, подобряващ разбирането и обобщаването на текст, както и уеб търсенето. Това е цялостно решение за повишаване на продуктивността на работното място и точността на отговорите, позиционирайки го като водещ интелигентен продукт.",
"AnimeSharp.description": "AnimeSharp (известен още като \"4x-AnimeSharp\") е отворен модел за супер-резолюция, базиран на ESRGAN от Kim2091, фокусиран върху увеличаване и изостряне на изображения в аниме стил. Преименуван е от \"4x-TextSharpV1\" през февруари 2022 г., първоначално предназначен и за текстови изображения, но силно оптимизиран за аниме съдържание.",
"Baichuan2-Turbo.description": "Използва разширение чрез търсене, за да свърже модела с домейн и уеб знания. Поддържа качване на PDF/Word файлове и въвеждане на URL адреси за навременно, цялостно извличане и професионални, точни резултати.",
"Baichuan3-Turbo-128k.description": "С ултра-дълъг контекст от 128K, оптимизиран за чести бизнес сценарии с големи подобрения и висока стойност. В сравнение с Baichuan2, създаването на съдържание се подобрява с 20%, въпросите и отговорите с 17%, а ролевите игри с 40%. Общата производителност надвишава тази на GPT-3.5.",
"Baichuan3-Turbo.description": "Оптимизиран за чести бизнес сценарии с големи подобрения и висока стойност. В сравнение с Baichuan2, създаването на съдържание се подобрява с 20%, въпросите и отговорите с 17%, а ролевите игри с 40%. Общата производителност надвишава тази на GPT-3.5.",
"Baichuan4-Air.description": "Водещ модел в Китай, надминаващ основни чуждестранни модели при китайски задачи като знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности с отлични резултати на авторитетни бенчмаркове.",
"Baichuan4-Turbo.description": "Водещ модел в Китай, надминаващ основни чуждестранни модели при китайски задачи като знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности с отлични резултати на авторитетни бенчмаркове.",
"Baichuan4.description": "Водещо вътрешно представяне, надминаващо водещи чуждестранни модели при китайски задачи като енциклопедични знания, дълги текстове и творческо генериране. Също така предлага водещи в индустрията мултимодални възможности и силни резултати на бенчмаркове.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS е семейство от отворени LLM модели от ByteDance Seed, проектирани за силна обработка на дълъг контекст, логическо мислене, агентни и общи способности. Seed-OSS-36B-Instruct е 36B модел, настроен за инструкции, с вграден ултра-дълъг контекст за обработка на големи документи или кодови бази. Оптимизиран е за логическо мислене, генериране на код и агентни задачи (използване на инструменти), като същевременно запазва силни общи способности. Ключова характеристика е \"Бюджет за мислене\", позволяващ гъвкава дължина на разсъждение за подобрена ефективност.",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, по-големият и по-интелигентен модел от серията DeepSeek, е дистилиран в архитектурата Llama 70B. Бенчмаркове и човешки оценки показват, че е по-умен от базовия Llama 70B, особено при задачи по математика и точност на фактите.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Дистилиран модел DeepSeek-R1, базиран на Qwen2.5-Math-1.5B. Подсилващо обучение и cold-start данни оптимизират логическата производителност, поставяйки нови мултизадачни бенчмаркове за отворени модели.",
"DeepSeek-R1-Distill-Qwen-14B.description": "Моделите DeepSeek-R1-Distill са фино настроени от отворени модели с помощта на примерни данни, генерирани от DeepSeek-R1.",
"DeepSeek-R1-Distill-Qwen-32B.description": "Моделите DeepSeek-R1-Distill са фино настроени от отворени модели с помощта на примерни данни, генерирани от DeepSeek-R1.",
"DeepSeek-R1-Distill-Qwen-7B.description": "Дистилиран модел DeepSeek-R1, базиран на Qwen2.5-Math-7B. Подсилващо обучение и cold-start данни оптимизират логическата производителност, поставяйки нови мултизадачни бенчмаркове за отворени модели.",
"DeepSeek-R1.description": "DeepSeek-R1 прилага мащабно подсилващо обучение в етапа след предварителното обучение, значително подобрявайки логическото мислене с много малко етикетирани данни. Сравнява се с продукционния модел OpenAI o1 при задачи по математика, програмиране и езиково разсъждение.",
"DeepSeek-V3-1.description": "DeepSeek V3.1 е следващо поколение модел за логическо мислене с подобрено сложно разсъждение и верига на мисълта, подходящ за задачи с дълбок анализ.",
"DeepSeek-V3-Fast.description": "Доставчик: sophnet. DeepSeek V3 Fast е високоскоростната версия на DeepSeek V3 0324, с пълна прецизност (без квантизация), по-силен при програмиране и математика и по-бързи отговори.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast е високоскоростният вариант на DeepSeek V3.1. Хибриден режим на мислене: чрез шаблони за чат, един модел поддържа както мислещ, така и немислещ режим. По-умно използване на инструменти: оптимизации след обучение подобряват производителността при задачи с инструменти и агенти.",
"DeepSeek-V3.1-Think.description": "Режим на мислене на DeepSeek-V3.1: нов хибриден модел за разсъждение с мислещ и немислещ режим, по-ефективен от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и производителността при агентни задачи.",
"DeepSeek-V3.description": "DeepSeek-V3 е MoE модел, разработен от DeepSeek. Надминава други отворени модели като Qwen2.5-72B и Llama-3.1-405B в много бенчмаркове и е конкурентен с водещи затворени модели като GPT-4o и Claude 3.5 Sonnet.",
"Doubao-lite-128k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 128K контекст за извеждане и фина настройка.",
"Doubao-lite-32k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 32K контекст за извеждане и фина настройка.",
"Doubao-lite-4k.description": "Doubao-lite предлага изключително бързи отговори и по-добра стойност, с гъвкави опции за различни сценарии. Поддържа 4K контекст за извеждане и фина настройка.",
"Doubao-pro-128k.description": "Водещ флагмански модел с най-добра производителност за сложни задачи, отличен в отговори с препратки, обобщения, създаване на съдържание, класификация и ролеви игри. Поддържа 128K контекст за извеждане и фина настройка.",
"Doubao-pro-32k.description": "Водещ флагмански модел с най-добра производителност за сложни задачи, отличен в отговори с препратки, обобщения, създаване на съдържание, класификация и ролеви игри. Поддържа 32K контекст за извеждане и фина настройка.",
"Doubao-pro-4k.description": "Водещ флагмански модел с най-добра производителност за сложни задачи, отличен в отговори с препратки, обобщения, създаване на съдържание, класификация и ролеви игри. Поддържа 4K контекст за извеждане и фина настройка.",
"DreamO.description": "DreamO е модел с отворен код за персонализирано генериране на изображения, разработен съвместно от ByteDance и Пекинския университет. Използва унифицирана архитектура за поддръжка на многозадачно генериране на изображения. Прилага ефективно композиционно моделиране за създаване на висококачествени, персонализирани изображения въз основа на зададени от потребителя характеристики като идентичност, обект, стил, фон и други условия.",
"ERNIE-3.5-128K.description": "Флагмански LLM модел на Baidu, обучен върху мащабни китайски и английски корпуси, с отлични общи способности за чат, създаване на съдържание и използване на плъгини. Поддържа автоматична интеграция с Baidu Search плъгин за предоставяне на актуални отговори.",
"ERNIE-3.5-8K-Preview.description": "Флагмански LLM модел на Baidu, обучен върху мащабни китайски и английски корпуси, с отлични общи способности за чат, създаване на съдържание и използване на плъгини. Поддържа автоматична интеграция с Baidu Search плъгин за предоставяне на актуални отговори.",
"ERNIE-3.5-8K.description": "Флагмански LLM модел на Baidu, обучен върху мащабни китайски и английски корпуси, с отлични общи способности за чат, създаване на съдържание и използване на плъгини. Поддържа автоматична интеграция с Baidu Search плъгин за предоставяне на актуални отговори.",
"ERNIE-4.0-8K-Latest.description": "Флагмански ултра-голям LLM модел на Baidu с цялостни подобрения спрямо ERNIE 3.5, подходящ за сложни задачи в различни области. Поддържа интеграция с Baidu Search плъгин за предоставяне на актуални отговори.",
"ERNIE-4.0-8K-Preview.description": "Флагмански ултра-голям LLM модел на Baidu с цялостни подобрения спрямо ERNIE 3.5, подходящ за сложни задачи в различни области. Поддържа интеграция с Baidu Search плъгин за предоставяне на актуални отговори.",
"ERNIE-4.0-Turbo-8K-Latest.description": "Флагмански ултра-голям LLM модел на Baidu с отлична цялостна производителност за сложни задачи и интеграция с Baidu Search плъгин за предоставяне на актуални отговори. Надминава ERNIE 4.0.",
"ERNIE-4.0-Turbo-8K-Preview.description": "Флагмански ултра-голям LLM модел на Baidu с отлична цялостна производителност за сложни задачи и интеграция с Baidu Search плъгин за предоставяне на актуални отговори. Надминава ERNIE 4.0.",
"ERNIE-Character-8K.description": "Вертикално-ориентиран LLM модел на Baidu за игрови NPC, клиентско обслужване и ролеви игри, с по-ясна консистентност на персонажа, по-добро следване на инструкции и по-силно логическо мислене.",
"ERNIE-Lite-Pro-128K.description": "Олекотен LLM модел на Baidu, балансиращ между качество и производителност при извеждане, по-добър от ERNIE Lite и подходящ за устройства с ограничени ресурси.",
"ERNIE-Speed-128K.description": "Най-новият високопроизводителен LLM модел на Baidu (2024), с отлични общи способности, подходящ за фина настройка за специфични сценарии и с изключителна логическа производителност.",
"ERNIE-Speed-Pro-128K.description": "Най-новият високопроизводителен LLM модел на Baidu (2024), с отлични общи способности, по-добър от ERNIE Speed, подходящ за фина настройка и с изключителна логическа производителност.",
"FLUX-1.1-pro.description": "FLUX.1.1 Pro",
"FLUX.1-Kontext-dev.description": "FLUX.1-Kontext-dev е мултимодален модел за генериране и редактиране на изображения от Black Forest Labs, базиран на архитектура Rectified Flow Transformer с 12B параметъра. Фокусира се върху генериране, реконструкция, подобрение и редакция на изображения според зададен контекст. Комбинира контролираната генерация на дифузионни модели с контекстното моделиране на Transformer, поддържайки висококачествени резултати за задачи като inpainting, outpainting и реконструкция на визуални сцени.",
"FLUX.1-Kontext-pro.description": "FLUX.1 Kontext [pro]",
"FLUX.1-dev.description": "FLUX.1-dev е мултимодален езиков модел с отворен код (MLLM) от Black Forest Labs, оптимизиран за задачи с изображения и текст, комбиниращ разбиране и генериране на изображения/текст. Изграден върху напреднали LLM модели (като Mistral-7B), използва внимателно проектиран визуален енкодер и многоетапна настройка с инструкции за постигане на мултимодална координация и логическо мислене при сложни задачи.",
"GLM-4.5-Air.description": "GLM-4.5-Air: Олекотена версия за бързи отговори.",
"GLM-4.5.description": "GLM-4.5: Високопроизводителен модел за разсъждения, програмиране и задачи с агенти.",
"GLM-4.6.description": "GLM-4.6: Модел от предишно поколение.",
"GLM-4.7.description": "GLM-4.7 е най-новият водещ модел на Zhipu, подобрен за сценарии на агентно програмиране с усъвършенствани възможности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти.",
"GLM-5-Turbo.description": "GLM-5-Turbo: Оптимизирана версия на GLM-5 с по-бързо извеждане за задачи по програмиране.",
"GLM-5.description": "GLM-5 е водещ модел от следващо поколение на Zhipu, създаден за агентно инженерство. Той осигурява надеждна продуктивност в сложни системни инженерни задачи и дългосрочни агентни задачи. В областта на програмирането и агентните способности GLM-5 постига най-добри резултати сред моделите с отворен код.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) е иновативен модел за разнообразни области и сложни задачи.",
"HY-Image-V3.0.description": "Мощни възможности за извличане на характеристики от оригиналното изображение и запазване на детайлите, предоставящи по-богата визуална текстура и създаващи високоточни, добре композирани, продукционни визуализации.",
"HelloMeme.description": "HelloMeme е AI инструмент, който генерира мемета, GIF-ове или кратки видеа от предоставени изображения или движения. Не изисква умения за рисуване или програмиране — само референтно изображение — за създаване на забавно, атрактивно и стилово консистентно съдържание.",
"HiDream-E1-Full.description": "HiDream-E1-Full е модел за отворен код за мултимодално редактиране на изображения от HiDream.ai, базиран на усъвършенствана архитектура Diffusion Transformer и силно езиково разбиране (вграден LLaMA 3.1-8B-Instruct). Той поддържа генериране на изображения, трансфер на стилове, локални редакции и прерисуване, управлявани от естествен език, с отлично разбиране и изпълнение на текст и изображения.",
"HiDream-I1-Full.description": "HiDream-I1 е нов модел за генериране на изображения с отворен код, пуснат от HiDream. С 17 милиарда параметри (Flux има 12 милиарда), той може да предостави водещо в индустрията качество на изображенията за секунди.",
"HunyuanDiT-v1.2-Diffusers-Distilled.description": "hunyuandit-v1.2-distilled е олекотен модел за преобразуване на текст в изображение, оптимизиран чрез дистилация за бързо генериране на висококачествени изображения, особено подходящ за среди с ограничени ресурси и реално време.",
"InstantCharacter.description": "InstantCharacter е модел за персонализирано генериране на персонажи без нужда от настройка, пуснат от Tencent AI през 2025 г., насочен към висок реализъм и консистентност на персонажа в различни сценарии. Може да моделира персонаж от едно референтно изображение и гъвкаво да го прехвърля между стилове, действия и фонове.",
"InternVL2-8B.description": "InternVL2-8B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
"InternVL2.5-26B.description": "InternVL2.5-26B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, с точно разпознаване на съдържание и генериране на съответни описания или отговори.",
"Kolors.description": "Kolors е модел за преобразуване на текст в изображение, разработен от екипа на Kuaishou Kolors. Обучен с милиарди параметри, той има значителни предимства във визуалното качество, разбиране на китайски семантики и визуализиране на текст.",
"Kwai-Kolors/Kolors.description": "Kolors е мащабен латентен дифузионен модел за преобразуване на текст в изображение от екипа на Kuaishou Kolors. Обучен върху милиарди двойки текст-изображение, той се отличава с високо визуално качество, точност при сложни семантики и визуализиране на китайски/английски текст, с отлично разбиране и генериране на китайско съдържание.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) е модел с отворен код за задачи в софтуерното инженерство. Постига 62.4% успеваемост в SWE-Bench Verified, класирайки се на 5-то място сред отворените модели. Оптимизиран чрез междинно обучение, SFT и RL за допълване на код, отстраняване на грешки и преглед на код.",
"Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
"Llama-3.2-90B-Vision-Instruct\t.description": "Разширено визуално разсъждение за приложения с агенти за визуално разбиране.",
"LongCat-Flash-Chat.description": "Моделът LongCat-Flash-Chat е обновен до нова версия. Това обновление включва подобрения само в способностите на модела; името на модела и методът за извикване на API остават непроменени. Въз основа на отличителните му характеристики „екстремна ефективност“ и „светкавично бърз отговор“, новата версия допълнително укрепва контекстуалното разбиране и производителността при програмиране в реалния свят: Значително подобрени способности за кодиране: Дълбоко оптимизиран за сценарии, ориентирани към разработчици, моделът предоставя значителни подобрения в генерирането на код, отстраняването на грешки и обяснителните задачи. Разработчиците са силно насърчени да оценят и сравнят тези подобрения. Поддръжка за 256K ултра-дълъг контекст: Контекстният прозорец е удвоен от предишното поколение (128K) до 256K, позволявайки ефективна обработка на масивни документи и задачи с дълги последователности. Комплексно подобрена многоезична производителност: Осигурява силна поддръжка за девет езика, включително испански, френски, арабски, португалски, руски и индонезийски. По-мощни способности на агентите: Демонстрира по-голяма устойчивост и ефективност при сложни извиквания на инструменти и изпълнение на многоетапни задачи.",
"LongCat-Flash-Lite.description": "Моделът LongCat-Flash-Lite е официално пуснат. Той използва ефективна архитектура Mixture-of-Experts (MoE) с общо 68.5 милиарда параметри и приблизително 3 милиарда активирани параметри. Чрез използването на таблица за вграждане на N-грам, той постига високо ефективно използване на параметрите и е дълбоко оптимизиран за ефективност на изводите и специфични приложения. В сравнение с модели от подобен мащаб, основните му характеристики са следните: Изключителна ефективност на изводите: Чрез използване на таблицата за вграждане на N-грам за фундаментално облекчаване на I/O ограниченията, присъщи на архитектурите MoE, комбинирано с специализирани механизми за кеширане и оптимизации на ниво ядро, значително намалява латентността на изводите и подобрява общата ефективност. Силна производителност на агентите и кода: Демонстрира високо конкурентни способности при извикване на инструменти и задачи за разработка на софтуер, предоставяйки изключителна производителност спрямо размера на модела.",
"LongCat-Flash-Thinking-2601.description": "Моделът LongCat-Flash-Thinking-2601 е официално пуснат. Като обновен модел за разсъждение, изграден върху архитектура Mixture-of-Experts (MoE), той разполага с общо 560 милиарда параметри. Докато поддържа силна конкурентоспособност в традиционните бенчмаркове за разсъждение, той систематично подобрява способностите за разсъждение на ниво агент чрез мащабно обучение с подсилване в много среди. В сравнение с модела LongCat-Flash-Thinking, ключовите подобрения са следните: Екстремна устойчивост в шумни среди: Чрез систематично обучение в стил учебна програма, насочено към шум и несигурност в реални условия, моделът демонстрира изключителна производителност при извикване на инструменти от агенти, търсене на база агенти и интегрирано разсъждение с инструменти, със значително подобрена генерализация. Мощни способности на агентите: Чрез изграждане на плътно свързан граф на зависимости, обхващащ повече от 60 инструмента, и мащабиране на обучението чрез разширение в много среди и мащабно изследователско обучение, моделът значително подобрява способността си да се генерализира към сложни и извън разпределението реални сценарии. Разширен режим на дълбоко мислене: Разширява обхвата на разсъжденията чрез паралелно извеждане и задълбочава аналитичната способност чрез механизми за обобщение и абстракция, управлявани от обратна връзка, ефективно адресирайки силно предизвикателни проблеми.",
"LongCat-Flash-Thinking.description": "LongCat-Flash-Thinking е официално пуснат и едновременно с това отворен за използване. Това е модел за дълбоко разсъждение, който може да се използва за свободни разговори в LongCat Chat или да се достъпи чрез API, като се посочи model=LongCat-Flash-Thinking.",
"Meta-Llama-3-3-70B-Instruct.description": "Llama 3.3 70B е универсален трансформерен модел за чат и генериране на текст.",
"Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с отлични резултати на водещи индустриални бенчмаркове сред отворени и затворени модели.",
"Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с отлични резултати на водещи индустриални бенчмаркове сред отворени и затворени модели.",
"Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с отлични резултати на водещи индустриални бенчмаркове сред отворени и затворени модели.",
"Meta-Llama-3.2-1B-Instruct.description": "Модерен малък езиков модел с отлично езиково разбиране, логическо мислене и генериране на текст.",
"Meta-Llama-3.2-3B-Instruct.description": "Модерен малък езиков модел с отлично езиково разбиране, логическо мислене и генериране на текст.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много по-ниска цена. Базиран е на трансформерна архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и надминава много отворени и затворени модели на индустриални бенчмаркове. Граница на знанието: декември 2023 г.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick е голям MoE модел с ефективна активация на експерти за силна логическа производителност.",
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
"MiniMax-M2.1-Lightning.description": "Мощни многоезични възможности за програмиране и цялостно подобрено програмистко изживяване. По-бързо и по-ефективно.",
"MiniMax-M2.1.description": "MiniMax-M2.1 е водеща отворена голяма езикова система от MiniMax, фокусирана върху решаването на сложни реални задачи. Основните ѝ предимства са възможностите за програмиране на множество езици и способността да действа като агент за решаване на сложни задачи.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Същата производителност, по-бърз и по-агилен (приблизително 100 tps).",
"MiniMax-M2.5-highspeed.description": "MiniMax M2.5 Highspeed: Същата производителност като M2.5, но с по-бързо извеждане.",
"MiniMax-M2.5.description": "MiniMax-M2.5 е водещ модел с отворен код от MiniMax, фокусиран върху решаването на сложни реални задачи. Основните му предимства са мултиезиковите програмни възможности и способността да решава сложни задачи като агент.",
"MiniMax-M2.7-highspeed.description": "MiniMax M2.7 Highspeed: Същата производителност като M2.7, но със значително по-бързо извеждане.",
"MiniMax-M2.7.description": "MiniMax M2.7: Начало на пътя към рекурсивно самоусъвършенстване, водещи инженерни способности в реалния свят.",
"MiniMax-M2.description": "MiniMax M2: Модел от предишно поколение.",
"MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е модел за хибридно внимание с отворени тегла, съдържащ 456 милиарда общи параметри и ~45.9 милиарда активни на токен. Той поддържа контекст от 1 милион токена и използва Flash Attention за намаляване на FLOPs с 75% при генериране на 100K токена спрямо DeepSeek R1. С архитектура MoE плюс CISPO и обучение с хибридно внимание RL, той постига водещи резултати в задачи за дългосрочно разсъждение и реално софтуерно инженерство.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 преосмисля ефективността на агентите. Това е компактен, бърз и икономичен модел MoE с 230 милиарда общи и 10 милиарда активни параметри, създаден за водещи задачи по програмиране и агенти, като същевременно запазва силен общ интелект. Със само 10 милиарда активни параметри, той съперничи на много по-големи модели, което го прави идеален за приложения с висока ефективност.",
"Moonshot-Kimi-K2-Instruct.description": "1T общи параметри с 32B активни. Сред немислещите модели е водещ в гранични знания, математика и програмиране, и по-силен в общи агентски задачи. Оптимизиран за агентски натоварвания, може да предприема действия, а не само да отговаря на въпроси. Най-подходящ за импровизационен, общ чат и агентски преживявания като модел на рефлексно ниво без дълго мислене.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е високоточен модел с инструкции за сложни изчисления.",
"OmniConsistency.description": "OmniConsistency подобрява стиловата последователност и обобщението при задачи от изображение към изображение чрез въвеждане на мащабни дифузионни трансформери (DiTs) и сдвоени стилизирани данни, избягвайки влошаване на стила.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 е надградена версия от серията PaddleOCR-VL, постигайки 94.5% точност в бенчмарка за парсинг на документи OmniDocBench v1.5, надминавайки водещите общи големи модели и специализирани модели за парсинг на документи. Иновативно поддържа локализация на елементи с неправилни ограничителни кутии, ефективно обработвайки сканирани, наклонени и заснети от екрана изображения.",
"Phi-3-medium-128k-instruct.description": "Същият модел Phi-3-medium с по-голям контекстен прозорец за RAG или few-shot подканвания.",
"Phi-3-medium-4k-instruct.description": "Модел с 14B параметри с по-високо качество от Phi-3-mini, фокусиран върху данни с високо качество и интензивно разсъждение.",
"Phi-3-mini-128k-instruct.description": "Същият модел Phi-3-mini с по-голям контекстен прозорец за RAG или few-shot подканвания.",
"Phi-3-mini-4k-instruct.description": "Най-малкият член на семейството Phi-3, оптимизиран за качество и ниска латентност.",
"Phi-3-small-128k-instruct.description": "Същият модел Phi-3-small с по-голям контекстен прозорец за RAG или few-shot подканвания.",
"Phi-3-small-8k-instruct.description": "Модел с 7B параметри с по-високо качество от Phi-3-mini, фокусиран върху данни с високо качество и интензивно разсъждение.",
"Phi-3.5-mini-instruct.description": "Актуализирана версия на модела Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Актуализирана версия на модела Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 е отворен модел с голям езиков капацитет, оптимизиран за агентни способности, с изключителни резултати в програмиране, използване на инструменти, следване на инструкции и дългосрочно планиране. Моделът поддържа многоезична разработка на софтуер и изпълнение на сложни многoетапни работни потоци, постигайки резултат от 74.0 в SWE-bench Verified и надминава Claude Sonnet 4.5 в многоезични сценарии.",
"Pro/MiniMaxAI/MiniMax-M2.5.description": "MiniMax-M2.5 е най-новият голям езиков модел, разработен от MiniMax, обучен чрез мащабно обучение с подсилване в стотици хиляди сложни, реални среди. С архитектура MoE и 229 милиарда параметри, той постига водещи резултати в задачи като програмиране, използване на инструменти от агенти, търсене и офис сценарии.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct е 7B модел с инструкции от серията Qwen2. Използва трансформерна архитектура със SwiGLU, QKV bias и групирано внимание, и обработва големи входове. Постига отлични резултати в езиково разбиране, генериране, многоезични задачи, програмиране, математика и разсъждение, надминавайки повечето отворени модели и конкурирайки се със затворени.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 7B параметри носи значителни подобрения в програмирането и математиката, поддържа над 29 езика и подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct е най-новият LLM на Alibaba Cloud, фокусиран върху програмиране. Изграден върху Qwen2.5 и обучен с 5.5T токена, значително подобрява генерирането на код, разсъждението и поправката, като същевременно запазва силни математически и общи способности, осигурявайки стабилна основа за кодови агенти.",
"Pro/Qwen/Qwen2.5-VL-7B-Instruct.description": "Qwen2.5-VL е нов модел за визия и език от серията Qwen с мощно визуално разбиране. Анализира текст, графики и оформления в изображения, разбира дълги видеа и събития, поддържа разсъждение и използване на инструменти, обвързване на обекти във формати, и структурирани изходи. Подобрява динамичната резолюция и обучението с честота на кадрите за видео разбиране и повишава ефективността на визуалния енкодер.",
"Pro/THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking е отворен VLM модел, разработен от Zhipu AI и лабораторията KEG на университета Цинхуа, създаден за сложна мултимодална когниция. Базиран на GLM-4-9B-0414, той добавя верижно разсъждение (chain-of-thought) и обучение чрез подсилване (RL), което значително подобрява между-модалното разсъждение и стабилността.",
"Pro/THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat е отворен GLM-4 модел от Zhipu AI. Демонстрира високи резултати в семантика, математика, логическо мислене, програмиране и знания. Освен многозавойни разговори, поддържа уеб сърфиране, изпълнение на код, извикване на персонализирани инструменти и разсъждение върху дълги текстове. Поддържа 26 езика (включително китайски, английски, японски, корейски, немски). Представя се отлично в AlignBench-v2, MT-Bench, MMLU и C-Eval и поддържа до 128K контекст за академични и бизнес приложения.",
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B е дистилиран от Qwen2.5-Math-7B и фино настроен върху 800K подбрани проби от DeepSeek-R1. Той показва силни резултати: 92.8% на MATH-500, 55.5% на AIME 2024 и рейтинг 1189 на CodeForces за модел с 7 милиарда параметри.",
"Pro/deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 е модел за разсъждение, базиран на обучение чрез подсилване (RL), който намалява повторенията и подобрява четимостта. Използва cold-start данни преди RL, за да засили разсъждението, съпоставя се с OpenAI-o1 при задачи по математика, код и логика и подобрява общите резултати чрез внимателно обучение.",
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus е обновен модел от серията V3.1, позициониран като хибриден агентен LLM. Отстранява докладвани от потребители проблеми и подобрява стабилността, езиковата последователност и намалява смесването на китайски/английски и аномални символи. Интегрира режими с и без разсъждение с шаблони за чат за гъвкаво превключване. Подобрява и производителността на Code Agent и Search Agent за по-надеждно използване на инструменти и многoетапни задачи.",
"Pro/deepseek-ai/DeepSeek-V3.2.description": "DeepSeek-V3.2 е модел, който съчетава висока изчислителна ефективност с отлично разсъждение и производителност като агент. Подходът му се основава на три ключови технологични пробива: DeepSeek Sparse Attention (DSA), ефективен механизъм за внимание, който значително намалява изчислителната сложност, като същевременно поддържа производителността на модела и е специално оптимизиран за сценарии с дълъг контекст; мащабируема рамка за подсилващо обучение, чрез която производителността на модела може да съперничи на GPT-5, а версията с висока изчислителна мощност съответства на Gemini-3.0-Pro по способности за разсъждение; и мащабна тръбопроводна система за синтез на задачи за агенти, насочена към интегриране на способности за разсъждение в сценарии за използване на инструменти, като по този начин подобрява следването на инструкции и обобщаването в сложни интерактивни среди. Моделът постигна златен медал на Международната математическа олимпиада (IMO) и Международната олимпиада по информатика (IOI) през 2025 г.",
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и инференция. Предварително обучен върху 14.8T висококачествени токени и допълнително настроен с SFT и RL, той надминава други отворени модели и се доближава до водещите затворени решения.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 е най-новият и най-мощен модел от серията Kimi K2. Това е MoE модел от най-висок клас с 1T общо и 32B активни параметъра. Основните му предимства включват по-силна агентна интелигентност при програмиране с значителни подобрения в бенчмаркове и реални задачи, както и подобрена естетика и използваемост на фронтенд кода.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo е ускорен вариант, оптимизиран за скорост на разсъждение и пропускателна способност, като запазва многoетапното разсъждение и използване на инструменти от K2 Thinking. Това е MoE модел с ~1T общи параметри, роден 256K контекст и стабилно мащабируемо извикване на инструменти за производствени сценарии с по-строги изисквания за латентност и едновременност.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 е отворен мултимодален агентен модел, базиран на Kimi-K2-Base, обучен върху приблизително 1.5 трилиона смесени визуални и текстови токени. Моделът използва MoE архитектура с общо 1T параметри и 32B активни параметри, поддържа контекстен прозорец от 256K и безпроблемно интегрира визуално и езиково разбиране.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 е новото поколение водещ модел на Zhipu с 355 милиарда общи параметри и 32 милиарда активни параметри, напълно обновен за общ диалог, разсъждения и агентни способности. GLM-4.7 подобрява преплетеното мислене и въвежда запазено мислене и мислене на ниво завой.",
"Pro/zai-org/glm-5.description": "GLM-5 е следващото поколение голям езиков модел на Zhipu, фокусиран върху сложното системно инженерство и задачи на агенти с дълга продължителност. Параметрите на модела са разширени до 744 милиарда (40 милиарда активни) и интегрират DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобряване на разсъждението.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview е изследователски модел от Qwen, фокусиран върху визуално разсъждение, със силни страни в разбирането на сложни сцени и визуални математически задачи.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобрено AI разсъждение.",
"Qwen/QwQ-32B.description": "QwQ е модел за разсъждение от семейството Qwen. В сравнение със стандартните модели, настроени по инструкции, той добавя мисловни и логически способности, които значително подобряват представянето при трудни задачи. QwQ-32B е среден по размер модел, съпоставим с водещи модели за разсъждение като DeepSeek-R1 и o1-mini. Използва RoPE, SwiGLU, RMSNorm и QKV bias в вниманието, с 64 слоя и 40 Q глави (8 KV в GQA).",
"Qwen/Qwen-Image-Edit-2509.description": "Qwen-Image-Edit-2509 е най-новата версия за редактиране на изображения от екипа на Qwen. Базиран на 20B модела Qwen-Image, той разширява силното текстово рендиране към редактиране на изображения за прецизни текстови промени. Използва двуканална архитектура входовете се подават към Qwen2.5-VL за семантичен контрол и към VAE енкодер за контрол на външния вид, което позволява редакции както на семантично, така и на визуално ниво. Поддържа локални редакции (добавяне/премахване/промяна) и по-високо ниво на семантични промени като създаване на IP и трансфер на стил, като същевременно запазва смисъла. Постига SOTA резултати в множество бенчмаркове.",
"Qwen/Qwen-Image.description": "Qwen-Image е базов модел за генериране на изображения с 20B параметъра от екипа на Qwen. Постига значителен напредък в рендиране на сложен текст и прецизно редактиране на изображения, особено за висококачествен китайски/английски текст. Поддържа многострочни и параграфни оформления с последователна типография. Освен текстово рендиране, поддържа широк спектър от стилове от фотореалистични до аниме, както и напреднало редактиране като трансфер на стил, добавяне/премахване на обекти, подобряване на детайли, редактиране на текст и контрол на позата, с цел да бъде цялостна основа за визуално творчество.",
"Qwen/Qwen2-72B-Instruct.description": "Qwen 2 Instruct (72B) предоставя прецизно следване на инструкции за корпоративни натоварвания.",
"Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct е 7B модел от серията Qwen2, обучен за следване на инструкции, използващ Transformer, SwiGLU, QKV bias и групирано внимание при заявки. Обработва големи входни данни и се представя отлично в задачи по разбиране, генериране, многоезичност, програмиране, математика и логическо мислене, надминавайки повечето отворени модели и превъзхождайки Qwen1.5-7B-Chat в множество оценки.",
"Qwen/Qwen2-VL-72B-Instruct.description": "Qwen2-VL е най-новият модел от серията Qwen-VL, постигайки водещи резултати в задачи по компютърно зрение като MathVista, DocVQA, RealWorldQA и MTVQA. Разбира видеа с продължителност над 20 минути за видео QA, диалог и създаване на съдържание. Поддържа сложна логика и вземане на решения, интегрирайки се с устройства/роботи за действия, водени от визуална информация. Освен английски и китайски, чете текст на много езици, включително повечето европейски, японски, корейски, арабски и виетнамски.",
"Qwen/Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 14B параметри предлага значителни подобрения в програмирането и математиката, поддържа над 29 езика и подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"Qwen/Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 32B параметри предлага значителни подобрения в програмирането и математиката, поддържа над 29 езика и подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"Qwen/Qwen2.5-72B-Instruct-128K.description": "Qwen2.5-72B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 72B параметри подобрява програмирането и математиката, поддържа до 128K вход и над 8K изход, предлага над 29 езика и подобрява следването на инструкции и структурирания изход (особено JSON).",
"Qwen/Qwen2.5-72B-Instruct-Turbo.description": "Qwen2.5 е ново семейство LLM, оптимизирано за задачи със стил на инструкции.",
"Qwen/Qwen2.5-72B-Instruct.description": "Qwen2.5-72B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 72B параметри предлага значителни подобрения в програмирането и математиката, поддържа над 29 езика и подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"Qwen/Qwen2.5-7B-Instruct-Turbo.description": "Qwen2.5 е ново семейство LLM, оптимизирано за задачи със стил на инструкции.",
"Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 7B параметри предлага значителни подобрения в програмирането и математиката, поддържа над 29 езика и подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"Qwen/Qwen2.5-Coder-32B-Instruct.description": "Qwen2.5 Coder 32B Instruct е най-новият LLM на Alibaba Cloud, фокусиран върху програмиране. Изграден върху Qwen2.5 и обучен с 5.5T токена, той значително подобрява генерирането на код, логическото мислене и поправката на грешки, като същевременно запазва силни математически и общи способности, предоставяйки стабилна основа за агенти за програмиране.",
"Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct е най-новият LLM на Alibaba Cloud, фокусиран върху програмиране. Изграден върху Qwen2.5 и обучен с 5.5T токена, той значително подобрява генерирането на код, логическото мислене и поправката на грешки, като същевременно запазва силни математически и общи способности, предоставяйки стабилна основа за агенти за програмиране.",
"Qwen/Qwen2.5-VL-32B-Instruct.description": "Qwen2.5-VL-32B-Instruct е мултимодален модел от екипа на Qwen. Разпознава често срещани обекти и анализира текст, диаграми, икони, графики и оформления. Като визуален агент, може да разсъждава и динамично да управлява инструменти, включително използване на компютър и телефон. Прецизно локализира обекти и генерира структурирани изходи за фактури и таблици. В сравнение с Qwen2-VL, RL допълнително подобрява математиката и решаването на проблеми, с по-предпочитани от хората отговори.",
"Qwen/Qwen2.5-VL-72B-Instruct.description": "Qwen2.5-VL е модел за визия и език от серията Qwen2.5 с основни подобрения: по-силно визуално разбиране за обекти, текст, диаграми и оформления; разсъждение като визуален агент с динамично използване на инструменти; разбиране на видеа над 1 час и улавяне на ключови събития; прецизно позициониране на обекти чрез кутии или точки; и структурирани изходи за сканирани данни като фактури и таблици.",
"Qwen/Qwen3-14B.description": "Qwen3 е следващо поколение модел Tongyi Qwen с основни подобрения в логическото мислене, общите способности, агентните възможности и многоезичната производителност, като поддържа превключване между режими на мислене.",
"Qwen/Qwen3-235B-A22B-Instruct-2507.description": "Qwen3-235B-A22B-Instruct-2507 е водещ MoE модел от серията Qwen3 с общо 235B и 22B активни параметри. Това е актуализирана версия без мислене, фокусирана върху подобряване на следването на инструкции, логическото мислене, разбирането на текст, математика, наука, програмиране и използване на инструменти. Разширява също така многоезичните знания и се съобразява по-добре с предпочитанията на потребителите при субективни отворени задачи.",
"Qwen/Qwen3-235B-A22B-Thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 е модел от серията Qwen3, фокусиран върху сложни логически задачи. Използва MoE архитектура с общо 235B и ~22B активни параметри на токен за повишена ефективност. Като специализиран мислещ модел, показва значителни подобрения в логика, математика, наука, програмиране и академични оценки, достигайки водещи резултати сред отворените мислещи модели. Подобрява също следването на инструкции, използването на инструменти и генерирането на текст, като нативно поддържа 256K контекст за дълбоко разсъждение и дълги документи.",
"Qwen/Qwen3-235B-A22B.description": "Qwen3 235B A22B е ултра-мащабен модел на Qwen3, предоставящ най-високо ниво на AI възможности.",
"Qwen/Qwen3-30B-A3B-Instruct-2507.description": "Qwen3-30B-A3B-Instruct-2507 е актуализираната немислеща версия на Qwen3-30B-A3B. Това е MoE модел с общо 30.5B и 3.3B активни параметри. Значително подобрява следването на инструкции, логическото мислене, разбирането на текст, математика, наука, програмиране и използване на инструменти, разширява многоезичните знания и се съобразява по-добре с предпочитанията на потребителите при субективни отворени задачи. Поддържа 256K контекст. Този модел е само немислещ и няма да генерира тагове `<think></think>`.",
"Qwen/Qwen3-30B-A3B-Thinking-2507.description": "Qwen3-30B-A3B-Thinking-2507 е най-новият мислещ модел от серията Qwen3. Това е MoE модел с общо 30.5B и 3.3B активни параметри, фокусиран върху сложни задачи. Показва значителни подобрения в логика, математика, наука, програмиране и академични оценки, и подобрява следването на инструкции, използването на инструменти, генерирането на текст и съобразяването с предпочитания. Нативно поддържа 256K контекст и може да се разшири до 1M токена. Тази версия е проектирана за мислещ режим с детайлно стъпково разсъждение и силни агентни възможности.",
"Qwen/Qwen3-32B.description": "Qwen3 е следващо поколение модел Tongyi Qwen с основни подобрения в логическото мислене, общите способности, агентните възможности и многоезичната производителност, като поддържа превключване между режими на мислене.",
"Qwen/Qwen3-8B.description": "Qwen3 е следващо поколение модел Tongyi Qwen с основни подобрения в логическото мислене, общите способности, агентните възможности и многоезичната производителност, като поддържа превключване между режими на мислене.",
"Qwen/Qwen3-Coder-30B-A3B-Instruct.description": "Qwen3-Coder-30B-A3B-Instruct е модел за програмиране от серията Qwen3, разработен от екипа на Qwen. Той е оптимизиран за висока производителност и ефективност, като същевременно подобрява възможностите за работа с код. Демонстрира силни предимства при агентно програмиране, автоматизирани операции в браузър и използване на инструменти сред отворените модели. Поддържа нативно контекст от 256K токена и може да се разшири до 1M токена за разбиране на цели кодови бази. Използва се за агентно програмиране в платформи като Qwen Code и CLINE с посветен формат за извикване на функции.",
"Qwen/Qwen3-Coder-480B-A35B-Instruct.description": "Qwen3-Coder-480B-A35B-Instruct е най-агентният модел за програмиране на Alibaba до момента. Това е MoE модел с общо 480 милиарда параметъра и 35 милиарда активни, осигуряващ баланс между ефективност и производителност. Поддържа нативно контекст от 256K токена и може да се разшири до 1M токена чрез YaRN, което позволява работа с големи кодови бази. Създаден е за агентни работни потоци при програмиране и може да взаимодейства с инструменти и среди за решаване на сложни задачи. Постига водещи резултати сред отворените модели в бенчмаркове за програмиране и агенти, сравними с Claude Sonnet 4.",
"Qwen/Qwen3-Next-80B-A3B-Instruct.description": "Qwen3-Next-80B-A3B-Instruct е базов модел от ново поколение, използващ архитектурата Qwen3-Next за изключителна ефективност при обучение и инференция. Комбинира хибридно внимание (Gated DeltaNet + Gated Attention), силно разреден MoE и оптимизации за стабилност при обучение. С общо 80 милиарда параметъра, но само ~3 милиарда активни при инференция, значително намалява изчислителните ресурси и осигурява над 10 пъти по-висока пропускателност спрямо Qwen3-32B при контексти над 32K. Тази версия, настроена за инструкции, е насочена към общи задачи (без режим на мислене). Представя се наравно с Qwen3-235B в някои бенчмаркове и показва силни предимства при задачи с ултра-дълъг контекст.",
"Qwen/Qwen3-Next-80B-A3B-Thinking.description": "Qwen3-Next-80B-A3B-Thinking е базов модел от ново поколение, предназначен за сложни разсъждения. Използва архитектурата Qwen3-Next с хибридно внимание (Gated DeltaNet + Gated Attention) и силно разреден MoE за изключителна ефективност при обучение и инференция. С общо 80 милиарда параметъра и ~3 милиарда активни при инференция, намалява изчислителните разходи и осигурява над 10 пъти по-висока пропускателност спрямо Qwen3-32B при контексти над 32K. Тази версия „Thinking“ е насочена към многoетапни задачи като доказателства, синтез на код, логически анализ и планиране, като генерира структурирана верига от мисли. Надминава Qwen3-32B-Thinking и побеждава Gemini-2.5-Flash-Thinking в няколко бенчмарка.",
"Qwen/Qwen3-Omni-30B-A3B-Captioner.description": "Qwen3-Omni-30B-A3B-Captioner е VLM модел от серията Qwen3, създаден за висококачествени, детайлни и точни описания на изображения. Използва MoE архитектура с 30 милиарда параметъра за дълбоко разбиране на изображения и генериране на плавни описания, като се отличава в улавянето на детайли, разбиране на сцени, разпознаване на обекти и логически връзки.",
"Qwen/Qwen3-Omni-30B-A3B-Instruct.description": "Qwen3-Omni-30B-A3B-Instruct е MoE модел от серията Qwen3 с общо 30 милиарда и 3 милиарда активни параметъра, осигуряващ висока производителност при ниска цена на инференция. Обучен е върху висококачествени многоезични данни от различни източници и поддържа пълноформатни входове (текст, изображения, аудио, видео), както и кросмодално разбиране и генериране.",
"Qwen/Qwen3-Omni-30B-A3B-Thinking.description": "Qwen3-Omni-30B-A3B-Thinking е основният компонент „Мислител“ на Qwen3-Omni. Обработва мултимодални входове (текст, аудио, изображения, видео) и извършва сложни разсъждения чрез верига от мисли, обединявайки входовете в споделено представяне за дълбоко кросмодално разбиране. Това е MoE модел с 30 милиарда общи и 3 милиарда активни параметъра, балансиращ силни разсъждения и изчислителна ефективност.",
"Qwen/Qwen3-VL-235B-A22B-Instruct.description": "Qwen3-VL-235B-A22B-Instruct е голям модел от серията Qwen3-VL, настроен за инструкции и изграден върху MoE архитектура, осигуряващ отлично мултимодално разбиране и генериране. Поддържа нативно контекст от 256K токена и е подходящ за високонагружени производствени мултимодални услуги.",
"Qwen/Qwen3-VL-235B-A22B-Thinking.description": "Qwen3-VL-235B-A22B-Thinking е водещата версия за разсъждение на Qwen3-VL, оптимизирана за сложни мултимодални разсъждения, дълъг контекст и взаимодействие с агенти в корпоративни сценарии.",
"Qwen/Qwen3-VL-30B-A3B-Instruct.description": "Qwen3-VL-30B-A3B-Instruct е настроен за инструкции модел от серията Qwen3-VL с високо ниво на разбиране и генериране на визия и език. Поддържа нативно контекст от 256K токена за мултимодален чат и генериране, базирано на изображения.",
"Qwen/Qwen3-VL-30B-A3B-Thinking.description": "Qwen3-VL-30B-A3B-Thinking е версия с подобрени разсъждения на Qwen3-VL, оптимизирана за мултимодални разсъждения, преобразуване на изображения в код и сложно визуално разбиране. Поддържа контекст от 256K токена с по-силна способност за верига от мисли.",
"Qwen/Qwen3-VL-32B-Instruct.description": "Qwen3-VL-32B-Instruct е модел за визия и език от екипа на Qwen с водещи резултати в множество VL бенчмаркове. Поддържа изображения с мегапикселова резолюция и предлага силно визуално разбиране, многоезичен OCR, прецизно визуално позициониране и визуален диалог. Обработва сложни мултимодални задачи и поддържа извикване на инструменти и допълване на префикси.",
"Qwen/Qwen3-VL-32B-Thinking.description": "Qwen3-VL-32B-Thinking е оптимизиран за сложно визуално разсъждение. Включва вграден режим на мислене, който генерира междинни стъпки на разсъждение преди отговорите, подобрявайки логиката на многоетапни задачи, планиране и сложни разсъждения. Поддържа изображения с мегапикселова резолюция, силно визуално разбиране, многоезичен OCR, прецизно позициониране, визуален диалог, извикване на инструменти и допълване на префикси.",
"Qwen/Qwen3-VL-8B-Instruct.description": "Qwen3-VL-8B-Instruct е модел за визия и език от серията Qwen3, изграден върху Qwen3-8B-Instruct и обучен върху големи обеми от данни с изображения и текст. Отличава се с общо визуално разбиране, диалог, фокусиран върху визията, и многоезично разпознаване на текст в изображения. Подходящ е за визуални въпроси и отговори, описания, следване на мултимодални инструкции и използване на инструменти.",
"Qwen/Qwen3-VL-8B-Thinking.description": "Qwen3-VL-8B-Thinking е визуалната версия за разсъждение на Qwen3, оптимизирана за сложно многоетапно разсъждение. Генерира верига от мисли преди отговорите за подобрена точност, идеална за задълбочени визуални въпроси и отговори и детайлен анализ на изображения.",
"Qwen/Qwen3.5-122B-A10B.description": "Qwen3.5-122B-A10B е роден мултимодален голям езиков модел от екипа на Qwen с общо 122 милиарда параметри и само 10 милиарда активни параметри. Той използва ефективна хибридна архитектура, комбинираща Gated Delta Networks и Sparse Mixture-of-Experts (MoE), като нативно поддържа дължина на контекста от 256K с разширяемост до приблизително 1 милион токени.",
"Qwen/Qwen3.5-27B.description": "Qwen3.5-27B е роден мултимодален голям езиков модел от екипа на Qwen с 27 милиарда параметри. Той използва ефективна хибридна архитектура, комбинираща Gated Delta Networks и Gated Attention, като нативно поддържа дължина на контекста от 256K с разширяемост до приблизително 1 милион токени.",
"Qwen/Qwen3.5-35B-A3B.description": "Qwen3.5-35B-A3B е роден мултимодален голям езиков модел от екипа на Qwen с общо 35 милиарда параметри и само 3 милиарда активни параметри. Той използва ефективна хибридна архитектура, комбинираща Gated Delta Networks и Sparse Mixture-of-Experts (MoE), като нативно поддържа дължина на контекста от 256K с разширяемост до приблизително 1 милион токени.",
"Qwen/Qwen3.5-397B-A17B.description": "Qwen3.5-397B-A17B е най-новият модел за визия и език в серията Qwen3.5, използващ архитектура Mixture-of-Experts (MoE) с общо 397 милиарда параметри и 17 милиарда активни параметри. Той нативно поддържа дължина на контекста от 256K с разширяемост до приблизително 1 милион токени, поддържа 201 езика и предоставя унифицирано разбиране на визия и език, извикване на инструменти и способности за разсъждение.",
"Qwen/Qwen3.5-4B.description": "Qwen3.5-4B е роден мултимодален голям езиков модел от екипа на Qwen с 4 милиарда параметри, най-леката плътна архитектура в серията Qwen3.5. Той използва ефективна хибридна архитектура, комбинираща Gated Delta Networks и Gated Attention, като нативно поддържа дължина на контекста от 256K с разширяемост до приблизително 1 милион токени.",
"Qwen/Qwen3.5-9B.description": "Qwen3.5-9B е роден мултимодален голям езиков модел от екипа на Qwen с 9 милиарда параметри. Като лек плътен модел в серията Qwen3.5, той използва ефективна хибридна архитектура, комбинираща Gated Delta Networks и Gated Attention, като нативно поддържа дължина на контекста от 256K с разширяемост до приблизително 1 милион токени.",
"Qwen2-72B-Instruct.description": "Qwen2 е най-новата версия от серията Qwen, поддържаща контекстен прозорец от 128k. В сравнение с най-добрите отворени модели днес, Qwen2-72B значително превъзхожда водещите модели в разбирането на естествен език, знания, програмиране, математика и многоезични възможности.",
"Qwen2-7B-Instruct.description": "Qwen2 е най-новата версия от серията Qwen, която превъзхожда най-добрите отворени модели със сходен или дори по-голям размер. Qwen2 7B показва значителни предимства в множество бенчмаркове, особено в програмиране и разбиране на китайски език.",
"Qwen2-VL-72B.description": "Qwen2-VL-72B е мощен модел за визия и език, поддържащ мултимодална обработка на изображения и текст, като точно разпознава съдържанието на изображения и генерира съответни описания или отговори.",
"Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct е LLM с 14 милиарда параметъра и висока производителност, оптимизиран за китайски и многоезични сценарии, поддържащ интелигентни въпроси и отговори и генериране на съдържание.",
"Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct е LLM с 32 милиарда параметъра и балансирана производителност, оптимизиран за китайски и многоезични сценарии, поддържащ интелигентни въпроси и отговори и генериране на съдържание.",
"Qwen2.5-72B-Instruct.description": "LLM за китайски и английски език, настроен за език, програмиране, математика и логическо разсъждение.",
"Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct е LLM с 7 милиарда параметъра, който поддържа извикване на функции и безпроблемна интеграция с външни системи, значително подобрявайки гъвкавостта и разширяемостта. Оптимизиран е за китайски и многоезични сценарии, поддържащ интелигентни въпроси и отговори и генериране на съдържание.",
"Qwen2.5-Coder-14B-Instruct.description": "Qwen2.5-Coder-14B-Instruct е мащабен предварително обучен модел за програмиране с отлични способности за разбиране и генериране на код. Ефективно се справя с широк спектър от програмни задачи, идеален за интелигентно програмиране, автоматично генериране на скриптове и въпроси и отговори, свързани с програмиране.",
"Qwen2.5-Coder-32B-Instruct.description": "Разширен LLM за генериране на код, логическо разсъждение и отстраняване на грешки на основните програмни езици.",
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 е оптимизиран за напреднало разсъждение и следване на инструкции, използвайки MoE за ефективно мащабиране на разсъждението.",
"Qwen3-235B.description": "Qwen3-235B-A22B е MoE модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват безпроблемно между мислещ и немислещ режим. Поддържа разбиране и разсъждение на 119 езика и диалекта и има силни възможности за извикване на инструменти, конкурирайки се с водещи модели като DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro в бенчмаркове за общи способности, програмиране и математика, многоезичност и логическо разсъждение.",
"Qwen3-32B.description": "Qwen3-32B е плътен модел, който въвежда хибриден режим на разсъждение, позволяващ на потребителите да превключват между мислещ и немислещ режим. С архитектурни подобрения, повече данни и по-добро обучение, той се представя наравно с Qwen2.5-72B.",
"SenseChat-128K.description": "Базов модел V4 с контекст от 128K, силен в разбиране и генериране на дълги текстове.",
"SenseChat-32K.description": "Базов модел V4 с контекст от 32K, гъвкав за различни сценарии.",
"SenseChat-5-1202.description": "Най-новата версия, базирана на V5.5, с значителни подобрения в основни знания по китайски/английски, чат, STEM, хуманитарни науки, писане, математика/логика и контрол на дължината.",
"SenseChat-5-Cantonese.description": "Проектиран за диалектни навици, жаргон и местни знания в Хонконг; надминава GPT-4 в разбирането на кантонски и съперничи на GPT-4 Turbo в знания, логика, математика и програмиране.",
"SenseChat-5-beta.description": "Някои показатели надвишават тези на SenseChat-5-1202.",
"SenseChat-5.description": "Най-новият V5.5 с контекст от 128K; значителни подобрения в математическо разсъждение, чат на английски, следване на инструкции и разбиране на дълги текстове, сравним с GPT-4o.",
"SenseChat-Character-Pro.description": "Разширен модел за чат с персонажи с контекст от 32K, подобрени възможности и поддръжка на китайски/английски.",
"SenseChat-Character.description": "Стандартен модел за чат с персонажи с контекст от 8K и висока скорост на отговор.",
"SenseChat-Turbo-1202.description": "Най-новият лек модел, достигащ над 90% от възможностите на пълния модел с значително по-ниска цена за инференция.",
"SenseChat-Turbo.description": "Подходящ за бързи въпроси и отговори и сценарии за фина настройка на модели.",
"SenseChat-Vision.description": "Най-новият V5.5 с вход от множество изображения и широки основни подобрения в разпознаване на атрибути, пространствени отношения, действия/събития, разбиране на сцени, разпознаване на емоции, логическо разсъждение и разбиране/генериране на текст.",
"SenseChat.description": "Базов модел V4 с контекст от 4K и силни общи възможности.",
"SenseNova-V6-5-Pro.description": "Със значителни подобрения в мултимодалните, езиковите и логическите данни, както и с оптимизация на стратегията за обучение, новият модел значително подобрява мултимодалното разсъждение и следването на обобщени инструкции, поддържа контекстен прозорец до 128k и се отличава в задачи по OCR и разпознаване на културен и туристически IP.",
"SenseNova-V6-5-Turbo.description": "Със значителни подобрения в мултимодалните, езиковите и логическите данни, както и с оптимизация на стратегията за обучение, новият модел значително подобрява мултимодалното разсъждение и следването на обобщени инструкции, поддържа контекстен прозорец до 128k и се отличава в задачи по OCR и разпознаване на културен и туристически IP.",
"SenseNova-V6-Pro.description": "Нативно обединява изображение, текст и видео, преодолявайки традиционните мултимодални ограничения; заема водещи позиции в OpenCompass и SuperCLUE.",
"SenseNova-V6-Reasoner.description": "Комбинира дълбоко разсъждение чрез зрение и език, поддържа бавно мислене и пълна верига на мисълта.",
"SenseNova-V6-Turbo.description": "Нативно обединява изображение, текст и видео, преодолявайки традиционните мултимодални ограничения. Води в основните мултимодални и езикови възможности и заема челни позиции в множество оценки.",
"Skylark2-lite-8k.description": "Модел от второ поколение Skylark. Skylark2-lite осигурява бързи отговори за реалновремеви, чувствителни към разходите сценарии с по-ниски изисквания за точност, с контекстен прозорец от 8K.",
"Skylark2-pro-32k.description": "Модел от второ поколение Skylark. Skylark2-pro предлага по-висока точност за сложни задачи по генериране на текст като професионално копирайтинг, писане на романи и висококачествен превод, с контекстен прозорец от 32K.",
"Skylark2-pro-4k.description": "Модел от второ поколение Skylark. Skylark2-pro предлага по-висока точност за сложни задачи по генериране на текст като професионално копирайтинг, писане на романи и висококачествен превод, с контекстен прозорец от 4K.",
"Skylark2-pro-character-4k.description": "Модел от второ поколение Skylark. Skylark2-pro-character се отличава в ролеви игри и чат, съчетавайки подканите с отличителни стилове на персонажи и естествен диалог за чатботи, виртуални асистенти и обслужване на клиенти, с бързи отговори.",
"Skylark2-pro-turbo-8k.description": "Модел от второ поколение Skylark. Skylark2-pro-turbo-8k предлага по-бърза инференция на по-ниска цена с контекстен прозорец от 8K.",
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414 е следващо поколение отворен GLM модел с 32 милиарда параметъра, сравним по производителност с OpenAI GPT и сериите DeepSeek V3/R1.",
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414 е 9-милиарден GLM модел, който наследява технологиите на GLM-4-32B, като същевременно предлага по-леко внедряване. Представя се добре в генериране на код, уеб дизайн, създаване на SVG и писане, базирано на търсене.",
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking е модел с отворен код от Zhipu AI и лабораторията KEG на университета Цинхуа, създаден за сложна мултимодална когниция. Построен върху GLM-4-9B-0414, той добавя разсъждения чрез верига от мисли и RL за значително подобряване на кръстомодалното разсъждение и стабилност.",
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414 е модел за дълбоко разсъждение, изграден от GLM-4-32B-0414 с данни за студен старт и разширено подсилено обучение, допълнително обучен върху математика, код и логика. Значително подобрява способността за решаване на сложни задачи спрямо базовия модел.",
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414 е компактен GLM модел с 9 милиарда параметъра, който запазва силните страни на отворения код, като същевременно предлага впечатляващи възможности. Представя се отлично в математическо разсъждение и общи задачи, водещ в своя клас сред отворените модели.",
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat е отвореният GLM-4 модел от Zhipu AI. Представя се силно в семантика, математика, разсъждение, код и знания. Освен многозавойни чатове, поддържа уеб браузване, изпълнение на код, извикване на персонализирани инструменти и разсъждение върху дълги текстове. Поддържа 26 езика (включително китайски, английски, японски, корейски, немски). Представя се добре в AlignBench-v2, MT-Bench, MMLU и C-Eval и поддържа до 128K контекст за академична и бизнес употреба.",
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B е първият модел за разсъждение с дълъг контекст (LRM), обучен с RL, оптимизиран за разсъждение върху дълги текстове. Неговото прогресивно разширяване на контекста чрез RL позволява стабилен преход от кратък към дълъг контекст. Той надминава OpenAI-o3-mini и Qwen3-235B-A22B на седем бенчмарка за QA върху документи с дълъг контекст, съперничейки на Claude-3.7-Sonnet-Thinking. Особено силен е в математика, логика и многократни разсъждения.",
"Yi-34B-Chat.description": "Yi-1.5-34B запазва силните езикови способности на серията, като използва инкрементално обучение върху 500 милиарда висококачествени токена, за да подобри значително логиката в математиката и програмирането.",
"abab5.5-chat.description": "Създаден за продуктивни сценарии с обработка на сложни задачи и ефективно генериране на текст за професионална употреба.",
"abab5.5s-chat.description": "Проектиран за чат с китайски персонажи, осигуряващ висококачествен диалог на китайски език за различни приложения.",
"abab6.5g-chat.description": "Проектиран за многоезичен чат с персонажи, поддържащ висококачествено генериране на диалог на английски и други езици.",
"abab6.5s-chat.description": "Подходящ за широк спектър от NLP задачи, включително генериране на текст и диалогови системи.",
"abab6.5t-chat.description": "Оптимизиран за чат с китайски персонажи, осигуряващ плавен диалог, съобразен с китайските езикови навици.",
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1 е модерен LLM, оптимизиран с обучение чрез подсилване и cold-start данни, осигуряващ отлично представяне при логическо разсъждение, математика и програмиране.",
"accounts/fireworks/models/deepseek-v3.description": "Мощен езиков модел от тип Mixture-of-Experts (MoE) от DeepSeek с общо 671 милиарда параметъра и 37 милиарда активни параметъра на токен.",
"accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta разработи и пусна серията Meta Llama 3 LLM, която включва предварително обучени и фино настроени за инструкции модели за генериране на текст с размери 8B и 70B. Моделите Llama 3, фино настроени за инструкции, са оптимизирани за разговорна употреба и надминават много от съществуващите отворени чат модели по общи индустриални показатели.",
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "Моделите Meta Llama 3, фино настроени за инструкции, са оптимизирани за разговорна употреба и надминават много от съществуващите отворени чат модели по общи индустриални показатели. Llama 3 8B Instruct (HF версия) е оригиналната FP16 версия на Llama 3 8B Instruct, като се очаква резултатите да съвпадат с официалната имплементация на Hugging Face.",
"accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta разработи и пусна серията Meta Llama 3 LLM — колекция от предварително обучени и фино настроени за инструкции модели за генериране на текст с размери 8B и 70B. Моделите Llama 3, фино настроени за инструкции, са оптимизирани за разговорна употреба и надминават много от съществуващите отворени чат модели по общи индустриални показатели.",
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 е многоезично LLM семейство с предварително обучени и фино настроени за инструкции модели за генериране с размери 8B, 70B и 405B. Моделите, фино настроени за текстови инструкции, са оптимизирани за многоезичен диалог и надминават много от съществуващите отворени и затворени чат модели по общи индустриални показатели. 405B е най-способният модел в семейството Llama 3.1, използващ FP8 извод, който точно съвпада с референтната имплементация.",
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 е многоезично LLM семейство с предварително обучени и фино настроени за инструкции модели за генериране с размери 8B, 70B и 405B. Моделите, фино настроени за текстови инструкции, са оптимизирани за многоезичен диалог и надминават много от съществуващите отворени и затворени чат модели по общи индустриални показатели.",
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 е многоезично LLM семейство с предварително обучени и фино настроени за инструкции модели за генериране с размери 8B, 70B и 405B. Моделите, фино настроени за текстови инструкции, са оптимизирани за многоезичен диалог и надминават много от съществуващите отворени и затворени чат модели по общи индустриални показатели.",
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Фино настроен за инструкции модел за визуално разсъждение от Meta с 11 милиарда параметъра, оптимизиран за визуално разпознаване, логическо разсъждение по изображения, надписи и въпроси и отговори, свързани с изображения. Разбира визуални данни като диаграми и графики и свързва визията и езика чрез генериране на текстови описания на детайли от изображенията.",
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct е лек многоезичен модел от Meta, проектиран за ефективна работа с предимства по отношение на латентност и разходи спрямо по-големите модели. Типични случаи на употреба включват пренаписване на заявки/подсказки и помощ при писане.",
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Фино настроен за инструкции модел за визуално разсъждение от Meta с 90 милиарда параметъра, оптимизиран за визуално разпознаване, логическо разсъждение по изображения, надписи и въпроси и отговори, свързани с изображения. Разбира визуални данни като диаграми и графики и свързва визията и езика чрез генериране на текстови описания на детайли от изображенията. Забележка: този модел се предоставя експериментално като безсървърен модел. За производствена употреба имайте предвид, че Fireworks може да прекрати разполагането без предизвестие.",
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct е декемврийската актуализация на Llama 3.1 70B. Подобрява използването на инструменти, поддръжката на многоезичен текст, математиката и програмирането спрямо изданието от юли 2024 г. Достига водещо в индустрията представяне при логическо разсъждение, математика и следване на инструкции, като предлага производителност, сравнима с 3.1 405B, но със значителни предимства по отношение на скорост и разходи.",
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "Модел с 24 милиарда параметъра и водещи възможности, сравними с по-големи модели.",
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 е фино настроената за инструкции версия на Mixtral MoE 8x22B v0.1, с активиран API за завършване на чат.",
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct е фино настроената за инструкции версия на Mixtral MoE 8x7B, с активиран API за завършване на чат.",
"accounts/fireworks/models/mythomax-l2-13b.description": "Подобрена версия на MythoMix, вероятно по-усъвършенствана форма, обединяваща MythoLogic-L2 и Huginn с експериментална техника за сливане на тензори. Уникалната ѝ природа я прави отлична за разказване на истории и ролеви игри.",
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct е лек, модерен отворен мултимодален модел, изграден от синтетични данни и подбрани публични уеб набори от данни, фокусиран върху висококачествени текстови и визуални данни, изискващи логическо разсъждение. Принадлежи към семейството Phi-3, с мултимодална версия, поддържаща контекст с дължина 128K токена. Моделът преминава през задълбочено подобрение, включително фино обучение под надзор и директна оптимизация на предпочитанията, за да осигури точно следване на инструкции и силни мерки за безопасност.",
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "Моделът Qwen QwQ се фокусира върху напредъка в логическото разсъждение на ИИ, демонстрирайки, че отворените модели могат да съперничат на затворените водещи модели. QwQ-32B-Preview е експериментално издание, което съвпада с o1 и надминава GPT-4o и Claude 3.5 Sonnet по логическо разсъждение и анализ в GPQA, AIME, MATH-500 и LiveCodeBench. Забележка: този модел се предоставя експериментално като безсървърен модел. За производствена употреба имайте предвид, че Fireworks може да прекрати разполагането без предизвестие.",
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "Моделът Qwen-VL с 72 милиарда параметъра е най-новата итерация на Alibaba, отразяваща почти година иновации.",
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 е серия LLM само с декодер, разработена от екипа на Qwen и Alibaba Cloud, предлагаща размери 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, с базови и фино настроени за инструкции варианти.",
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder е най-новият LLM от Qwen, проектиран за програмиране (преди CodeQwen). Забележка: този модел се предоставя експериментално като безсървърен модел. За производствена употреба имайте предвид, че Fireworks може да прекрати разполагането без предизвестие.",
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large е LLM от най-висок клас, който се нарежда непосредствено под GPT-4, Gemini 1.5 Pro и Claude 3 Opus в класацията LMSYS. Отличава се с многоезични възможности, особено на испански, китайски, японски, немски и френски. Yi-Large е също така удобен за разработчици, използвайки същата API схема като OpenAI за лесна интеграция.",
"ai21-jamba-1.5-large.description": "Многоезичен модел с 398 милиарда параметъра (94 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
"ai21-jamba-1.5-mini.description": "Многоезичен модел с 52 милиарда параметъра (12 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
"ai21-labs/AI21-Jamba-1.5-Large.description": "Многоезичен модел с 398 милиарда параметъра (94 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
"ai21-labs/AI21-Jamba-1.5-Mini.description": "Многоезичен модел с 52 милиарда параметъра (12 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
"alibaba/qwen-3-14b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
"alibaba/qwen-3-235b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
"alibaba/qwen-3-30b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
"alibaba/qwen-3-32b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct е най-агентният кодов модел на Qwen, с отлични резултати при агентно програмиране, използване на браузър и други основни задачи, съпоставим с Claude Sonnet.",
"amazon/nova-lite.description": "Многофункционален модел с изключително ниска цена и много бърза обработка на изображения, видео и текст.",
"amazon/nova-micro.description": "Само текстов модел с ултраниска латентност и много ниска цена.",
"amazon/nova-pro.description": "Многофункционален модел с отличен баланс между точност, скорост и цена за широк спектър от задачи.",
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 е лек и ефективен многоезичен embedding модел, поддържащ 1024, 512 и 256 измерения.",
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet поставя нов стандарт в индустрията, надминавайки конкурентите и Claude 3 Opus в широки оценки, като същевременно запазва средно ниво на скорост и цена.",
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поставя нов стандарт в индустрията, надминавайки конкурентите и Claude 3 Opus в широки оценки, като същевременно запазва средно ниво на скорост и цена.",
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, осигуряващ почти мигновени отговори на прости заявки. Поддържа вход от изображения и прозорец на контекста от 200 хиляди токена.",
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus е най-мощният AI модел на Anthropic с водеща производителност при сложни задачи. Обработва отворени заявки и нови сценарии с изключителна плавност и човешко разбиране, поддържа вход от изображения и прозорец на контекста от 200 хиляди токена.",
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, предлага висока стойност при по-ниска цена. Поддържа вход от изображения и прозорец на контекста от 200 хиляди токена.",
"anthropic.claude-instant-v1.description": "Бърз, икономичен и способен модел за ежедневен чат, анализ на текст, обобщение и въпроси по документи.",
"anthropic.claude-v2.description": "Много способен модел за задачи от сложен диалог и творческо генериране до точно следване на инструкции.",
"anthropic.claude-v2:1.description": "Обновен Claude 2 с удвоен прозорец на контекста и подобрена надеждност, по-ниска честота на халюцинации и по-точни отговори, базирани на доказателства, за дълги документи и RAG.",
"anthropic/claude-3-haiku.description": "Claude 3 Haiku е най-бързият модел на Anthropic, проектиран за корпоративни натоварвания с по-дълги заявки. Бързо анализира големи документи като тримесечни отчети, договори или правни случаи на половин цена спрямо конкурентите.",
"anthropic/claude-3-opus.description": "Claude 3 Opus е най-интелигентният модел на Anthropic с водеща производителност при сложни задачи, обработва отворени заявки и нови сценарии с изключителна плавност и човешко разбиране.",
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku предлага подобрена скорост, точност при програмиране и използване на инструменти, подходящ за сценарии с високи изисквания към скорост и взаимодействие с инструменти.",
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet е бърз и ефективен модел от семейството Sonnet, с подобрена производителност при програмиране и логическо мислене. Някои версии постепенно се заменят от Sonnet 3.7 и по-нови.",
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet е подобрен модел от серията Sonnet с по-силно логическо мислене и програмиране, подходящ за сложни корпоративни задачи.",
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 е високопроизводителен и бърз модел на Anthropic, осигуряващ много ниска латентност при запазване на висока точност.",
"anthropic/claude-opus-4.1.description": "Opus 4.1 е висок клас модел на Anthropic, оптимизиран за програмиране, сложно логическо мислене и дълготрайни задачи.",
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 е флагманският модел на Anthropic, съчетаващ върхова интелигентност с мащабируема производителност за сложни задачи с високо качество на разсъждение.",
"anthropic/claude-opus-4.description": "Opus 4 е флагманският модел на Anthropic, проектиран за сложни задачи и корпоративни приложения.",
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 е най-новият хибриден модел за логическо мислене на Anthropic, оптимизиран за сложни разсъждения и програмиране.",
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 е хибриден модел за логическо мислене на Anthropic с комбинирани способности за мислене и бързи отговори.",
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B е разреден LLM с общо 72 милиарда и 16 милиарда активни параметри, базиран на групирана MoE (MoGE) архитектура. Групира експерти при избора и ограничава токените да активират равен брой експерти на група, което балансира натоварването и подобрява ефективността на внедряване върху Ascend.",
"aya.description": "Aya 23 е многоезичен модел на Cohere, поддържащ 23 езика за разнообразни приложения.",
"aya:35b.description": "Aya 23 е многоезичен модел на Cohere, поддържащ 23 езика за разнообразни приложения.",
"azure-DeepSeek-R1-0528.description": "Разположен от Microsoft; DeepSeek R1 е надграден до DeepSeek-R1-0528. Актуализацията увеличава изчислителната мощ и оптимизациите след обучение, значително подобрявайки дълбочината на разсъждение и извеждането. Представя се отлично в тестове по математика, програмиране и логика, доближавайки се до водещи модели като O3 и Gemini 2.5 Pro.",
"baichuan-m2-32b.description": "Baichuan M2 32B е MoE модел от Baichuan Intelligence със силни способности за разсъждение.",
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B е отворен, търговски използваем LLM с 13 милиарда параметри от Baichuan, постигайки водещи резултати за своя размер в авторитетни китайски и английски тестове.",
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B е MoE LLM на Baidu с общо 300 милиарда параметри и 47 милиарда активни на токен, балансирайки висока производителност и изчислителна ефективност. Като основен модел от серията ERNIE 4.5, той се отличава в разбиране, генериране, разсъждение и програмиране. Използва мултимодален хетерогенен MoE метод за предварително обучение с комбинирано текстово и визуално обучение за повишаване на цялостните способности, особено при следване на инструкции и световни знания.",
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview е следващото поколение нативен мултимодален модел на Baidu, силен в мултимодално разбиране, следване на инструкции, създаване, фактологични въпроси и отговори и използване на инструменти.",
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro е по-бърза, подобрена версия на FLUX Pro с отлично качество на изображенията и спазване на подканите.",
"black-forest-labs/flux-dev.description": "FLUX Dev е развойната версия на FLUX за нетърговска употреба.",
"black-forest-labs/flux-pro.description": "FLUX Pro е професионалният модел FLUX за висококачествено генериране на изображения.",
"black-forest-labs/flux-schnell.description": "FLUX Schnell е бърз модел за генериране на изображения, оптимизиран за скорост.",
"c4ai-aya-expanse-32b.description": "Aya Expanse е високопроизводителен многоезичен модел с 32 милиарда параметри, използващ обучение по инструкции, арбитраж на данни, обучение по предпочитания и сливане на модели, за да се конкурира с едноезични модели. Поддържа 23 езика.",
"c4ai-aya-expanse-8b.description": "Aya Expanse е високопроизводителен многоезичен модел с 8 милиарда параметри, използващ обучение по инструкции, арбитраж на данни, обучение по предпочитания и сливане на модели, за да се конкурира с едноезични модели. Поддържа 23 езика.",
"c4ai-aya-vision-32b.description": "Aya Vision е авангарден мултимодален модел, който се представя отлично в ключови езикови, текстови и визуални тестове. Поддържа 23 езика. Тази версия с 32 милиарда параметри е фокусирана върху най-високо ниво на многоезична производителност.",
"c4ai-aya-vision-8b.description": "Aya Vision е авангарден мултимодален модел, който се представя отлично в ключови езикови, текстови и визуални тестове. Тази версия с 8 милиарда параметри е фокусирана върху ниска латентност и силна производителност.",
"charglm-3.description": "CharGLM-3 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.",
"charglm-4.description": "CharGLM-4 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.",
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време. Той комбинира силно разбиране на езика и генериране за мащабни случаи на употреба като клиентска поддръжка, образование и техническа помощ.",
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от следващо поколение на Anthropic. В сравнение с Claude 3 Haiku, той подобрява уменията си и надминава предишния най-голям модел Claude 3 Opus в много интелектуални бенчмаркове.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да предоставя почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да видят. Sonnet е особено силен в кодиране, анализ на данни, визия и задачи на агенти.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-умен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 е най-бързият и най-умен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.5.description": "Claude Opus 4.5 е водещият модел на Anthropic, съчетаващ първокласен интелект с мащабируемо представяне за сложни задачи с високо качество на разсъжденията.",
"claude-opus-4.6-fast.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-opus-4.6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за създаване на агенти и програмиране.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да предоставя почти мигновени отговори или разширено поетапно мислене с видим процес.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
"claude-sonnet-4.5.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"claude-sonnet-4.6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено стъпка по стъпка разсъждение, което потребителите могат да видят. Потребителите на API могат фино да контролират колко дълго моделът разсъждава.",
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
"codegemma.description": "CodeGemma е лек модел за разнообразни програмни задачи, позволяващ бърза итерация и интеграция.",
"codegemma:2b.description": "CodeGemma е лек модел за разнообразни програмни задачи, позволяващ бърза итерация и интеграция.",
"codellama.description": "Code Llama е голям езиков модел, фокусиран върху генериране и обсъждане на код, с широка езикова поддръжка за работни процеси на разработчици.",
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama е голям езиков модел, фокусиран върху генериране и обсъждане на код, с широка езикова поддръжка за работни процеси на разработчици.",
"codellama:13b.description": "Code Llama е голям езиков модел, фокусиран върху генериране и обсъждане на код, с широка езикова поддръжка за работни процеси на разработчици.",
"codellama:34b.description": "Code Llama е голям езиков модел, фокусиран върху генериране и обсъждане на код, с широка езикова поддръжка за работни процеси на разработчици.",
"codellama:70b.description": "Code Llama е голям езиков модел, фокусиран върху генериране и обсъждане на код, с широка езикова поддръжка за работни процеси на разработчици.",
"codeqwen.description": "CodeQwen1.5 е голям езиков модел, обучен върху обширни данни от код, създаден за сложни програмни задачи.",
"codestral-latest.description": "Codestral е нашият най-усъвършенстван модел за програмиране; версия 2 (януари 2025) е насочена към задачи с ниска латентност и висока честота като FIM, корекция на код и генериране на тестове.",
"codestral.description": "Codestral е първият модел за програмиране на Mistral AI, осигуряващ силна поддръжка за генериране на код.",
"cogito-2.1:671b.description": "Cogito v2.1 671B е отворен модел от САЩ, свободен за търговска употреба, с производителност, съпоставима с водещите модели, по-висока ефективност при разсъждение с токени, 128k контекст и силни общи способности.",
"cogview-3-flash.description": "CogView-3-Flash е безплатен модел за генериране на изображения, създаден от Zhipu. Той генерира изображения, които съответстват на инструкциите на потребителя, като същевременно постига по-високи оценки за естетическо качество. CogView-3-Flash се използва основно в области като художествено творчество, дизайнерски референции, разработка на игри и виртуална реалност, помагайки на потребителите бързо да преобразуват текстови описания в изображения.",
"cogview-4.description": "CogView-4 е първият отворен модел на Zhipu за преобразуване на текст в изображение, който може да генерира китайски знаци. Подобрява семантичното разбиране, качеството на изображенията и рендирането на китайски/английски текст, поддържа двуезични подкани с произволна дължина и може да генерира изображения с всякаква резолюция в зададени граници.",
"cohere-command-r-plus.description": "Command R+ е усъвършенстван модел, оптимизиран за RAG, създаден за корпоративни натоварвания.",
"cohere-command-r.description": "Command R е мащабируем генеративен модел, проектиран за RAG и използване на инструменти, позволяващ продукционен AI.",
"cohere/Cohere-command-r-plus.description": "Command R+ е усъвършенстван модел, оптимизиран за RAG, създаден за корпоративни натоварвания.",
"cohere/Cohere-command-r.description": "Command R е мащабируем генеративен модел, проектиран за RAG и използване на инструменти, позволяващ продукционен AI.",
"cohere/command-a.description": "Command A е най-мощният модел на Cohere досега, отличаващ се в използване на инструменти, агенти, RAG и многоезични сценарии. Има 256K контекст, работи само с два GPU и осигурява 150% по-висока пропускателност от Command R+ 08-2024.",
"cohere/embed-v4.0.description": "Модел, който класифицира или преобразува текст, изображения или смесено съдържание в ембединг представяния.",
"comfyui/flux-dev.description": "FLUX.1 Dev е висококачествен модел за преобразуване на текст в изображение (1050 стъпки), идеален за премиум творчески и артистични резултати.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev е модел за редактиране на изображения, който поддържа редакции, водени от текст, включително локални промени и трансфер на стил.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev е модел за преобразуване на текст в изображение с вградени филтри за безопасност, съвместно разработен с Krea.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell е ултра-бърз модел за преобразуване на текст в изображение, който генерира висококачествени изображения за 14 стъпки, идеален за реално време и бързо прототипиране.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 е класически модел 512x512 за преобразуване на текст в изображение, идеален за бързо прототипиране и творчески експерименти.",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 с вградени CLIP/T5 енкодери не изисква външни файлове, подходящ за модели като sd3.5_medium_incl_clips с по-ниска консумация на ресурси.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 е модел от ново поколение за преобразуване на текст в изображение с варианти Large и Medium. Изисква външни CLIP енкодери и осигурява отлично качество на изображенията и съответствие с подкани.",
"comfyui/stable-diffusion-custom-refiner.description": "Персонализиран SDXL модел за преобразуване на изображение в изображение. Използвайте custom_sd_lobe.safetensors като име на файл; ако имате VAE, използвайте custom_sd_vae_lobe.safetensors. Поставете файловете в съответните папки на Comfy.",
"comfyui/stable-diffusion-custom.description": "Персонализиран SD модел за преобразуване на текст в изображение. Използвайте custom_sd_lobe.safetensors като име на файл; ако имате VAE, използвайте custom_sd_vae_lobe.safetensors. Поставете файловете в съответните папки на Comfy.",
"comfyui/stable-diffusion-refiner.description": "SDXL модел за преобразуване на изображение в изображение, който извършва висококачествени трансформации от входни изображения, поддържайки трансфер на стил, възстановяване и творчески вариации.",
"comfyui/stable-diffusion-xl.description": "SDXL е модел за преобразуване на текст в изображение, поддържащ висока резолюция 1024x1024 с по-добро качество и детайлност на изображенията.",
"command-a-03-2025.description": "Command A е най-способният ни модел досега, отличаващ се в използването на инструменти, агенти, RAG и многоезични сценарии. Разполага с контекстен прозорец от 256K, работи само с два GPU и осигурява 150% по-висока пропускателна способност от Command R+ 08-2024.",
"command-light-nightly.description": "За да съкратим времето между основните версии, предлагаме нощни билдове на Command. За серията command-light това е command-light-nightly. Това е най-новата, най-експериментална (и потенциално нестабилна) версия, която се обновява редовно без предизвестие, затова не се препоръчва за продукционна употреба.",
"command-light.description": "По-малък и по-бърз вариант на Command, който е почти толкова способен, но с по-висока скорост.",
"command-nightly.description": "За да съкратим времето между основните версии, предлагаме нощни билдове на Command. За серията Command това е command-nightly. Това е най-новата, най-експериментална (и потенциално нестабилна) версия, която се обновява редовно без предизвестие, затова не се препоръчва за продукционна употреба.",
"command-r-03-2024.description": "command-r е модел за следване на инструкции в чат, който изпълнява езикови задачи с по-високо качество, подобрена надеждност и по-дълъг контекст в сравнение с предишните модели. Той поддържа сложни работни потоци като генериране на код, RAG, използване на инструменти и агенти.",
"command-r-08-2024.description": "command-r-08-2024 е обновен модел Command R, пуснат през август 2024 г.",
"command-r-plus-04-2024.description": "command-r-plus е псевдоним на command-r-plus-04-2024, така че използването на command-r-plus в API-то сочи към този модел.",
"command-r-plus-08-2024.description": "Command R+ е чат модел, следващ инструкции, с по-високо качество, по-голяма надеждност и по-дълъг контекстен прозорец от предишните модели. Най-подходящ е за сложни RAG работни потоци и многоетапно използване на инструменти.",
"command-r-plus.description": "Command R+ е високопроизводителен LLM, създаден за реални бизнес сценарии и сложни приложения.",
"command-r.description": "Command R е LLM, оптимизиран за чат и задачи с дълъг контекст, идеален за динамично взаимодействие и управление на знания.",
"command-r7b-12-2024.description": "command-r7b-12-2024 е малка, ефективна актуализация, пусната през декември 2024 г. Отличава се в RAG, използване на инструменти и задачи с агенти, изискващи сложно, многоетапно разсъждение.",
"command.description": "Чат модел, следващ инструкции, който осигурява по-високо качество и надеждност при езикови задачи, с по-дълъг контекстен прозорец от базовите ни генеративни модели.",
"computer-use-preview.description": "computer-use-preview е специализиран модел за инструмента „computer use“, обучен да разбира и изпълнява задачи, свързани с компютри.",
"dall-e-2.description": "Второ поколение DALL·E модел с по-реалистично и точно генериране на изображения и 4× по-висока резолюция от първото поколение.",
"dall-e-3.description": "Най-новият модел DALL·E, пуснат през ноември 2023 г., поддържа по-реалистично и точно генериране на изображения с по-силни детайли.",
"databricks/dbrx-instruct.description": "DBRX Instruct предлага изключително надеждно следване на инструкции в различни индустрии.",
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR е визионно-езиков модел от DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Изследва компресиране на контекст от изображения, ефективно обработва документи и ги преобразува в структуриран текст (напр. Markdown). Прецизно разпознава текст в изображения, подходящ за дигитализация на документи, извличане на текст и структурирана обработка.",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B дестилира chain-of-thought от DeepSeek-R1-0528 в Qwen3 8B Base. Постига SOTA сред отворените модели, надминавайки Qwen3 8B с 10% на AIME 2024 и съвпада с производителността на Qwen3-235B-thinking. Отличава се в математическо разсъждение, програмиране и логически тестове. Споделя архитектурата на Qwen3-8B, но използва токенизатора на DeepSeek-R1-0528.",
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 използва допълнителни изчисления и алгоритмични оптимизации след обучение, за да задълбочи разсъждението. Представя се силно в бенчмаркове по математика, програмиране и логика, доближавайки се до водещи модели като o3 и Gemini 2.5 Pro.",
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Дестилираните модели DeepSeek-R1 използват RL и cold-start данни за подобряване на разсъждението и поставят нови бенчмарк стандарти за отворени модели с много задачи.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Дестилираните модели DeepSeek-R1 използват RL и cold-start данни за подобряване на разсъждението и поставят нови бенчмарк стандарти за отворени модели с много задачи.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Дестилираните модели DeepSeek-R1 използват RL и cold-start данни за подобряване на разсъждението и поставят нови бенчмарк стандарти за отворени модели с много задачи.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B е дестилиран от Qwen2.5-32B и фино настроен върху 800K подбрани проби от DeepSeek-R1. Отличава се в математика, програмиране и разсъждение, постигайки силни резултати на AIME 2024, MATH-500 (94.3% точност) и GPQA Diamond.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B е дистилиран от Qwen2.5-Math-7B и фино настроен върху 800K подбрани проби от DeepSeek-R1. Той показва силни резултати: 92.8% на MATH-500, 55.5% на AIME 2024 и рейтинг 1189 на CodeForces за модел с 7 милиарда параметри.",
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 подобрява разсъждението с RL и cold-start данни, поставяйки нови бенчмарк стандарти за отворени модели с много задачи и надминава OpenAI-o1-mini.",
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 надгражда DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, комбинирайки общи и кодови способности. Подобрява писането и следването на инструкции за по-добро съответствие с предпочитанията и показва значителни подобрения в AlpacaEval 2.0, ArenaHard, AlignBench и MT-Bench.",
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus е обновен модел V3.1, позициониран като хибриден агентен LLM. Отстранява докладвани от потребители проблеми и подобрява стабилността, езиковата последователност и намалява смесените китайски/английски и аномални символи. Интегрира режими на мислене и немислене с шаблони за чат за гъвкаво превключване. Подобрява и производителността на Code Agent и Search Agent за по-надеждно използване на инструменти и многоетапни задачи.",
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 използва хибридна архитектура за разсъждение и поддържа както мислещ, така и немислещ режим.",
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek V3.2 Exp използва хибридна архитектура за разсъждение и поддържа както мисловни, така и немисловни режими.",
"deepseek-ai/DeepSeek-V3.2.description": "DeepSeek-V3.2 е модел, който съчетава висока изчислителна ефективност с отлично разсъждение и производителност като агент. Подходът му се основава на три основни технологични пробива: DeepSeek Sparse Attention (DSA), ефективен механизъм за внимание, който значително намалява изчислителната сложност, като същевременно поддържа производителността на модела и е специално оптимизиран за сценарии с дълъг контекст; мащабируема рамка за подсилващо обучение, чрез която производителността на модела може да съперничи на GPT-5, а версията с висока изчислителна мощност може да съперничи на Gemini-3.0-Pro по способности за разсъждение; и мащабна тръбопроводна система за синтез на задачи за агенти, предназначена да интегрира способности за разсъждение в сценарии за използване на инструменти, като по този начин подобрява следването на инструкции и обобщаването в сложни интерактивни среди. Моделът постигна златни медали на Международната математическа олимпиада (IMO) и Международната олимпиада по информатика (IOI) през 2025 г.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и извеждане. Предварително обучен върху 14.8 трилиона висококачествени токени със SFT и RL, той превъзхожда други отворени модели и се доближава до водещите затворени модели.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) е иновативен модел, предлагащ дълбоко езиково разбиране и интеракция.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
"deepseek-chat.description": "Нов модел с отворен код, който комбинира общи и кодови способности. Той запазва общия диалог на чат модела и силното програмиране на кодовия модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
"deepseek-ocr.description": "DeepSeek-OCR е визионно-езиков модел от DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Изследва компресиране на контекстуална информация от изображения, ефективно обработва документи и ги преобразува в структурирани текстови формати като Markdown. Прецизно разпознава текст в изображения, което го прави идеален за дигитализация на документи, извличане на текст и структурирана обработка.",
"deepseek-r1-0528.description": "Пълен модел с 685 милиарда параметъра, пуснат на 28.05.2025. DeepSeek-R1 използва мащабно подсилено обучение след предварителното обучение, значително подобрявайки разсъждението с минимални етикетирани данни и се представя силно в математика, програмиране и езиково разсъждение.",
"deepseek-r1-250528.description": "DeepSeek R1 250528 е пълният модел за разсъждение на DeepSeek-R1, предназначен за трудни математически и логически задачи.",
"deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B бързо издание с търсене в реално време в уеб, осигуряващо по-бързи отговори при запазване на производителността.",
"deepseek-r1-70b-online.description": "DeepSeek R1 70B стандартно издание с търсене в реално време в уеб, подходящо за актуални чат и текстови задачи.",
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B комбинира разсъждението на R1 с екосистемата на Llama.",
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B е дистилиран от Llama-3.1-8B с използване на изходи от DeepSeek R1.",
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama е дистилиран от DeepSeek-R1 върху Llama.",
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B е дистилиран модел на R1, базиран на Qianfan-70B с висока стойност.",
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B е дистилиран модел на R1, базиран на Qianfan-8B за малки и средни приложения.",
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B е дистилиран модел на R1, базиран на Llama-70B.",
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B е ултралек дистилиран модел за среди с много ниски ресурси.",
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B е среден по размер дистилиран модел за многосценарийно внедряване.",
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B е дистилиран модел на R1, базиран на Qwen-32B, балансиращ производителност и разходи.",
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B е лек дистилиран модел за edge и частни корпоративни среди.",
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen е дистилиран от DeepSeek-R1 върху Qwen.",
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
"deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 предоставя верига от мисли преди крайния отговор за подобряване на точността.",
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus е оптимизиран за терминални устройства LLM от DeepSeek.",
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 е модел за дълбоко разсъждение, съответстващ на версията Terminus, създаден за високопроизводително разсъждение.",
"deepseek-v3.1.description": "DeepSeek-V3.1 е нов хибриден модел за разсъждение от DeepSeek, поддържащ както мислещ, така и немислещ режим и предлагащ по-висока ефективност на мисленето от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и изпълнението на задачи. Поддържа 128k контекстен прозорец и до 64k изходни токена.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с подобрени способности за сложни разсъждения и верига от мисли, подходящ за задачи, изискващи задълбочен анализ.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp въвежда разредено внимание за подобряване на ефективността при обучение и извеждане върху дълги текстове, на по-ниска цена от deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "При силно сложни задачи, моделът Speciale значително превъзхожда стандартната версия, но консумира значително повече токени и води до по-високи разходи. В момента DeepSeek-V3.2-Speciale е предназначен само за изследователска употреба, не поддържа използване на инструменти и не е специално оптимизиран за ежедневни разговори или задачи за писане.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think е пълен модел за дълбоко мислене с по-силно дълговерижно разсъждение.",
"deepseek-v3.2.description": "DeepSeek-V3.2 е най-новият модел за програмиране на DeepSeek със силни способности за разсъждение.",
"deepseek-v3.description": "DeepSeek-V3 е мощен MoE модел с общо 671 милиарда параметъра и 37 милиарда активни на токен.",
"deepseek-vl2-small.description": "DeepSeek VL2 Small е лек мултимодален вариант за среди с ограничени ресурси и висока едновременност.",
"deepseek-vl2.description": "DeepSeek VL2 е мултимодален модел за разбиране на изображения и текст и прецизни визуални въпроси и отговори.",
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 е MoE модел с 685 милиарда параметъра и най-новата итерация от водещата чат серия на DeepSeek.\n\nНадгражда [DeepSeek V3](/deepseek/deepseek-chat-v3) и се представя отлично в различни задачи.",
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 е MoE модел с 685 милиарда параметъра и най-новата итерация от водещата чат серия на DeepSeek.\n\nНадгражда [DeepSeek V3](/deepseek/deepseek-chat-v3) и се представя отлично в различни задачи.",
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 е хибриден модел за разсъждение с дълъг контекст от DeepSeek, поддържащ смесени режими на мислене/без мислене и интеграция с инструменти.",
"deepseek/deepseek-chat.description": "DeepSeek-V3 е високоефективен хибриден модел за разсъждение от DeepSeek, предназначен за сложни задачи и интеграция с инструменти.",
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 е модел, който постига значителни пробиви в способностите за математическо разсъждение. Основната му иновация е в механизма за обучение чрез „самопроверка“ и е достигнал ниво на златен медал в няколко от най-престижните математически състезания.",
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 е обновен вариант, фокусиран върху отворен достъп и по-дълбоко разсъждение.",
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 значително подобрява разсъждението с минимално етикетирани данни и извежда верига от мисли преди крайния отговор за повишаване на точността.",
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B е дестилиран LLM, базиран на Llama 3.3 70B, фино настроен с изходи от DeepSeek R1 за постигане на конкурентна производителност спрямо водещите модели.",
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B е дестилиран LLM, базиран на Llama-3.1-8B-Instruct, обучен с изходи от DeepSeek R1.",
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B е дестилиран LLM, базиран на Qwen 2.5 14B, обучен с изходи от DeepSeek R1. Надминава OpenAI o1-mini в множество бенчмаркове, постигайки водещи резултати сред плътните модели. Основни резултати:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces рейтинг: 1481\nФиното настройване с изходи от DeepSeek R1 осигурява конкурентна производителност спрямо по-големи модели.",
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B е дестилиран LLM, базиран на Qwen 2.5 32B, обучен с изходи от DeepSeek R1. Надминава OpenAI o1-mini в множество бенчмаркове, постигайки водещи резултати сред плътните модели. Основни резултати:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces рейтинг: 1691\nФиното настройване с изходи от DeepSeek R1 осигурява конкурентна производителност спрямо по-големи модели.",
"deepseek/deepseek-r1.description": "DeepSeek R1 е обновен до DeepSeek-R1-0528. С повече изчислителна мощ и алгоритмични оптимизации след обучение, значително подобрява дълбочината и способността за разсъждение. Представя се отлично в бенчмаркове по математика, програмиране и логика, доближавайки се до водещи модели като o3 и Gemini 2.5 Pro.",
"deepseek/deepseek-r1/community.description": "DeepSeek R1 е най-новият модел с отворен код, пуснат от екипа на DeepSeek, с много силна производителност в разсъждението, особено в математика, програмиране и логически задачи, сравним с OpenAI o1.",
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 значително подобрява разсъждението с минимално етикетирани данни и извежда верига от мисли преди крайния отговор за повишаване на точността.",
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) е експериментален модел за разсъждение от DeepSeek, подходящ за задачи с висока сложност.",
"deepseek/deepseek-v3.description": "Бърз универсален LLM с подобрено разсъждение.",
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 постига значителен пробив в скоростта на разсъждение спрямо предишни модели. Класира се на първо място сред моделите с отворен код и съперничи на най-напредналите затворени модели. DeepSeek-V3 използва Multi-Head Latent Attention (MLA) и архитектурата DeepSeekMoE, и двете напълно валидирани в DeepSeek-V2. Въвежда и беззагубна помощна стратегия за балансиране на натоварването и цел за обучение с предсказване на множество токени за по-силна производителност.",
"deepseek_r1.description": "DeepSeek-R1 е модел за разсъждение, управляван от обучение чрез подсилване, който адресира проблеми с повторения и четимост. Преди RL използва начални данни за допълнително подобряване на разсъждението. Сравнява се с OpenAI-o1 в задачи по математика, програмиране и логика, с внимателно проектирано обучение за подобрени резултати.",
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B е дестилиран от Llama-3.3-70B-Instruct. Като част от серията DeepSeek-R1, е фино настроен с примери, генерирани от DeepSeek-R1, и се представя силно в математика, програмиране и разсъждение.",
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B е дестилиран от Qwen2.5-14B и фино настроен с 800K подбрани примера, генерирани от DeepSeek-R1, осигуряващ силно разсъждение.",
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B е дестилиран от Qwen2.5-32B и фино настроен с 800K подбрани примера, генерирани от DeepSeek-R1, отличаващ се в математика, програмиране и разсъждение.",
"devstral-2512.description": "Devstral 2 е текстов модел на корпоративно ниво, който превъзхожда в използването на инструменти за изследване на кодови бази, редактиране на множество файлове и захранване на агенти за софтуерно инженерство.",
"devstral-2:123b.description": "Devstral 2 123B се отличава с използването на инструменти за изследване на кодови бази, редактиране на множество файлове и поддръжка на агенти за софтуерно инженерство.",
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite е нов лек модел с изключително бърз отговор, предоставящ първокласно качество и ниска латентност.",
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k е цялостен ъпгрейд на Doubao-1.5-Pro, подобряващ общата производителност с 10%. Поддържа контекстен прозорец от 256k и до 12k изходни токена, осигурявайки по-висока производителност, по-голям прозорец и отлична стойност за по-широки приложения.",
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro е флагмански модел от ново поколение с цялостни подобрения, отличаващ се в знания, програмиране и разсъждение.",
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 е нов дълбок разсъждаващ модел (версия m включва родно мултимодално дълбоко разсъждение), който се отличава в математика, програмиране, научно разсъждение и общи задачи като творческо писане. Достига или доближава водещи резултати в бенчмаркове като AIME 2024, Codeforces и GPQA. Поддържа контекстен прозорец от 128k и 16k изход.",
"doubao-1.5-thinking-pro.description": "Doubao-1.5 е нов дълбок разсъждаващ модел, който се отличава в математика, програмиране, научно разсъждение и общи задачи като творческо писане. Достига или доближава водещи резултати в бенчмаркове като AIME 2024, Codeforces и GPQA. Поддържа контекстен прозорец от 128k и 16k изход.",
"doubao-1.5-thinking-vision-pro.description": "Нов визуален дълбок разсъждаващ модел със засилено мултимодално разбиране и разсъждение, постигайки SOTA резултати в 37 от 59 публични бенчмарка.",
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS е роден агентен модел, фокусиран върху графичен интерфейс, който безпроблемно взаимодейства с интерфейси чрез човешко възприятие, разсъждение и действие.",
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции. Поддържа контекстен прозорец от 128k и до 16k изходни токена.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции.",
"doubao-lite-32k.description": "Изключително бърз отговор с по-добра стойност, предлагащ по-гъвкави възможности в различни сценарии. Поддържа разсъждение и фина настройка с контекстен прозорец от 32k.",
"doubao-pro-32k.description": "Най-добре представящият се флагмански модел за сложни задачи, с отлични резултати в справочни въпроси, обобщение, създаване, класификация на текст и ролеви игри. Поддържа разсъждение и фина настройка с контекстен прозорец от 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash е изключително бърз мултимодален дълбок разсъждаващ модел с TPOT до 10ms. Поддържа текст и визия, надминава предишния lite модел в разбиране на текст и съответства на конкурентни pro модели във визия. Поддържа контекстен прозорец от 256k и до 16k изходни токена.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite е нов мултимодален дълбок разсъждаващ модел с регулируемо усилие на разсъждение (Минимално, Ниско, Средно, Високо), осигуряващ по-добра стойност и силен избор за обичайни задачи, с контекстен прозорец до 256k.",
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 значително засилва разсъждението, допълнително подобрявайки основните способности в програмиране, математика и логическо мислене спрямо Doubao-1.5-thinking-pro, като добавя и разбиране на визия. Поддържа контекстен прозорец от 256k и до 16k изходни токена.",
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision е визуален дълбок разсъждаващ модел, който осигурява по-силно мултимодално разбиране и разсъждение за образование, преглед на изображения, инспекция/сигурност и AI търсене с въпроси и отговори. Поддържа контекстен прозорец от 256k и до 64k изходни токена.",
"doubao-seed-1.6.description": "Doubao-Seed-1.6 е нов мултимодален дълбок разсъждаващ модел с режими auto, thinking и non-thinking. В non-thinking режим значително превъзхожда Doubao-1.5-pro/250115. Поддържа контекстен прозорец от 256k и до 16k изходни токена.",
"doubao-seed-1.8.description": "Doubao-Seed-1.8 притежава по-силно мултимодално разбиране и агентни способности, поддържа вход от текст/изображение/видео и кеширане на контекст, като осигурява отлична производителност при сложни задачи.",
"doubao-seed-2.0-code.description": "Doubao-Seed-2.0-code е дълбоко оптимизиран за агентско програмиране, поддържа мултимодални входове и контекстен прозорец от 256k, подходящ за програмиране, разбиране на визия и агентски работни потоци.",
"doubao-seed-2.0-lite.description": "Doubao-Seed-2.0-lite е нов мултимодален модел за дълбоко разсъждение, който предлага по-добра стойност и е силен избор за общи задачи, с контекстен прозорец до 256k.",
"doubao-seed-2.0-mini.description": "Doubao-Seed-2.0-mini е лек модел с бърз отговор и висока производителност, подходящ за малки задачи и сценарии с висока конкуренция.",
"doubao-seed-2.0-pro.description": "Doubao-Seed-2.0-pro е водещият общ агентски модел на ByteDance, с цялостни подобрения в планирането и изпълнението на сложни задачи.",
"doubao-seed-code.description": "Doubao-Seed-Code е дълбоко оптимизиран за агентно програмиране, поддържа мултимодални входове (текст/изображение/видео) и контекстен прозорец от 256k, съвместим е с Anthropic API и е подходящ за програмиране, разбиране на визия и работни потоци с агенти.",
"doubao-seedance-1-0-lite-i2v-250428.description": "Стабилно качество на генериране с висока рентабилност, способно да генерира видеоклипове от първия кадър, първия и последния кадър или референтни изображения.",
"doubao-seedance-1-0-lite-t2v-250428.description": "Стабилно качество на генериране с висока рентабилност, способно да генерира видеоклипове въз основа на текстови инструкции.",
"doubao-seedance-1-0-pro-250528.description": "Seedance 1.0 Pro е основен модел за генериране на видеоклипове, който поддържа разказване на истории с множество кадри. Той предоставя силна производителност в множество измерения. Моделът постига пробиви в семантичното разбиране и следването на инструкции, което му позволява да генерира 1080P видеоклипове с висока разделителна способност, плавно движение, богати детайли, разнообразни стилове и визуална естетика на кинематографично ниво.",
"doubao-seedance-1-0-pro-fast-251015.description": "Seedance 1.0 Pro Fast е цялостен модел, проектиран да минимизира разходите, като същевременно максимизира производителността, постигайки отличен баланс между качество на генериране на видеоклипове, скорост и цена. Той наследява основните предимства на Seedance 1.0 Pro, като предлага по-бързи скорости на генериране и по-конкурентни цени, предоставяйки на създателите двойна оптимизация на ефективност и разходи.",
"doubao-seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа текст-към-видео, изображение-към-видео (първи кадър, първи+последен кадър) и аудио генериране, синхронизирано с визуализации.",
"doubao-seededit-3-0-i2i-250628.description": "Моделът за изображения на Doubao от ByteDance Seed поддържа вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Поддържа редактиране на изображения, водено от текст, с размери на изхода между 512 и 1536 по дългата страна.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Генерира изображения от текстови подсказки.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Генерира изображения от текстови подсказки.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 е най-новият мултимодален модел за изображения на ByteDance, интегриращ текст-към-изображение, изображение-към-изображение и групово генериране на изображения, като включва обща логика и способности за разсъждение. В сравнение с предишната версия 4.0, той предлага значително подобрено качество на генериране, с по-добра консистентност при редактиране и мулти-изображение сливане. Осигурява по-прецизен контрол върху визуалните детайли, като произвежда малък текст и малки лица по-естествено, и постига по-хармонично оформление и цветове, подобрявайки цялостната естетика.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite е най-новият модел за генериране на изображения на ByteDance. За първи път интегрира възможности за онлайн извличане, позволявайки му да включва информация в реално време от уеб и да подобрява актуалността на генерираните изображения. Интелигентността на модела също е подобрена, позволявайки прецизно интерпретиране на сложни инструкции и визуално съдържание. Освен това предлага подобрено глобално покритие на знания, консистентност на референциите и качество на генериране в професионални сценарии, по-добре отговаряйки на нуждите за визуално създаване на корпоративно ниво.",
"emohaa.description": "Emohaa е модел за психично здраве с професионални консултантски способности, който помага на потребителите да разберат емоционални проблеми.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B е лек модел с отворен код за локално и персонализирано внедряване.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking е текстов MoE (смес от експерти) пост-трениран модел с общо 21B параметри и 3B активни параметри, предлагащ значително подобрено качество и дълбочина на разсъждения.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B е модел с отворен код с голям брой параметри и по-силни способности за разбиране и генериране.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B е ултра-голям MoE модел на Baidu ERNIE с отлични способности за разсъждение.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview е модел за предварителен преглед с 8K контекст за оценка на ERNIE 4.5.",
"ernie-4.5-turbo-128k-preview.description": "Предварителен преглед на ERNIE 4.5 Turbo 128K с възможности на ниво издание, подходящ за интеграция и тестване.",
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K е високопроизводителен общ модел с търсачна поддръжка и извикване на инструменти за QA, програмиране и агентски сценарии.",
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K е версия със средна дължина на контекста за QA, извличане от бази знания и многозавойни диалози.",
"ernie-4.5-turbo-latest.description": "Най-новият ERNIE 4.5 Turbo с оптимизирана цялостна производителност, идеален за основен продукционен модел.",
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview е мултимодален предварителен модел с 32K контекст за оценка на способността за разбиране на дълъг визуален контекст.",
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K е мултимодална версия със средно-дълъг контекст за комбинирано разбиране на дълги документи и изображения.",
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest е най-новата мултимодална версия с подобрено разбиране и разсъждение върху изображения и текст.",
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview е мултимодален предварителен модел за разбиране и генериране на изображения и текст, подходящ за визуални QA и разбиране на съдържание.",
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL е зрял мултимодален модел за продукционно разбиране и разпознаване на изображения и текст.",
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B е мултимодален модел с отворен код за разбиране и разсъждение върху изображения и текст.",
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking е флагмански модел с пълна модалност, обединяващ текст, изображение, аудио и видео. Осигурява значителни подобрения за сложни QA, творчество и агентски сценарии.",
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview е флагмански модел с пълна модалност, обединяващ текст, изображение, аудио и видео. Осигурява значителни подобрения за сложни QA, творчество и агентски сценарии.",
"ernie-char-8k.description": "ERNIE Character 8K е модел за диалог с персонажи, предназначен за изграждане на IP персонажи и дългосрочен разговорен спътник.",
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview е предварителен модел за създаване на персонажи и сюжет, предназначен за оценка и тестване на функции.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K е модел за персонажи, предназначен за романи и създаване на сюжет, подходящ за генериране на дълги истории.",
"ernie-irag-edit.description": "ERNIE iRAG Edit е модел за редактиране на изображения, поддържащ изтриване, прерисуване и генериране на варианти.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K е лек високопроизводителен модел за сценарии, чувствителни към латентност и разходи.",
"ernie-novel-8k.description": "ERNIE Novel 8K е създаден за дълги романи и IP сюжети с многоперсонажни наративи.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K е модел с висока едновременност и висока стойност за мащабни онлайн услуги и корпоративни приложения.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview е бърз мисловен модел с 32K контекст за сложни разсъждения и многократни разговори.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
"ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, който поддържа текстови и визуални входове с високо контролируемо и висококачествено генериране на изображения. Той създава изображения от текстови подсказки.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] е модел за генериране на изображения с 12 милиарда параметъра, създаден за бърз и висококачествен изход.",
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени редакции като прехвърляне на стил и завъртане на обекти.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо рендиране на китайски текст и разнообразни визуални стилове.",
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 14 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
"flux-kontext-pro.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
"flux-merged.description": "FLUX.1 [обединен] комбинира дълбоките функции, изследвани в \"DEV\", с високоскоростните предимства на \"Schnell\", разширявайки границите на производителността и разширявайки приложенията.",
"flux-pro-1.1-ultra.description": "Генериране на изображения с ултра висока резолюция и изход от 4MP, създаващ ясни изображения за 10 секунди.",
"flux-pro-1.1.description": "Подобрен професионален модел за генериране на изображения с отлично качество и прецизно следване на подсказки.",
"flux-pro.description": "Висококласен търговски модел за генериране на изображения с несравнимо качество и разнообразие на изхода.",
"flux-schnell.description": "FLUX.1 [schnell] е най-усъвършенстваният отворен модел с малко стъпки, надминаващ подобни конкуренти и дори силни недестилирани модели като Midjourney v6.0 и DALL-E 3 (HD). Фино настроен е да запази разнообразието от предварително обучение, значително подобрявайки визуалното качество, следването на инструкции, вариациите в размер/съотношение, обработката на шрифтове и разнообразието на изхода.",
"flux.1-schnell.description": "FLUX.1-schnell е високопроизводителен модел за генериране на изображения с бърз изход в различни стилове.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) осигурява стабилна и настройваема производителност за комплексни задачи.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) предлага силна мултимодална поддръжка за комплексни задачи.",
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro е високопроизводителен AI модел на Google, проектиран за мащабиране на широк спектър от задачи.",
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 е ефективен мултимодален модел за мащабиране на приложения.",
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 е ефективен мултимодален модел, създаден за широко внедряване.",
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 е най-новият експериментален модел с значителни подобрения в текстови и мултимодални случаи на употреба.",
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B е ефективен мултимодален модел, създаден за широко внедряване.",
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B е ефективен мултимодален модел за мащабиране на приложения.",
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 предлага оптимизирана мултимодална обработка за комплексни задачи.",
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash е най-новият мултимодален AI модел на Google с бърза обработка, поддържащ текстови, визуални и видео входове за ефективно мащабиране на задачи.",
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 е мащабируемо мултимодално AI решение за комплексни задачи.",
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 е най-новият модел, готов за продукция, с по-високо качество на изхода, особено при математика, дълъг контекст и визуални задачи.",
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 осигурява силна мултимодална обработка с по-голяма гъвкавост за разработка на приложения.",
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 прилага последните оптимизации за по-ефективна мултимодална обработка.",
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro поддържа до 2 милиона токена, идеален среден по размер мултимодален модел за комплексни задачи.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"gemini-2.0-flash-exp-image-generation.description": "Експериментален модел Gemini 2.0 Flash с поддръжка за генериране на изображения.",
"gemini-2.0-flash-lite-001.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
"gemini-2.0-flash-lite.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"gemini-2.5-flash-image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-image:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
"gemini-2.5-flash-lite-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview е най-изгодният модел на Google с пълни възможности.",
"gemini-2.5-flash.description": "Gemini 2.5 Flash е най-изгодният модел на Google с пълни възможности.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google, който също поддържа мултимодален диалог.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google и също така поддържа мултимодален чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview е най-икономичният мултимодален модел на Google, оптимизиран за задачи с голям обем, превод и обработка на данни.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.",
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
"gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite",
"gemini-pro-latest.description": "Най-новата версия на Gemini Pro",
"gemma-7b-it.description": "Gemma 7B е икономически ефективен за малки до средни задачи.",
"gemma2-9b-it.description": "Gemma 2 9B е оптимизиран за специфични задачи и интеграция с инструменти.",
"gemma2.description": "Gemma 2 е ефективният модел на Google, обхващащ приложения от малки приложения до сложна обработка на данни.",
"gemma2:27b.description": "Gemma 2 е ефективният модел на Google, обхващащ приложения от малки приложения до сложна обработка на данни.",
"gemma2:2b.description": "Gemma 2 е ефективният модел на Google, обхващащ приложения от малки приложения до сложна обработка на данни.",
"generalv3.5.description": "Spark Max е най-пълнофункционалната версия, поддържаща уеб търсене и множество вградени плъгини. Напълно оптимизираните основни възможности, системни роли и извикване на функции осигуряват отлична производителност в сложни приложения.",
"generalv3.description": "Spark Pro е високопроизводителен LLM, оптимизиран за професионални области като математика, програмиране, здравеопазване и образование. Поддържа уеб търсене и вградени плъгини като прогноза за времето и дата. Осигурява силна производителност и ефективност при сложни въпроси, езиково разбиране и напреднало текстово създаване, което го прави идеален за професионални приложения.",
"glm-4-0520.description": "GLM-4-0520 е най-новата версия на модела, проектирана за изключително сложни и разнообразни задачи с отлична производителност.",
"glm-4-7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu AI. Той подобрява способностите за програмиране, дългосрочно планиране на задачи и сътрудничество с инструменти в сценарии за агентно програмиране, постигайки водещи резултати сред отворените модели в множество публични тестове. Общите способности са подобрени, с по-кратки и естествени отговори и по-завладяващо писане. При сложни агентни задачи следването на инструкции е по-силно при използване на инструменти, а естетиката на интерфейса и ефективността при изпълнение на дългосрочни задачи са допълнително подобрени.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat се представя силно в семантика, математика, логика, програмиране и знания. Поддържа също така уеб браузване, изпълнение на код, извикване на персонализирани инструменти и логическо мислене върху дълги текстове, с поддръжка на 26 езика, включително японски, корейски и немски.",
"glm-4-air-250414.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
"glm-4-air.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
"glm-4-airx.description": "GLM-4-AirX е по-ефективен вариант на GLM-4-Air с до 2.6 пъти по-бързо логическо мислене.",
"glm-4-alltools.description": "GLM-4-AllTools е универсален агентен модел, оптимизиран за сложно планиране на инструкции и използване на инструменти като уеб браузване, обяснение на код и генериране на текст, подходящ за многозадачно изпълнение.",
"glm-4-flash-250414.description": "GLM-4-Flash е идеален за прости задачи: най-бърз и безплатен.",
"glm-4-flash.description": "GLM-4-Flash е идеален за прости задачи: най-бърз и безплатен.",
"glm-4-flashx.description": "GLM-4-FlashX е подобрена версия на Flash с ултра-бързо логическо мислене.",
"glm-4-long.description": "GLM-4-Long поддържа ултра-дълги входове за задачи, изискващи памет и обработка на мащабни документи.",
"glm-4-plus.description": "GLM-4-Plus е флагман с висока интелигентност, силен при работа с дълги текстове и сложни задачи, с подобрена цялостна производителност.",
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking е най-силният известен ~10B VLM, покриващ SOTA задачи като разбиране на видео, QA по изображения, решаване на задачи, OCR, четене на документи и графики, GUI агенти, фронтенд програмиране и обоснованост. Надминава дори 8 пъти по-големия Qwen2.5-VL-72B в много задачи. С усъвършенствано RL, използва верижно мислене за подобрена точност и богатство, превъзхождайки традиционните модели без мислене както по резултати, така и по обяснимост.",
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking е най-силният известен ~10B VLM, покриващ SOTA задачи като разбиране на видео, QA по изображения, решаване на задачи, OCR, четене на документи и графики, GUI агенти, фронтенд програмиране и обоснованост. Надминава дори 8 пъти по-големия Qwen2.5-VL-72B в много задачи. С усъвършенствано RL, използва верижно мислене за подобрена точност и богатство, превъзхождайки традиционните модели без мислене както по резултати, така и по обяснимост.",
"glm-4.5-air.description": "GLM-4.5 лек вариант, който балансира производителност и цена, с гъвкави хибридни режими на мислене.",
"glm-4.5-airx.description": "GLM-4.5-Air бърз вариант с по-бързи отговори за мащабни и високоскоростни приложения.",
"glm-4.5-x.description": "GLM-4.5 бърз вариант, осигуряващ силна производителност със скорост на генериране до 100 токена/секунда.",
"glm-4.5.description": "Флагманският модел на Zhipu с превключваем режим на мислене, осигуряващ SOTA производителност с отворен код и до 128K контекст.",
"glm-4.5v.description": "Следващото поколение MoE визуален логически модел на Zhipu с 106 милиарда общи параметъра и 12 милиарда активни, постигащ SOTA сред отворените мултимодални модели със сходен размер в задачи с изображения, видео, документи и GUI.",
"glm-4.6.description": "Най-новият флагмански модел на Zhipu GLM-4.6 (355B) напълно надминава предшествениците си в напреднало програмиране, обработка на дълги текстове, логическо мислене и агентни способности. Особено се доближава до Claude Sonnet 4 по програмиране, превръщайки се в най-добрия кодиращ модел в Китай.",
"glm-4.6v-flash.description": "Серията GLM-4.6V представлява основна итерация на семейството GLM в мултимодалната посока, включваща GLM-4.6V (флагман), GLM-4.6V-FlashX (лек и високоскоростен) и GLM-4.6V-Flash (напълно безплатен). Тя разширява контекстния прозорец по време на обучение до 128k токена, постига водеща точност в разбирането на визуалната информация при сравними мащаби на параметрите и за първи път нативно интегрира възможности за извикване на функции (инструментални действия) в архитектурата на визуалния модел. Това обединява процеса от „визуално възприятие“ до „изпълними действия“, предоставяйки последователна техническа основа за мултимодални агенти в реални производствени сценарии.",
"glm-4.6v-flashx.description": "Серията GLM-4.6V представлява основна итерация на семейството GLM в мултимодалната посока, включваща GLM-4.6V (флагман), GLM-4.6V-FlashX (лек и високоскоростен) и GLM-4.6V-Flash (напълно безплатен). Тя разширява контекстния прозорец по време на обучение до 128k токена, постига водеща точност в разбирането на визуалната информация при сравними мащаби на параметрите и за първи път нативно интегрира възможности за извикване на функции (инструментални действия) в архитектурата на визуалния модел. Това обединява процеса от „визуално възприятие“ до „изпълними действия“, предоставяйки последователна техническа основа за мултимодални агенти в реални производствени сценарии.",
"glm-4.6v.description": "Серията GLM-4.6V представлява основна итерация на семейството GLM в мултимодалната посока, включваща GLM-4.6V (флагман), GLM-4.6V-FlashX (лек и високоскоростен) и GLM-4.6V-Flash (напълно безплатен). Тя разширява контекстния прозорец по време на обучение до 128k токена, постига водеща точност в разбирането на визуалната информация при сравними мащаби на параметрите и за първи път нативно интегрира възможности за извикване на функции (инструментални действия) в архитектурата на визуалния модел. Това обединява процеса от „визуално възприятие“ до „изпълними действия“, предоставяйки последователна техническа основа за мултимодални агенти в реални производствени сценарии.",
"glm-4.7-flash.description": "GLM-4.7-Flash, като SOTA модел от 30B ниво, предлага нов избор, който балансира производителност и ефективност. Подобрява програмирането, дългосрочното планиране и сътрудничеството с инструменти в агентни сценарии, постигайки водещи резултати сред отворените модели със същия размер в актуалните класации.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, като SOTA модел от 30B ниво, предлага нов избор, който балансира производителност и ефективност. Подобрява програмирането, дългосрочното планиране и сътрудничеството с инструменти в агентни сценарии, постигайки водещи резултати сред отворените модели със същия размер в актуалните класации.",
"glm-4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu, подобрен за сценарии с агентно програмиране с по-добри способности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти. Постига водеща производителност сред отворените модели в множество публични бенчмаркове. Общите способности са подобрени с по-кратки и естествени отговори и по-завладяващо писане. При сложни агентни задачи следването на инструкции при извикване на инструменти е по-силно, а естетиката на интерфейса и ефективността при изпълнение на дългосрочни задачи в Artifacts и Agentic Coding са допълнително подобрени.",
"glm-4.description": "GLM-4 е по-старият флагман, пуснат през януари 2024 г., сега заменен от по-силния GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash се фокусира върху ефективно разбиране на единични изображения за бързи анализи като обработка в реално време или на партиди.",
"glm-4v-plus-0111.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.",
"glm-4v-plus.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.",
"glm-4v.description": "GLM-4V осигурява силно разбиране на изображения и логическо мислене в различни визуални задачи.",
"glm-5.description": "GLM-5 е следващото поколение флагмански основен модел на Zhipu, създаден специално за агентно инженерство. Той осигурява надеждна продуктивност в сложни системни инженерни задачи и дългосрочни агентни задачи. В областта на програмирането и агентните възможности GLM-5 постига водещи резултати сред моделите с отворен код. В реални програмни сценарии потребителското изживяване се доближава до това на Claude Opus 4.5. Той превъзхожда в сложни системни инженерни задачи и дългосрочни агентни задачи, което го прави идеален основен модел за универсални агентни асистенти.",
"glm-image.description": "GLM-Image е новият флагмански модел за генериране на изображения на Zhipu. Моделът е обучен изцяло върху местно произведени чипове и използва оригинална хибридна архитектура, която комбинира авторегресивно моделиране с дифузионен декодер. Този дизайн позволява силно глобално разбиране на инструкциите заедно с детайлно локално рендиране, преодолявайки дългогодишни предизвикателства при генерирането на съдържание, богато на знания, като постери, презентации и образователни диаграми. Той представлява важна стъпка към ново поколение парадигми на „когнитивно генеративни“ технологии, илюстрирани от Nano Banana Pro.",
"glm-z1-air.description": "Модел за логическо мислене със силни способности за дълбоко разсъждение при сложни задачи.",
"glm-z1-airx.description": "Ултра-бързо логическо мислене с високо качество на разсъжденията.",
"glm-z1-flash.description": "Серията GLM-Z1 осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
"glm-z1-flashx.description": "Бърз и икономичен: Flash-усилен с ултра-бързо логическо мислене и по-висока едновременност.",
"glm-zero-preview.description": "GLM-Zero-Preview осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
"global.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 е флагманският модел на Anthropic, съчетаващ изключителна интелигентност и мащабируема производителност за комплексни задачи, изискващи отговори и разсъждения с най-високо качество.",
"global.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и кодиране.",
"global.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"global.anthropic.claude-sonnet-4-6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash предоставя възможности от ново поколение, включително отлична скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite е олекотен вариант на Gemini с изключено мислене по подразбиране за подобрена латентност и разходи, но може да бъде активирано чрез параметри.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash е високопроизводителен модел на Google за разширени мултимодални задачи с разсъждение.",
"google/gemini-2.5-flash-image-preview.description": "Експериментален модел Gemini 2.5 Flash с поддръжка за генериране на изображения.",
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) е модел на Google за генериране на изображения с поддръжка на мултимодален разговор.",
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite е олекотен вариант на Gemini 2.5, оптимизиран за ниска латентност и разходи, подходящ за сценарии с висок трафик.",
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash е най-усъвършенстваният водещ модел на Google, създаден за напреднало разсъждение, програмиране, математика и научни задачи. Включва вградено „мислене“ за по-точни отговори и по-фино обработване на контекста.\n\nЗабележка: Моделът има два варианта — с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали мисленето е активирано. Ако изберете стандартния вариант (без суфикса “:thinking”), моделът изрично ще избягва генериране на мисловни токени.\n\nЗа да използвате мислене и да получавате мисловни токени, трябва да изберете варианта “:thinking”, който има по-висока цена за изхода.\n\nGemini 2.5 Flash може също да бъде конфигуриран чрез параметъра “max reasoning tokens”, както е документирано (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash е най-усъвършенстваният водещ модел на Google, създаден за напреднало разсъждение, програмиране, математика и научни задачи. Включва вградено „мислене“ за по-точни отговори и по-фино обработване на контекста.\n\nЗабележка: Моделът има два варианта — с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали мисленето е активирано. Ако изберете стандартния вариант (без суфикса “:thinking”), моделът изрично ще избягва генериране на мисловни токени.\n\nЗа да използвате мислене и да получавате мисловни токени, трябва да изберете варианта “:thinking”, който има по-висока цена за изхода.\n\nGemini 2.5 Flash може също да бъде конфигуриран чрез параметъра “max reasoning tokens”, както е документирано (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash е семейство на Google, обхващащо ниска латентност до високопроизводително разсъждение.",
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният мисловен модел на Google за разсъждение върху сложни проблеми в програмирането, математиката и STEM, както и за анализ на големи набори от данни, кодови бази и документи с дълъг контекст.",
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro е водещият модел на Google за разсъждение с поддръжка на дълъг контекст за сложни задачи.",
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения с поддръжка на мултимодален разговор.",
"google/gemini-3-pro-preview.description": "Gemini 3 Pro е модел от ново поколение за мултимодално разсъждение от фамилията Gemini, който разбира текст, аудио, изображения и видео и се справя със сложни задачи и големи кодови бази.",
"google/gemini-embedding-001.description": "Модел за вграждане от най-ново поколение с висока производителност при задачи на английски, многоезични и кодови задачи.",
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash осигурява оптимизирана мултимодална обработка за широк спектър от сложни задачи.",
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro съчетава най-новите оптимизации за по-ефективна обработка на мултимодални данни.",
"google/gemma-2-27b-it.description": "Gemma 2 27B е универсален LLM с висока производителност в множество сценарии.",
"google/gemma-2-27b.description": "Gemma 2 е ефективна фамилия модели на Google за приложения от малки приложения до сложна обработка на данни.",
"google/gemma-2-2b-it.description": "Разширен малък езиков модел, проектиран за edge приложения.",
"google/gemma-2-9b-it.description": "Gemma 2 9B, разработен от Google, предлага ефективно следване на инструкции и стабилни общи възможности.",
"google/gemma-2-9b-it:free.description": "Gemma 2 е олекотена фамилия модели с отворен код на Google за текст.",
"google/gemma-2-9b.description": "Gemma 2 е ефективна фамилия модели на Google за приложения от малки приложения до сложна обработка на данни.",
"google/gemma-2b-it.description": "Gemma Instruct (2B) осигурява базова обработка на инструкции за олекотени приложения.",
"google/gemma-3-12b-it.description": "Gemma 3 12B е езиков модел с отворен код от Google, който поставя нов стандарт за ефективност и производителност.",
"google/gemma-3-27b-it.description": "Gemma 3 27B е езиков модел с отворен код от Google, който поставя нов стандарт за ефективност и производителност.",
"google/text-embedding-005.description": "Модел за вграждане на текст, фокусиран върху английски език, оптимизиран за задачи с код и английски език.",
"google/text-multilingual-embedding-002.description": "Многоезичен модел за вграждане на текст, оптимизиран за задачи с кръстосан езиков обхват на много езици.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo за задачи с генериране и разбиране на текст, оптимизиран за следване на инструкции.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k е модел за генериране на текст с висока капацитетност за сложни задачи.",
"gpt-35-turbo.description": "GPT-3.5 Turbo е ефективният модел на OpenAI за чат и генериране на текст, поддържащ паралелно извикване на функции.",
"gpt-4-0125-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-0613.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове, подходящ за обобщаване на широка информация и анализ на данни.",
"gpt-4-1106-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-32k-0613.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове в сценарии, изискващи интеграция на широка информация и анализ на данни.",
"gpt-4-32k.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове в сценарии, изискващи интеграция на широка информация и анализ на данни.",
"gpt-4-turbo-2024-04-09.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-turbo-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-turbo.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
"gpt-4-vision-preview.description": "Предварителен преглед на GPT-4 Vision, създаден за задачи по анализ и обработка на изображения.",
"gpt-4.1-mini.description": "GPT-4.1 mini балансира интелигентност, скорост и цена, което го прави привлекателен за множество приложения.",
"gpt-4.1-nano.description": "GPT-4.1 nano е най-бързият и най-рентабилен модел от серията GPT-4.1.",
"gpt-4.1.description": "GPT-4.1 е водещият ни модел за сложни задачи и решаване на проблеми в различни области.",
"gpt-4.5-preview.description": "GPT-4.5-preview е най-новият универсален модел с дълбоки познания за света и по-добро разбиране на намеренията, силен в творчески задачи и планиране на агенти. Границата на знанията му е октомври 2023 г.",
"gpt-4.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове, подходящ за обобщаване на широка информация и анализ на данни.",
"gpt-4o-2024-05-13.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"gpt-4o-2024-08-06.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време. Съчетава силно езиково разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"gpt-4o-audio-preview.description": "Предварителен преглед на GPT-4o Audio модел с аудио вход и изход.",
"gpt-4o-mini-audio-preview.description": "GPT-4o mini Audio модел с аудио вход и изход.",
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini вариант в реално време с аудио и текстов вход/изход в реално време.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview е обучен да разбира и изпълнява заявки за уеб търсене чрез Chat Completions API. Уеб търсенето се таксува на извикване на инструмент в допълнение към разходите за токени.",
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe е модел за преобразуване на реч в текст, който транскрибира аудио с помощта на GPT-4o, подобрявайки точността на думите, идентификацията на езика и прецизността спрямо оригиналния модел Whisper.",
"gpt-4o-mini-tts.description": "GPT-4o mini TTS е модел за преобразуване на текст в реч, базиран на GPT-4o mini, който преобразува текст в естествено звучаща реч с максимум 2000 токена вход.",
"gpt-4o-mini.description": "GPT-4o mini е най-новият модел на OpenAI след GPT-4 Omni, поддържащ вход от текст и изображение с текстов изход. Това е най-усъвършенстваният им малък модел, значително по-евтин от последните водещи модели и над 60% по-евтин от GPT-3.5 Turbo, като същевременно поддържа водеща интелигентност (82% MMLU).",
"gpt-4o-realtime-preview-2024-10-01.description": "GPT-4o вариант в реално време с аудио и текстов вход/изход в реално време.",
"gpt-4o-realtime-preview-2025-06-03.description": "GPT-4o вариант в реално време с аудио и текстов вход/изход в реално време.",
"gpt-4o-realtime-preview.description": "GPT-4o вариант в реално време с аудио и текстов вход/изход в реално време.",
"gpt-4o-search-preview.description": "GPT-4o Search Preview е обучен да разбира и изпълнява заявки за уеб търсене чрез Chat Completions API. Уеб търсенето се таксува на извикване на инструмент в допълнение към разходите за токени.",
"gpt-4o-transcribe.description": "GPT-4o Transcribe е модел за преобразуване на реч в текст, който транскрибира аудио с помощта на GPT-4o, подобрявайки точността на думите, идентификацията на езика и прецизността спрямо оригиналния модел Whisper.",
"gpt-4o.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"gpt-5-chat-latest.description": "Моделът GPT-5, използван в ChatGPT, съчетава силно разбиране и генериране за разговорни приложения.",
"gpt-5-chat.description": "GPT-5 Chat е предварителен модел, оптимизиран за разговорни сценарии. Поддържа вход от текст и изображения, изход само текст, подходящ за чатботове и разговорен ИИ.",
"gpt-5-codex.description": "GPT-5 Codex е вариант на GPT-5, оптимизиран за агентски задачи по програмиране в среди, подобни на Codex.",
"gpt-5-mini.description": "По-бърз и по-икономичен вариант на GPT-5 за добре дефинирани задачи, осигуряващ по-бързи отговори при запазено качество.",
"gpt-5-nano.description": "Най-бързият и най-рентабилен вариант на GPT-5, идеален за приложения, чувствителни към закъснение и разходи.",
"gpt-5-pro.description": "GPT-5 Pro използва повече изчислителна мощ за по-дълбоко мислене и последователно предоставя по-добри отговори.",
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat: вариантът на GPT-5.1 за ChatGPT, създаден за чат сценарии.",
"gpt-5.1-codex-max.description": "GPT-5.1 Codex Max: Най-интелигентният модел за кодиране на OpenAI, оптимизиран за дългосрочни агентни задачи за кодиране, поддържа токени за разсъждение.",
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: по-малък и по-евтин вариант на Codex, оптимизиран за агентски задачи по програмиране.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: вариант на GPT-5.1, оптимизиран за агентски задачи по програмиране, за сложни кодови/агентски работни потоци в Responses API.",
"gpt-5.1.description": "GPT-5.1 — водещ модел, оптимизиран за програмиране и агентски задачи с конфигурируемо усилие за разсъждение и по-дълъг контекст.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat е вариантът на ChatGPT (chat-latest) с най-новите подобрения в разговорите.",
"gpt-5.2-codex.description": "GPT-5.2-Codex е обновен вариант на GPT-5.2, оптимизиран за дългосрочни, агентни задачи за кодиране.",
"gpt-5.2-pro.description": "GPT-5.2 pro: по-интелигентен и прецизен вариант на GPT-5.2 (само чрез Responses API), подходящ за трудни задачи и дълги многоетапни разсъждения.",
"gpt-5.2.description": "GPT-5.2 е водещ модел за програмиране и агентски работни потоци с по-силно разсъждение и производителност при дълъг контекст.",
"gpt-5.3-chat-latest.description": "GPT-5.3 Chat е най-новият модел ChatGPT, използван в ChatGPT, с подобрени разговорни преживявания.",
"gpt-5.3-codex.description": "GPT-5.3-Codex е най-способният агентен модел за кодиране до момента, оптимизиран за агентни задачи за кодиране в Codex или подобни среди.",
"gpt-5.4-mini.description": "GPT-5.4 mini е най-силният мини модел на OpenAI за кодиране, компютърна употреба и подагенти.",
"gpt-5.4-nano.description": "GPT-5.4 nano е най-евтиният модел от клас GPT-5.4 на OpenAI за прости задачи с голям обем.",
"gpt-5.4-pro.description": "GPT-5.4 Pro използва повече изчислителна мощност, за да мисли по-задълбочено и да предоставя последователно по-добри отговори, достъпен само в Responses API.",
"gpt-5.4.description": "GPT-5.4 е водещият модел за сложна професионална работа с най-висока способност за разсъждение.",
"gpt-5.description": "Най-добрият модел за междудисциплинарно програмиране и агентски задачи. GPT-5 прави скок в точността, скоростта, разсъждението, осъзнаването на контекста, структурираното мислене и решаването на проблеми.",
"gpt-audio.description": "GPT Audio е универсален чат модел за вход/изход на аудио, поддържан в Chat Completions API.",
"gpt-image-1-mini.description": "По-евтин вариант на GPT Image 1 с роден вход от текст и изображения и изход на изображения.",
"gpt-image-1.5.description": "Подобрен модел GPT Image 1 с 4× по-бързо генериране, по-прецизно редактиране и подобрено рендиране на текст.",
"gpt-image-1.description": "Роден мултимодален модел за генериране на изображения в ChatGPT.",
"gpt-oss-120b.description": "Изисква кандидатстване за достъп. GPT-OSS-120B е отворен голям езиков модел от OpenAI със силни възможности за генериране на текст.",
"gpt-oss-20b.description": "Изисква кандидатстване за достъп. GPT-OSS-20B е отворен езиков модел със среден размер от OpenAI с ефективно генериране на текст.",
"gpt-oss:120b.description": "GPT-OSS 120B е големият отворен езиков модел на OpenAI, използващ MXFP4 квантизация и позициониран като водещ модел. Изисква среди с множество GPU или висок клас работни станции и осигурява отлично представяне при сложни логически задачи, генериране на код и многоезична обработка, с усъвършенствано извикване на функции и интеграция с инструменти.",
"gpt-oss:20b.description": "GPT-OSS 20B е отворен езиков модел на OpenAI, използващ MXFP4 квантизация, подходящ за потребителски GPU от висок клас или Apple Silicon Mac. Представя се добре при генериране на диалози, програмиране и логически задачи, поддържа извикване на функции и използване на инструменти.",
"gpt-realtime.description": "Общ модел в реално време, поддържащ текстов и аудио вход/изход в реално време, както и вход от изображения.",
"grok-3-mini.description": "Олекотен модел, който обмисля преди да отговори. Бърз и интелигентен при логически задачи, които не изискват дълбоки познания, с достъп до сурови логически следи.",
"grok-3.description": "Водещ модел, който се отличава в корпоративни приложения като извличане на данни, програмиране и обобщаване, с дълбоки познания във финанси, здравеопазване, право и наука.",
"grok-4-0709.description": "Grok 4 на xAI с мощни логически способности.",
"grok-4-1-fast-non-reasoning.description": "Модерен мултимодален модел, оптимизиран за високоефективна употреба на агентски инструменти.",
"grok-4-1-fast-reasoning.description": "Модерен мултимодален модел, оптимизиран за високоефективна употреба на агентски инструменти.",
"grok-4-fast-non-reasoning.description": "С гордост представяме Grok 4 Fast нашият най-нов напредък в икономичните логически модели.",
"grok-4-fast-reasoning.description": "С гордост представяме Grok 4 Fast нашият най-нов напредък в икономичните логически модели.",
"grok-4.20-beta-0309-non-reasoning.description": "Вариант без разсъждения за прости случаи на употреба.",
"grok-4.20-beta-0309-reasoning.description": "Интелигентен, изключително бърз модел, който разсъждава преди да отговори.",
"grok-4.20-multi-agent-beta-0309.description": "Екип от 4 или 16 агенти, отличен за изследователски случаи на употреба. В момента не поддържа инструменти от страна на клиента. Поддържа само сървърни инструменти на xAI (например X Search, Web Search инструменти) и отдалечени MCP инструменти.",
"grok-4.description": "Нашият най-нов и най-мощен водещ модел, който се отличава в обработка на естествен език, математика и логика идеален универсален модел.",
"grok-code-fast-1.description": "С гордост представяме grok-code-fast-1 бърз и икономичен логически модел, който се отличава в агентско програмиране.",
"grok-imagine-image-pro.description": "Генерирайте изображения от текстови подсказки, редактирайте съществуващи изображения с естествен език или итеративно усъвършенствайте изображения чрез многократни разговори.",
"grok-imagine-image.description": "Генерирайте изображения от текстови подсказки, редактирайте съществуващи изображения с естествен език или итеративно усъвършенствайте изображения чрез многократни разговори.",
"groq/compound-mini.description": "Compound-mini е композитна AI система, задвижвана от публично достъпни модели, поддържани в GroqCloud, която интелигентно и селективно използва инструменти за отговаряне на потребителски запитвания.",
"groq/compound.description": "Compound е композитна AI система, задвижвана от множество публично достъпни модели, поддържани в GroqCloud, която интелигентно и селективно използва инструменти за отговаряне на потребителски запитвания.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B е креативен и интелигентен езиков модел, създаден чрез обединяване на няколко водещи модела.",
"hunyuan-2.0-instruct-20251111.description": "Характеристики на изданието: Основата на модела е надградена от TurboS до **Hunyuan 2.0**, водеща до цялостни подобрения на способностите. Значително подобрява следването на инструкции, многократното и дългосрочно разбиране на текст, литературното създаване, точността на знанията, кодирането и способностите за разсъждение.",
"hunyuan-2.0-thinking-20251109.description": "Характеристики на изданието: Основата на модела е надградена от TurboS до **Hunyuan 2.0**, водеща до цялостни подобрения на способностите. Значително подобрява способността на модела да следва сложни инструкции, да разбира многократен и дългосрочен текст, да обработва код, да функционира като агент и да изпълнява задачи за разсъждение.",
"hunyuan-a13b.description": "Първият хибриден логически модел на Hunyuan, надграден от hunyuan-standard-256K (общо 80B, 13B активни). По подразбиране използва бавно мислене и поддържа превключване между бързо/бавно чрез параметри или префикс /no_think. Общите възможности са подобрени спрямо предишното поколение, особено в математика, наука, разбиране на дълги текстове и агентски задачи.",
"hunyuan-code.description": "Най-новият кодов модел на Hunyuan, обучен върху 200B висококачествени кодови данни плюс шест месеца SFT данни, с 8K контекст. Той се нарежда близо до върха в автоматизирани кодови бенчмаркове и в експертни човешки оценки в пет езика.",
"hunyuan-functioncall.description": "Най-новият MoE FunctionCall модел на Hunyuan, обучен върху висококачествени данни за използване на инструменти, с прозорец за контекст от 32K и водещи бенчмаркове в различни измерения.",
"hunyuan-large-longcontext.description": "Превъзхожда в задачи с дълги документи като обобщение и QA, като същевременно се справя с общо генериране. Силен в анализ и генериране на дълги текстове за сложни, детайлни съдържания.",
"hunyuan-large.description": "Hunyuan-large има ~389 милиарда общи параметри и ~52 милиарда активирани, най-големият и най-силен отворен MoE модел в архитектура Transformer.",
"hunyuan-lite.description": "Надграден до MoE архитектура с прозорец на контекста от 256K, водещ много отворени модели в NLP, програмиране, математика и индустриални бенчмаркове.",
"hunyuan-pro.description": "MoE модел с трилион параметри и 32K контекст, водещ в бенчмаркове, силен при сложни инструкции и логика, напреднала математика, извикване на функции и оптимизиран за многоезичен превод, финанси, право и медицина.",
"hunyuan-role.description": "Най-новият модел за ролеви игри на Hunyuan, официално фино настроен с данни за ролеви игри, предоставящ по-силна основна производителност в сценарии за ролеви игри.",
"hunyuan-standard-256K.description": "Използва подобрено маршрутизиране за смекчаване на балансирането на натоварването и колапса на експертите. Постига 99.9% успех в задачи с дълъг контекст. MOE-256K допълнително разширява дължината и качеството на контекста.",
"hunyuan-standard.description": "Използва подобрено маршрутизиране за смекчаване на балансирането на натоварването и колапса на експертите. Постига 99.9% успех в задачи с дълъг контекст. MOE-32K предлага силна стойност, като се справя с дълги входове.",
"hunyuan-t1-20250321.description": "Изгражда балансирани способности в изкуствата и STEM с мощно улавяне на информация от дълги текстове. Поддържа разсъждения за отговори на задачи по математика, логика, наука и кодиране на различни нива на трудност.",
"hunyuan-t1-20250403.description": "Подобрява генерирането на код на проектно ниво и качеството на писане, укрепва разбирането на многократни теми и следването на инструкции ToB, подобрява разбирането на думи и намалява проблемите със смесени опростени/традиционни и китайски/английски изходи.",
"hunyuan-t1-20250529.description": "Подобрява творческото писане и композиция, укрепва фронтенд кодирането, математическите и логическите разсъждения и подобрява следването на инструкции.",
"hunyuan-t1-20250711.description": "Значително подобрява трудните задачи по математика, логика и кодиране, увеличава стабилността на изхода и подобрява способностите за дълги текстове.",
"hunyuan-t1-latest.description": "Значително подобрява модела с бавно мислене при трудна математика, сложна логика, трудни задачи по програмиране, следване на инструкции и качество на креативното писане.",
"hunyuan-t1-vision-20250916.description": "Най-новият модел t1-vision с дълбоко логическо мислене и големи подобрения във VQA, визуално привързване, OCR, диаграми, решаване на заснети задачи и създаване на съдържание от изображения, както и по-силна поддръжка на английски и езици с ограничени ресурси.",
"hunyuan-turbo-20241223.description": "Тази версия подобрява мащабирането на инструкции за по-добра обобщаемост, значително подобрява математическите/кодови/логически разсъждения, подобрява разбирането на думи и качеството на писане.",
"hunyuan-turbo-latest.description": "Общи подобрения в опита с NLP разбирането, писането, чата, QA, превода и домейните; по-човекоподобни отговори, по-добро изясняване на неясни намерения, подобрено парсване на думи, по-високо творческо качество и интерактивност и по-силни многократни разговори.",
"hunyuan-turbo.description": "Преглед на следващото поколение LLM на Hunyuan с нова MoE архитектура, осигуряваща по-бързо разсъждение и по-силни резултати от hunyuan-pro.",
"hunyuan-turbos-latest.description": "Най-новият флагмански модел Hunyuan TurboS с по-силно разсъждение и по-добро цялостно изживяване.",
"hunyuan-turbos-longtext-128k-20250325.description": "Превъзхожда в задачи с дълги документи като обобщение и QA, като същевременно се справя с общо генериране. Силен в анализ и генериране на дълги текстове за сложни, детайлни съдържания.",
"hunyuan-turbos-vision-video.description": "Приложим за сценарии за разбиране на видео. Характеристики на изданието: Базиран на модела за разбиране на видео **Hunyuan Turbos-Vision**, поддържащ основни способности за разбиране на видео като описание на видео и въпроси за съдържанието на видео.",
"hunyuan-vision-1.5-instruct.description": "Бърз мисловен модел за изображения-към-текст, базиран на текстовата основа TurboS, показващ значителни подобрения спрямо предишната версия в основно разпознаване на изображения и анализ на разсъждения.",
"hunyuan-vision.description": "Най-новият мултимодален модел на Hunyuan, поддържащ входове за изображения + текст за генериране на текст.",
"image-01-live.description": "Модел за генериране на изображения с фини детайли, поддържащ преобразуване от текст към изображение и контролируеми стилови настройки.",
"image-01.description": "Нов модел за генериране на изображения с фини детайли, поддържащ преобразуване от текст към изображение и от изображение към изображение.",
"imagen-4.0-fast-generate-001.description": "Бързата версия от четвъртото поколение модели Imagen за преобразуване от текст към изображение.",
"imagen-4.0-generate-001.description": "Четвърто поколение модели Imagen за преобразуване от текст към изображение.",
"imagen-4.0-ultra-generate-001.description": "Ultra версията от четвъртото поколение модели Imagen за преобразуване от текст към изображение.",
"inception/mercury-coder-small.description": "Mercury Coder Small е идеален за генериране на код, отстраняване на грешки и рефакториране с минимално закъснение.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 е третият модел от архитектурата Ling 2.0, разработен от екипа Bailing на Ant Group. Това е MoE модел със 100 милиарда общи параметри, от които само 6.1 милиарда са активни на токен (4.8 милиарда без вграждане). Въпреки леката си конфигурация, той съперничи или надминава плътни модели с 40 милиарда параметри и дори по-големи MoE модели в множество бенчмаркове, като постига висока ефективност чрез архитектура и стратегия на обучение.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 е малък, високоефективен MoE LLM с 16 милиарда общи параметри и само 1.4 милиарда активни на токен (789 милиона без вграждане), осигуряващ изключително бързо генериране. Благодарение на ефективния MoE дизайн и голям обем висококачествени обучителни данни, той постига водеща производителност, сравнима с плътни модели под 10 милиарда и по-големи MoE модели.",
"inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 е високоефективен мислещ модел, оптимизиран от базовия Ling-flash-2.0. Използва MoE архитектура със 100 милиарда общи параметри и само 6.1 милиарда активни при всяка инференция. Алгоритъмът icepop стабилизира обучението с подсилване (RL) за MoE модели, позволявайки допълнителни подобрения в сложното разсъждение. Постига значителни пробиви в трудни бенчмаркове (математически състезания, генериране на код, логическо мислене), надминавайки водещи плътни модели под 40 милиарда и съперничейки на по-големи отворени и затворени MoE модели за разсъждение. Също така се представя добре в творческо писане, а ефективната му архитектура осигурява бърза инференция с по-ниски разходи за внедряване при висока едновременност.",
"inclusionai/ling-1t.description": "Ling-1T е MoE модел на inclusionAI с 1 трилион параметри, оптимизиран за задачи с висока интензивност на разсъждение и работа с голям контекст.",
"inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 е MoE модел на inclusionAI, оптимизиран за ефективност и производителност при разсъждение, подходящ за средни до големи задачи.",
"inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 е лек MoE модел на inclusionAI, който значително намалява разходите, като същевременно запазва способността за разсъждение.",
"inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview е мултимодален модел на inclusionAI, поддържащ вход от реч, изображение и видео, с подобрено визуализиране на изображения и разпознаване на реч.",
"inclusionai/ring-1t.description": "Ring-1T е MoE модел на inclusionAI с трилион параметри, предназначен за мащабни задачи по разсъждение и научни изследвания.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 е вариант на модела Ring от inclusionAI за сценарии с висока пропускателна способност, с акцент върху скоростта и ефективността на разходите.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 е лек MoE модел на inclusionAI с висока пропускателна способност, създаден за едновременна работа.",
"intern-latest.description": "По подразбиране сочи към най-новия модел от серията Intern, в момента настроен на intern-s1-pro.",
"intern-s1-mini.description": "Лек мултимодален голям модел със силни научни способности за разсъждение.",
"intern-s1-pro.description": "Пуснахме най-напредналия ни отворен мултимодален модел за разсъждение, в момента най-добре представящият се отворен мултимодален голям езиков модел по отношение на общата производителност.",
"intern-s1.description": "Отвореният мултимодален модел за разсъждение не само демонстрира силни общи способности, но и постига най-добри резултати в широк спектър от научни задачи.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat е отворен модел за чат, базиран на архитектурата InternLM2. Моделът с 7B параметри е фокусиран върху генериране на диалог с поддръжка на китайски/английски, използвайки съвременно обучение за плавен и интелигентен разговор. Подходящ е за различни сценарии като клиентска поддръжка и лични асистенти.",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO е мултимодален предварително обучен модел за комплексно визуално-текстово разсъждение.",
"internvl3-14b.description": "InternVL3 14B е среден по размер мултимодален модел, балансиращ между производителност и разходи.",
"internvl3-1b.description": "InternVL3 1B е лек мултимодален модел за внедряване при ограничени ресурси.",
"internvl3-38b.description": "InternVL3 38B е голям отворен мултимодален модел за високоточна визуално-текстова интерпретация.",
"internvl3.5-241b-a28b.description": "Нашият новоиздаден мултимодален голям модел предлага подобрено разбиране на изображения и текст и способности за дългосрочно разбиране на изображения, постигайки производителност, сравнима с водещите затворени модели.",
"internvl3.5-latest.description": "По подразбиране сочи към най-новия модел от серията InternVL3.5, в момента настроен на internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG е модел за генериране, подсилен с извличане на изображения, предназначен за търсене на изображения, визуално-текстово извличане и създаване на съдържание.",
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
"jina-deepsearch-v1.description": "DeepSearch комбинира уеб търсене, четене и разсъждение за задълбочени изследвания. Представете си го като агент, който поема вашата изследователска задача, извършва широки търсения с множество итерации и едва след това предоставя отговор. Процесът включва непрекъснато проучване, разсъждение и многопластово решаване на проблеми, коренно различен от стандартните LLM, които отговарят въз основа на предварително обучение или традиционни RAG системи, разчитащи на еднократно повърхностно търсене.",
"k2p5.description": "Kimi K2.5 е най-гъвкавият модел на Kimi досега, с вградена мултимодална архитектура, която поддържа както визуални, така и текстови входове, режими на 'мислене' и 'немислене', както и както разговорни, така и агентски задачи.",
"kimi-k2-0711-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлага прозорец на контекста от 256k, по-силно агентно програмиране, по-добро качество на front-end код и подобрено разбиране на контекста.",
"kimi-k2-instruct.description": "Kimi K2 Instruct е официалният модел за разсъждение на Kimi с дълъг контекст за код, въпроси и отговори и други.",
"kimi-k2-thinking-turbo.description": "Високоскоростен вариант на K2 с дълбоко мислене, 256k контекст, силно дълбоко разсъждение и скорост на изход от 60100 токена/сек.",
"kimi-k2-thinking.description": "kimi-k2-thinking е мисловен модел на Moonshot AI с общи агентни и разсъждателни способности. Отличава се с дълбоко разсъждение и може да решава трудни задачи чрез многостъпкова употреба на инструменти.",
"kimi-k2-turbo-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
"kimi-k2.5.description": "Kimi K2.5 е най-универсалният модел на Kimi досега, с родна мултимодална архитектура, която поддържа както визуални, така и текстови входове, режими 'мислене' и 'немислене', както и задачи за разговори и агенти.",
"kimi-k2.description": "Kimi-K2 е MoE базов модел от Moonshot AI с мощни способности за програмиране и агентни задачи, с общо 1T параметри и 32B активни. В бенчмаркове за общо разсъждение, програмиране, математика и агентни задачи надминава други водещи отворени модели.",
"kimi-k2:1t.description": "Kimi K2 е голям MoE LLM от Moonshot AI с 1T общи параметри и 32B активни на всяко преминаване. Оптимизиран е за агентни способности, включително напреднало използване на инструменти, разсъждение и синтез на код.",
"kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (ограничено безплатен) се фокусира върху разбиране на код и автоматизация за ефективни кодиращи агенти.",
"labs-devstral-small-2512.description": "Devstral Small 2 превъзхожда в използването на инструменти за изследване на кодови бази, редактиране на множество файлове и захранване на агенти за софтуерно инженерство.",
"lite.description": "Spark Lite е лек LLM с ултраниска латентност и ефективна обработка. Напълно безплатен е и поддържа търсене в реално време в уеб. Бързите му отговори се представят добре на устройства с ниска изчислителна мощност и при фина настройка на модели, осигурявайки висока ефективност на разходите и интелигентно изживяване, особено за въпроси и отговори, генериране на съдържание и търсене.",
"llama-3.1-70b-versatile.description": "Llama 3.1 70B предоставя по-силно AI разсъждение за сложни приложения, поддържайки тежки изчисления с висока ефективност и точност.",
"llama-3.1-8b-instant.description": "Llama 3.1 8B е високоефективен модел с бързо генериране на текст, идеален за мащабни, икономични приложения.",
"llama-3.1-instruct.description": "Llama 3.1, настроен за инструкции, е оптимизиран за чат и надминава много отворени чат модели в общи индустриални бенчмаркове.",
"llama-3.2-11b-vision-instruct.description": "Силно визуално разсъждение върху изображения с висока резолюция, подходящо за приложения за визуално разбиране.",
"llama-3.2-11b-vision-preview.description": "Llama 3.2 е проектиран за задачи, съчетаващи визия и текст, отличаващ се в надписи на изображения и визуални въпроси и отговори, свързващ езиковото генериране и визуалното разсъждение.",
"llama-3.2-90b-vision-instruct.description": "Разширено визуално разсъждение за приложения с агенти за визуално разбиране.",
"llama-3.2-90b-vision-preview.description": "Llama 3.2 е проектиран за задачи, съчетаващи визия и текст, отличаващ се в надписи на изображения и визуални въпроси и отговори, свързващ езиковото генериране и визуалното разсъждение.",
"llama-3.2-vision-instruct.description": "Llama 3.2-Vision, настроен за инструкции, е оптимизиран за визуално разпознаване, визуално разсъждение, надписи и общи въпроси и отговори върху изображения.",
"llama-3.3-70b-versatile.description": "Meta Llama 3.3 е многоезичен LLM с 70B параметри (текст вход/изход), предлагащ предварително обучени и настроени за инструкции варианти. Текстовият модел, настроен за инструкции, е оптимизиран за многоезичен диалог и надминава много отворени и затворени чат модели в общи индустриални бенчмаркове.",
"llama-3.3-instruct.description": "Llama 3.3, настроен за инструкции, е оптимизиран за чат и надминава много отворени чат модели в общи индустриални бенчмаркове.",
"llama3-70b-8192.description": "Meta Llama 3 70B предлага изключителна способност за справяне със сложност за взискателни проекти.",
"llama3-8b-8192.description": "Meta Llama 3 8B осигурява силно разсъждение за разнообразни сценарии.",
"llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use предоставя силно извикване на инструменти за ефективно справяне със сложни задачи.",
"llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use е оптимизиран за ефективно използване на инструменти с бързи паралелни изчисления.",
"llama3.1-8b.description": "Llama 3.1 8B: малък, с ниска латентност вариант на Llama за леки онлайн изводи и чат.",
"llama3.1.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
"llama3.1:405b.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
"llama3.1:70b.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
"llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B съчетава визуална обработка за генериране на сложни изходи от визуални входове.",
"llava.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
"llava:13b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
"llava:34b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
"magistral-medium-latest.description": "Magistral Medium 1.2 е авангарден модел за разсъждение от Mistral AI (септември 2025) с поддръжка на визуални данни.",
"magistral-small-2509.description": "Magistral Small 1.2 е малък, с отворен код модел за разсъждение от Mistral AI (септември 2025) с поддръжка на визуални данни.",
"mathstral.description": "MathΣtral е създаден за научни изследвания и математическо разсъждение, с мощни изчислителни и обяснителни способности.",
"max-32k.description": "Spark Max 32K предлага обработка на голям контекст с по-добро разбиране и логическо разсъждение, поддържайки входове до 32K токена за четене на дълги документи и въпроси с частни знания.",
"megrez-3b-instruct.description": "Megrez 3B Instruct е малък, ефективен модел от Wuwen Xinqiong.",
"meituan/longcat-flash-chat.description": "Модел с отворен код от Meituan, оптимизиран за диалог и агентски задачи, силен в използването на инструменти и сложни многократни взаимодействия.",
"meta-llama-3-70b-instruct.description": "Мощен модел с 70 милиарда параметъра, който се отличава в разсъждение, програмиране и широк спектър от езикови задачи.",
"meta-llama-3-8b-instruct.description": "Универсален модел с 8 милиарда параметъра, оптимизиран за чат и генериране на текст.",
"meta-llama-3.1-405b-instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с високи резултати в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta-llama-3.1-70b-instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с високи резултати в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta-llama-3.1-8b-instruct.description": "Llama 3.1 е текстов модел, обучен с инструкции, оптимизиран за многоезичен чат, с високи резултати в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) предлага силна езикова обработка и стабилно чат изживяване.",
"meta-llama/Llama-2-70b-hf.description": "LLaMA-2 предлага силна езикова обработка и стабилно взаимодействие.",
"meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference е мощен чат модел за сложни диалози.",
"meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference предлага многоезична поддръжка и обширни познания в различни области.",
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 е многоезичен LLM с 70 милиарда параметъра (текстов вход/изход), предварително обучен и настроен с инструкции. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и превъзхожда много отворени и затворени модели в индустриалните бенчмаркове.",
"meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite е създаден за висока производителност с ниска латентност.",
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo предлага силно разбиране и генериране за най-взискателните натоварвания.",
"meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite балансира производителността за среди с ограничени ресурси.",
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo е високопроизводителен LLM за широк спектър от приложения.",
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "Моделът Llama 3.1 Turbo с 405 милиарда параметъра предлага огромен контекстов капацитет за обработка на големи данни и се отличава в мащабни AI приложения.",
"meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 е водещото семейство модели на Meta, достигащо до 405 милиарда параметъра за сложни диалози, многоезичен превод и анализ на данни.",
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B е фино настроен за приложения с високо натоварване; FP8 квантизацията осигурява ефективни изчисления и точност при сложни сценарии.",
"meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 е водещото семейство модели на Meta, достигащо до 405 милиарда параметъра за сложни диалози, многоезичен превод и анализ на данни.",
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B използва FP8 квантизация, поддържа до 131 072 токена контекст и е сред водещите отворени модели за сложни задачи според множество бенчмаркове.",
"meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct е оптимизиран за висококачествени диалози и показва отлични резултати в човешки оценки.",
"meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct е оптимизиран за висококачествени диалози, превъзхождайки много затворени модели.",
"meta-llama/llama-3.1-70b-instruct.description": "Най-новата серия Llama 3.1 на Meta, 70B вариант, обучен с инструкции, оптимизиран за висококачествени диалози. В индустриални оценки показва силна производителност спрямо водещи затворени модели. (Достъпен само за потвърдени бизнес потребители.)",
"meta-llama/llama-3.1-8b-instruct.description": "Най-новата серия Llama 3.1 на Meta, 8B вариант, обучен с инструкции, е особено бърз и ефективен. В индустриални оценки показва силна производителност, надминавайки много водещи затворени модели. (Достъпен само за потвърдени бизнес потребители.)",
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 предлага многоезична поддръжка и е сред водещите генеративни модели.",
"meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 е създаден за задачи, съчетаващи визия и текст. Отличава се в описване на изображения и визуални въпроси, свързвайки езиковото генериране с визуалното разсъждение.",
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много ниска цена. Базиран е на Transformer архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и превъзхожда много отворени и затворени модели в индустриалните бенчмаркове. Край на знанията: декември 2023.",
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел от серията Llama, предлагащ производителност, близка до 405B, на много ниска цена. Базиран е на Transformer архитектура и подобрен чрез SFT и RLHF за полезност и безопасност. Версията, обучена с инструкции, е оптимизирана за многоезичен чат и превъзхожда много отворени и затворени модели в индустриалните бенчмаркове. Край на знанията: декември 2023.",
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct е най-големият и най-мощен модел от серията Llama 3.1 Instruct изключително напреднал модел за диалогово разсъждение и генериране на синтетични данни, отлична основа за дообучение в специфични домейни. Многоезичните LLM модели Llama 3.1 са предварително обучени и настроени с инструкции в размери 8B, 70B и 405B (текстов вход/изход). Моделите, обучени с инструкции, са оптимизирани за многоезичен диалог и превъзхождат много отворени чат модели в индустриалните бенчмаркове. Llama 3.1 е предназначен за търговска и изследователска употреба на различни езици. Моделите, обучени с инструкции, са подходящи за чат в стил асистент, докато предварително обучените модели са подходящи за по-широки задачи по генериране на естествен език. Изходите от Llama 3.1 могат да се използват и за подобряване на други модели, включително чрез генериране и прецизиране на синтетични данни. Llama 3.1 е автогенеративен Transformer модел с оптимизирана архитектура. Настроените версии използват SFT и RLHF за съответствие с човешките предпочитания за полезност и безопасност.",
"meta.llama3-1-70b-instruct-v1:0.description": "Обновен Meta Llama 3.1 70B Instruct с разширен контекст до 128K токена, многоезична поддръжка и подобрено разсъждение. Многоезичните LLM модели Llama 3.1 са предварително обучени и настроени с инструкции в размери 8B, 70B и 405B (текстов вход/изход). Моделите, обучени с инструкции, са оптимизирани за многоезичен диалог и превъзхождат много отворени чат модели в индустриалните бенчмаркове. Llama 3.1 е предназначен за търговска и изследователска употреба на различни езици. Моделите, обучени с инструкции, са подходящи за чат в стил асистент, докато предварително обучените модели са подходящи за по-широки задачи по генериране на естествен език. Изходите от Llama 3.1 могат да се използват и за подобряване на други модели, включително чрез генериране и прецизиране на синтетични данни. Llama 3.1 е автогенеративен Transformer модел с оптимизирана архитектура. Настроените версии използват SFT и RLHF за съответствие с човешките предпочитания за полезност и безопасност.",
"meta.llama3-1-8b-instruct-v1:0.description": "Обновен Meta Llama 3.1 8B Instruct с контекст до 128K токена, многоезична поддръжка и подобрено разсъждение. Семейството Llama 3.1 включва 8B, 70B и 405B модели, обучени с инструкции, оптимизирани за многоезичен чат и висока производителност в бенчмаркове. Предназначен е за търговска и изследователска употреба на различни езици; моделите, обучени с инструкции, са подходящи за чат в стил асистент, а предварително обучените за по-широки задачи по генериране. Изходите от Llama 3.1 могат да се използват и за подобряване на други модели (напр. синтетични данни и прецизиране). Това е автогенеративен Transformer модел с SFT и RLHF за съответствие с човешките предпочитания за полезност и безопасност.",
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи в генеративния AI. Като част от основата за глобални иновации, той е подходящ за създаване на съдържание, разговорен AI, езиково разбиране, научноизследователска и развойна дейност и бизнес приложения.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 е най-усъвършенстваният многоезичен отворен модел Llama, предлагащ производителност, близка до 405B, на много ниска цена. Базиран е на трансформър архитектура и е подобрен чрез SFT и RLHF за полезност и безопасност. Версията, настроена за инструкции, е оптимизирана за многоезичен чат и надминава много отворени и затворени модели в индустриалните бенчмаркове. Край на знанията: декември 2023.",
"meta/Meta-Llama-3-70B-Instruct.description": "Мощен модел с 70 милиарда параметъра, отличаващ се с логическо мислене, програмиране и широк спектър от езикови задачи.",
"meta/Meta-Llama-3-8B-Instruct.description": "Универсален модел с 8 милиарда параметъра, оптимизиран за чат и генериране на текст.",
"meta/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1, настроен за инструкции, е текстов модел, оптимизиран за многоезичен чат, с висока производителност в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta/Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1, настроен за инструкции, е текстов модел, оптимизиран за многоезичен чат, с висока производителност в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta/Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1, настроен за инструкции, е текстов модел, оптимизиран за многоезичен чат, с висока производителност в индустриалните бенчмаркове сред отворени и затворени модели.",
"meta/llama-3.1-405b-instruct.description": "Разширен LLM, поддържащ генериране на синтетични данни, дистилация на знания и логическо мислене за чатботи, програмиране и специализирани задачи.",
"meta/llama-3.1-70b-instruct.description": "Създаден за сложни диалози с отлично разбиране на контекста, логическо мислене и генериране на текст.",
"meta/llama-3.1-70b.description": "Обновен Meta Llama 3 70B Instruct с 128K контекст, многоезична поддръжка и подобрено логическо мислене.",
"meta/llama-3.1-8b-instruct.description": "Модерен модел с високо ниво на езиково разбиране, логическо мислене и генериране на текст.",
"meta/llama-3.1-8b.description": "Llama 3.1 8B поддържа 128K контекстен прозорец, идеален за чат в реално време и анализ на данни, като предлага значителни икономии спрямо по-големите модели. Предоставян от Groq на LPU хардуер за бързо и ефективно изпълнение.",
"meta/llama-3.2-11b-vision-instruct.description": "Модерен модел за визуално-езикови задачи, отличаващ се с висококачествено логическо мислене върху изображения.",
"meta/llama-3.2-11b.description": "Модел, настроен за инструкции, за визуален анализ (вход: текст + изображение, изход: текст), оптимизиран за визуално разпознаване, логическо мислене върху изображения, надписи и общи въпроси за изображения.",
"meta/llama-3.2-1b-instruct.description": "Модерен малък езиков модел с високо ниво на разбиране, логическо мислене и генериране на текст.",
"meta/llama-3.2-1b.description": "Само текстов модел за използване на устройства, подходящ за многоезично локално извличане, обобщаване и пренаписване.",
"meta/llama-3.2-3b-instruct.description": "Модерен малък езиков модел с високо ниво на разбиране, логическо мислене и генериране на текст.",
"meta/llama-3.2-3b.description": "Само текстов модел, фино настроен за използване на устройства, като многоезично локално извличане, обобщаване и пренаписване.",
"meta/llama-3.2-90b-vision-instruct.description": "Модерен модел за визуално-езикови задачи, отличаващ се с висококачествено логическо мислене върху изображения.",
"meta/llama-3.2-90b.description": "Модел, настроен за инструкции, за визуален анализ (вход: текст + изображение, изход: текст), оптимизиран за визуално разпознаване, логическо мислене върху изображения, надписи и общи въпроси за изображения.",
"meta/llama-3.3-70b-instruct.description": "Разширен LLM, силен в логическо мислене, математика, здрав разум и извикване на функции.",
"meta/llama-3.3-70b.description": "Перфектен баланс между производителност и ефективност. Създаден за високоефективен разговорен ИИ в създаване на съдържание, корпоративни приложения и изследвания, с високо ниво на езиково разбиране за обобщаване, класификация, анализ на настроения и генериране на код.",
"meta/llama-4-maverick.description": "Семейството Llama 4 е нативен мултимодален AI модел, поддържащ текстови и мултимодални преживявания, използващ MoE за водещо разбиране на текст и изображения. Llama 4 Maverick е модел с 17B параметъра и 128 експерта, предоставян от DeepInfra.",
"meta/llama-4-scout.description": "Семейството Llama 4 е нативен мултимодален AI модел, поддържащ текстови и мултимодални преживявания, използващ MoE за водещо разбиране на текст и изображения. Llama 4 Scout е модел с 17B параметъра и 16 експерта, предоставян от DeepInfra.",
"microsoft/Phi-3-medium-128k-instruct.description": "Същият модел Phi-3-medium с по-голям контекстен прозорец за RAG или few-shot подканвания.",
"microsoft/Phi-3-medium-4k-instruct.description": "Модел с 14 милиарда параметъра с по-високо качество от Phi-3-mini, фокусиран върху данни, изискващи задълбочено разсъждение.",
"microsoft/Phi-3-mini-128k-instruct.description": "Същият модел Phi-3-mini с по-голям контекстен прозорец за RAG или few-shot подканвания.",
"microsoft/Phi-3-mini-4k-instruct.description": "Най-малкият член на семейството Phi-3, оптимизиран за качество и ниска латентност.",
"microsoft/Phi-3-small-128k-instruct.description": "Същият модел Phi-3-small с по-голям контекстен прозорец за RAG или few-shot подканвания.",
"microsoft/Phi-3-small-8k-instruct.description": "Модел с 7 милиарда параметъра с по-високо качество от Phi-3-mini, фокусиран върху данни, изискващи задълбочено разсъждение.",
"microsoft/Phi-3.5-mini-instruct.description": "Актуализирана версия на модела Phi-3-mini.",
"microsoft/Phi-3.5-vision-instruct.description": "Актуализирана версия на модела Phi-3-vision.",
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 е езиков модел от Microsoft AI, който се отличава в сложни диалози, многоезични задачи, разсъждение и асистенти.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B е най-усъвършенстваният Wizard модел на Microsoft AI с изключително конкурентна производителност.",
"mimo-v2-flash.description": "MiMo-V2-Flash вече е официално с отворен код! Това е модел MoE (Mixture-of-Experts), създаден за изключителна ефективност при извеждане, с общо 309 милиарда параметри (15 милиарда активирани). Чрез иновации в хибридна архитектура на вниманието и многослойно ускорение на MTP извеждането, той се нарежда сред глобалните Топ 2 модели с отворен код в множество бенчмаркинг пакети за агенти. Неговите способности за кодиране надминават всички модели с отворен код и съперничат на водещи модели със затворен код като Claude 4.5 Sonnet, като същевременно изискват само 2.5% от разходите за извеждане и осигуряват 2× по-бърза скорост на генериране—поставяйки границите на ефективността на големите модели.",
"mimo-v2-omni.description": "MiMo-V2-Omni е създаден специално за сложни мултимодални взаимодействия и сценарии за изпълнение в реалния свят. Построихме основа за пълна модалност от нулата, интегрирайки текст, визия и реч, и обединихме „възприятие“ и „действие“ в една архитектура. Това не само преодолява традиционното ограничение на моделите, които акцентират върху разбирането за сметка на изпълнението, но също така надарява модела с вродени способности за мултимодално възприятие, използване на инструменти, изпълнение на функции и операции с графичен интерфейс. MiMo-V2-Omni може безпроблемно да се интегрира с основни рамки за агенти, постигайки скок от разбиране към контрол, като същевременно значително намалява бариерата за внедряване на напълно мултимодални агенти.",
"mimo-v2-pro.description": "Xiaomi MiMo-V2-Pro е специално проектиран за интензивни агентни работни потоци в реални сценарии. Той разполага с над 1 трилион общи параметри (42 милиарда активирани параметри), приема иновативна хибридна архитектура на вниманието и поддържа ултра-дълъг контекст с дължина до 1 милион токена. Изграден върху мощен основен модел, ние непрекъснато мащабираме изчислителните ресурси в по-широк диапазон от агентни сценарии, допълнително разширявайки пространството за действие на интелигентността и постигайки значителна генерализация—от кодиране до изпълнение на задачи в реалния свят („claw“).",
"minicpm-v.description": "MiniCPM-V е следващо поколение мултимодален модел на OpenBMB с отлични OCR и мултимодални възможности за широк спектър от приложения.",
"minimax-m2.1.description": "MiniMax-M2.1 е най-новата версия от серията MiniMax, оптимизирана за многоезично програмиране и реални сложни задачи. Като AI-нативен модел, MiniMax-M2.1 постига значителни подобрения в производителността, поддръжката на агентни рамки и адаптацията към различни сценарии, с цел да помогне на предприятия и индивидуални потребители да открият AI-нативен начин на работа и живот по-бързо.",
"minimax-m2.5.description": "MiniMax-M2.5 е съвременен голям езиков модел, проектиран за реална продуктивност и задачи за програмиране.",
"minimax-m2.description": "MiniMax M2 е ефективен голям езиков модел, създаден специално за програмиране и агентни работни потоци.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 е лек, авангарден голям езиков модел, оптимизиран за програмиране, агентни работни потоци и съвременно разработване на приложения, осигуряващ по-чист, по-кратък изход и по-бърза реакция.",
"minimax/minimax-m2.description": "MiniMax-M2 е високостойностен модел, който се отличава в програмиране и агентни задачи в множество инженерни сценарии.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 е компактен, бърз, икономичен MoE модел, създаден за топ-клас кодиране и производителност на агенти.",
"minimaxai/minimax-m2.5.description": "MiniMax-M2.5 е най-новият голям езиков модел от MiniMax, с архитектура Mixture-of-Experts (MoE) и общо 229 милиарда параметри. Той постига водеща в индустрията производителност в програмиране, извикване на инструменти от агенти, задачи за търсене и офис сценарии.",
"minimaxai/minimax-m2.description": "MiniMax-M2 е компактен, бърз и икономичен MoE модел (230B общо, 10B активни), създаден за първокласно програмиране и агентна производителност, като същевременно запазва силна обща интелигентност. Отличава се при редакции на множество файлове, цикли код-изпълнение-корекция, валидиране на тестове и сложни инструментални вериги.",
"ministral-3b-latest.description": "Ministral 3B е водещият edge модел на Mistral.",
"ministral-8b-latest.description": "Ministral 8B е високоефективен edge модел от Mistral.",
"mistral-ai/Mistral-Large-2411.description": "Флагманският модел на Mistral за сложни задачи, изискващи мащабно разсъждение или специализация (генериране на синтетичен текст, програмен код, RAG или агенти).",
"mistral-ai/Mistral-Nemo.description": "Mistral Nemo е авангарден LLM с водещи възможности за разсъждение, световни знания и програмиране за своя размер.",
"mistral-ai/mistral-small-2503.description": "Mistral Small е подходящ за всяка езикова задача, изискваща висока ефективност и ниска латентност.",
"mistral-large-instruct.description": "Mistral-Large-Instruct-2407 е усъвършенстван плътен LLM със 123 милиарда параметъра и водещи възможности за разсъждение, знания и програмиране.",
"mistral-large-latest.description": "Mistral Large е флагманският модел, силен в многоезични задачи, сложно разсъждение и генериране на код — идеален за висококачествени приложения.",
"mistral-large.description": "Mixtral Large е флагманският модел на Mistral, комбиниращ генериране на код, математика и разсъждение с 128K контекстен прозорец.",
"mistral-medium-latest.description": "Mistral Medium 3.1 предоставя водеща производителност на 8× по-ниска цена и опростява корпоративното внедряване.",
"mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 е версия, настроена за инструкции, на Mistral-Nemo-Base-2407.",
"mistral-nemo.description": "Mistral Nemo е високоефективен 12B модел от Mistral AI и NVIDIA.",
"mistral-small-latest.description": "Mistral Small е икономичен, бърз и надежден избор за превод, обобщение и анализ на настроения.",
"mistral-small.description": "Mistral Small е подходящ за всяка езикова задача, изискваща висока ефективност и ниска латентност.",
"mistral.description": "Mistral е 7B модел на Mistral AI, подходящ за разнообразни езикови задачи.",
"mistral/codestral-embed.description": "Модел за вграждане на код за индексиране на кодови бази и хранилища в помощ на асистенти за програмиране.",
"mistral/codestral.description": "Mistral Codestral 25.01 е авангарден модел за програмиране, оптимизиран за ниска латентност и честа употреба. Поддържа над 80 езика и се отличава при FIM, корекция на код и генериране на тестове.",
"mistral/devstral-small.description": "Devstral е агентен LLM за задачи по софтуерно инженерство, което го прави силен избор за инженерни агенти.",
"mistral/magistral-medium.description": "Сложно мислене, подкрепено от дълбоко разбиране с прозрачно разсъждение, което можете да проследите и проверите. Поддържа висока точност на разсъждение на различни езици, дори по време на изпълнение.",
"mistral/magistral-small.description": "Сложно мислене, подкрепено от дълбоко разбиране с прозрачно разсъждение, което можете да проследите и проверите. Поддържа висока точност на разсъждение на различни езици, дори по време на изпълнение.",
"mistral/ministral-3b.description": "Компактен, ефективен модел за задачи на устройството като асистенти и локална аналитика, осигуряващ ниска латентност.",
"mistral/ministral-8b.description": "По-мощен модел с по-бързо и ефективно използване на паметта, идеален за сложни работни потоци и взискателни edge приложения.",
"mistral/mistral-embed.description": "Общ модел за вграждане на текст за семантично търсене, сходство, клъстериране и RAG работни потоци.",
"mistral/mistral-large.description": "Mistral Large е идеален за сложни задачи, изискващи силно разсъждение или специализация — генериране на синтетичен текст, програмен код, RAG или агенти.",
"mistral/mistral-small.description": "Mistral Small е идеален за прости, пакетируеми задачи като класификация, клиентска поддръжка или генериране на текст, осигурявайки отлична производителност на достъпна цена.",
"mistral/mixtral-8x22b-instruct.description": "8x22B Instruct модел. 8x22B е отворен MoE модел, предоставен от Mistral.",
"mistral/pixtral-12b.description": "12B модел с разбиране на изображения и текст.",
"mistral/pixtral-large.description": "Pixtral Large е вторият модел от нашето мултимодално семейство с водещо разбиране на изображения. Обработва документи, диаграми и естествени изображения, като същевременно запазва водещото текстово разбиране на Mistral Large 2.",
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct е известен с високата си ефективност при множество езикови задачи.",
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 подобрява обработката на инструкции и точността на резултатите.",
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 предлага ефективна изчислителна работа и силно езиково разбиране за множество приложения.",
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B е компактен, но високоефективен модел, подходящ за партидна обработка и прости задачи като класификация и генериране на текст, с добро логическо разсъждение.",
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) е много голям езиков модел, предназначен за тежки натоварвания.",
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B) предлага висока производителност за обработка на данни в голям мащаб.",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B е разреден MoE модел, който ускорява извеждането и е подходящ за многоезични задачи и генериране на код.",
"mistralai/mistral-nemo.description": "Mistral Nemo е модел с 7.3B параметъра с поддръжка на много езици и силна производителност при програмиране.",
"mixtral-8x7b-32768.description": "Mixtral 8x7B осигурява устойчиво на грешки паралелно изчисление за сложни задачи.",
"mixtral.description": "Mixtral е MoE модел на Mistral AI с отворени тегла, поддържащ генериране на код и езиково разбиране.",
"mixtral:8x22b.description": "Mixtral е MoE модел на Mistral AI с отворени тегла, поддържащ генериране на код и езиково разбиране.",
"moonshot-v1-128k-vision-preview.description": "Моделите Kimi vision (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) разбират съдържание на изображения като текст, цветове и форми на обекти.",
"moonshot-v1-128k.description": "Moonshot V1 128K предлага изключително дълъг контекст за генериране на много дълги текстове, обработвайки до 128 000 токена за научни, академични и документи с голям обем.",
"moonshot-v1-32k-vision-preview.description": "Моделите Kimi vision (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) разбират съдържание на изображения като текст, цветове и форми на обекти.",
"moonshot-v1-32k.description": "Moonshot V1 32K поддържа 32 768 токена за средно дълъг контекст, идеален за дълги документи и сложни диалози в създаване на съдържание, отчети и чат системи.",
"moonshot-v1-8k-vision-preview.description": "Моделите Kimi vision (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) разбират съдържание на изображения като текст, цветове и форми на обекти.",
"moonshot-v1-8k.description": "Moonshot V1 8K е оптимизиран за генериране на кратки текстове с висока ефективност, обработвайки 8 192 токена за кратки чатове, бележки и бързо съдържание.",
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B е модел за програмиране с отворен код, оптимизиран с мащабно RL за създаване на надеждни, готови за производство корекции. Той постига 60.4% на SWE-bench Verified, поставяйки нов рекорд за модели с отворен код в автоматизирани задачи като поправка на грешки и преглед на код.",
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 е най-новият и най-мощен модел от серията Kimi K2. Това е MoE модел от най-висок клас с 1T общо и 32B активни параметъра. Основни характеристики включват по-силна агентна интелигентност при програмиране, значителни подобрения в бенчмаркове и реални задачи, както и подобрена естетика и използваемост на фронтенд кода.",
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking е най-новият и най-мощен модел за мислене с отворен код. Той значително разширява дълбочината на многократното разсъждение и поддържа стабилно използване на инструменти в 200300 последователни извиквания, поставяйки нови рекорди на Humanity's Last Exam (HLE), BrowseComp и други бенчмаркове. Превъзхожда в кодиране, математика, логика и сценарии с агенти. Изграден на архитектура MoE с ~1 трилион общи параметри, поддържа 256K контекстен прозорец и извикване на инструменти.",
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711 е instruct вариант от серията Kimi, подходящ за висококачествен код и използване на инструменти.",
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905 е актуализация, която разширява контекста и логическата производителност с оптимизации за програмиране.",
"moonshotai/kimi-k2-instruct-0905.description": "Моделът kimi-k2-0905-preview поддържа 256K контекстен прозорец, с по-силно агентно програмиране, по-изпипан и практичен фронтенд код и по-добро разбиране на контекста.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo е високоскоростна версия на Kimi K2 Thinking, значително намаляваща латентността, като запазва дълбокото разсъждение.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking е модел за разсъждение на Moonshot, оптимизиран за задачи, изискващи дълбоко мислене, с общи агентни способности.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 е най-интелигентният модел Kimi досега, с вградена мултимодална архитектура.",
"moonshotai/kimi-k2.description": "Kimi K2 е голям MoE модел от Moonshot AI с 1T общи параметри и 32B активни при всяко преминаване, оптимизиран за агентни способности, включително напреднало използване на инструменти, разсъждение и синтез на код.",
"morph/morph-v3-fast.description": "Morph предоставя специализиран модел за прилагане на промени в кода, предложени от водещи модели (напр. Claude или GPT-4o), към съществуващите ви файлове със скорост над 4500 токена/сек. Това е последната стъпка в AI работния процес за програмиране и поддържа 16k входни/изходни токена.",
"morph/morph-v3-large.description": "Morph предоставя специализиран модел за прилагане на промени в кода, предложени от водещи модели (напр. Claude или GPT-4o), към съществуващите ви файлове със скорост над 2500 токена/сек. Това е последната стъпка в AI работния процес за програмиране и поддържа 16k входни/изходни токена.",
"musesteamer-air-image.description": "musesteamer-air-image е модел за генериране на изображения, разработен от екипа за търсене на Baidu, за да предостави изключителна стойност за разходите. Той може бързо да генерира ясни, съгласувани с действия изображения въз основа на потребителски подсказки, превръщайки описанията на потребителите лесно във визуализации.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2 с най-новите вътрешно разработени набори от данни.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B е персонализиран LLM от NVIDIA, създаден за подобряване на полезността. Представя се отлично в Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, заемайки първо място и в трите автоматични бенчмарка към 1 октомври 2024 г. Обучен е от Llama-3.1-70B-Instruct с помощта на RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference подсказки.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Отличителен езиков модел, предлагащ изключителна точност и ефективност.",
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct е персонализиран модел на NVIDIA, създаден за подобряване на полезността на отговорите от LLM.",
"o1-mini.description": "o1-mini е бърз, икономичен модел за разсъждение, проектиран за кодиране, математика и наука. Има 128K контекст и знание до октомври 2023 г.",
"o1-preview.description": "o1 е новият модел на OpenAI за разсъждение за сложни задачи, изискващи широки знания. Има 128K контекст и знание до октомври 2023 г.",
"o1-pro.description": "Серията o1 е обучена с подсилващо обучение, за да мисли преди да отговори и да се справя със сложни разсъждения. o1-pro използва повече изчислителна мощ за по-дълбоко мислене и последователно по-качествени отговори.",
"o1.description": "o1 е новият модел за разсъждение на OpenAI с вход текст+изображение и изход текст, подходящ за сложни задачи, изискващи широка обща култура. Има контекстен прозорец от 200K и граница на знанията от октомври 2023 г.",
"o3-2025-04-16.description": "o3 е новият модел за разсъждение на OpenAI с вход текст+изображение и изход текст за сложни задачи, изискващи широка обща култура.",
"o3-deep-research.description": "o3-deep-research е нашият най-усъвършенстван модел за дълбоки изследвания при сложни многoетапни задачи. Може да търси в интернет и да има достъп до вашите данни чрез MCP конектори.",
"o3-mini.description": "o3-mini е нашият най-нов малък модел за разсъждение, предлагащ по-висок интелект при същите цели за цена и латентност като o1-mini.",
"o3-pro-2025-06-10.description": "o3 Pro е новият модел за разсъждение на OpenAI с вход текст+изображение и изход текст за сложни задачи, изискващи широка обща култура.",
"o3-pro.description": "o3-pro използва повече изчислителна мощ за по-дълбоко мислене и последователно предоставя по-добри отговори; наличен само чрез Responses API.",
"o3.description": "o3 е мощен универсален модел, който поставя нов стандарт в математиката, науката, програмирането и визуалното разсъждение. Отличава се в техническо писане и следване на инструкции и може да анализира текст, код и изображения при многoетапни проблеми.",
"o4-mini-2025-04-16.description": "o4-mini е модел за разсъждение на OpenAI с вход текст+изображение и изход текст, подходящ за сложни задачи, изискващи широка обща култура, с контекстен прозорец от 200K.",
"o4-mini-deep-research.description": "o4-mini-deep-research е по-бърз и достъпен модел за дълбоки изследвания при сложни многoетапни задачи. Може да търси в интернет и да има достъп до вашите данни чрез MCP конектори.",
"o4-mini.description": "o4-mini е най-новият малък модел от серията o, оптимизиран за бързо и ефективно разсъждение с висока ефективност при задачи, свързани с кодиране и визуализация.",
"open-codestral-mamba.description": "Codestral Mamba е езиков модел Mamba 2, фокусиран върху генериране на код, поддържащ напреднали задачи по програмиране и разсъждение.",
"open-mistral-7b.description": "Mistral 7B е компактен, но високоефективен модел, силен при пакетна обработка и прости задачи като класификация и генериране на текст, с добро разсъждение.",
"open-mistral-nemo.description": "Mistral Nemo е 12B модел, съвместно разработен с Nvidia, предлагащ силно разсъждение и производителност при програмиране с лесна интеграция.",
"open-mixtral-8x22b.description": "Mixtral 8x22B е по-голям MoE модел за сложни задачи, предлагащ силно разсъждение и по-висока производителност.",
"open-mixtral-8x7b.description": "Mixtral 8x7B е разреден MoE модел, който ускорява скоростта на изводите, подходящ за многоезични и задачи по генериране на код.",
"openai/gpt-3.5-turbo-instruct.description": "Сходни възможности с моделите от ерата на GPT-3, съвместим с остарелите крайни точки за допълване, а не за чат.",
"openai/gpt-3.5-turbo.description": "Най-способният и икономичен GPT-3.5 модел на OpenAI, оптимизиран за чат, но все още силен при класически допълнения.",
"openai/gpt-4-turbo.description": "gpt-4-turbo на OpenAI има широка обща култура и експертни познания в различни области, следва сложни инструкции на естествен език и решава трудни проблеми точно. Границата на знанията е април 2023 г. с контекстен прозорец от 128K.",
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini предлага по-ниска латентност и по-добра стойност за задачи със среден контекст.",
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano е ултраевтин и с ниска латентност вариант за чести кратки чатове или класификация.",
"openai/gpt-4.1.description": "Серията GPT-4.1 предлага по-големи контекстни прозорци и по-силни инженерни и разсъждателни възможности.",
"openai/gpt-4o-mini.description": "GPT-4o-mini е бърз, малък вариант на GPT-4o за мултимодални приложения с ниска латентност.",
"openai/gpt-4o.description": "Семейството GPT-4o е Omni моделът на OpenAI с вход текст + изображение и изход текст.",
"openai/gpt-5-chat.description": "GPT-5 Chat е вариант на GPT-5, оптимизиран за разговори с по-ниска латентност за по-добра интерактивност.",
"openai/gpt-5-codex.description": "GPT-5-Codex е вариант на GPT-5, допълнително оптимизиран за програмиране и мащабни работни потоци с код.",
"openai/gpt-5-mini.description": "GPT-5 Mini е по-малък вариант на GPT-5 за сценарии с ниска латентност и ниска цена.",
"openai/gpt-5-nano.description": "GPT-5 Nano е ултракомпактен вариант за сценарии с ограничени изисквания за цена и латентност.",
"openai/gpt-5-pro.description": "GPT-5 Pro е водещият модел на OpenAI, осигуряващ по-силно разсъждение, генериране на код и функции от корпоративен клас, с маршрутизиране при тестово време и по-строги политики за безопасност.",
"openai/gpt-5.1-chat.description": "GPT-5.1 Chat е лек член на семейството GPT-5.1, оптимизиран за разговори с ниска латентност, като същевременно запазва силно разсъждение и изпълнение на инструкции.",
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini е по-малка и по-бърза версия на GPT-5.1-Codex, по-подходяща за сценарии с чувствителност към латентност и цена при програмиране.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex е вариант на GPT-5.1, оптимизиран за софтуерно инженерство и работни потоци по програмиране, подходящ за големи рефакторирания, сложна отстраняване на грешки и дълги автономни задачи по кодиране.",
"openai/gpt-5.1.description": "GPT-5.1 е най-новият водещ модел от серията GPT-5, с значителни подобрения спрямо GPT-5 в общото разсъждение, следване на инструкции и естественост на разговорите, подходящ за широк спектър от задачи.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat е вариантът на ChatGPT за изживяване на най-новите подобрения в разговорите.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: по-интелигентен и прецизен вариант на GPT-5.2 (само чрез Responses API), подходящ за по-трудни проблеми и дълги многoетапни разсъждения.",
"openai/gpt-5.2.description": "GPT-5.2 е водещ модел за програмиране и агентни работни потоци с по-силно разсъждение и производителност при дълъг контекст.",
"openai/gpt-5.description": "GPT-5 е високоефективният модел на OpenAI за широк спектър от производствени и изследователски задачи.",
"openai/gpt-oss-120b.description": "Много способен универсален LLM с силно и контролируемо разсъждение.",
"openai/gpt-oss-20b.description": "Компактен езиков модел с отворени тегла, оптимизиран за ниска латентност и среди с ограничени ресурси, включително локални и edge внедрявания.",
"openai/o1-mini.description": "o1-mini е бърз, икономичен модел за разсъждение, проектиран за програмиране, математика и наука. Има контекст от 128K и граница на знанията от октомври 2023 г.",
"openai/o1-preview.description": "o1 е новият модел за разсъждение на OpenAI за сложни задачи, изискващи широка обща култура. Има контекст от 128K и граница на знанията от октомври 2023 г.",
"openai/o1.description": "OpenAI o1 е водещ модел за разсъждение, създаден за сложни проблеми, изискващи дълбоко мислене, предоставящ силно разсъждение и по-висока точност при многoетапни задачи.",
"openai/o3-mini-high.description": "o3-mini (високо разсъждение) предлага по-висок интелект при същите цели за цена и латентност като o1-mini.",
"openai/o3-mini.description": "o3-mini е най-новият малък модел за разсъждение на OpenAI, който предлага по-висока интелигентност при същите разходи и закъснение като o1-mini.",
"openai/o3.description": "OpenAI o3 е най-мощният модел за разсъждение, поставящ нови стандарти в програмирането, математиката, науката и визуалното възприятие. Отличава се при сложни, многопластови заявки и е особено силен в анализа на изображения, графики и диаграми.",
"openai/o4-mini-high.description": "o4-mini high е модел от висок клас за разсъждение, оптимизиран за бърза и ефективна логика с отлична производителност в програмиране и визуални задачи.",
"openai/o4-mini.description": "OpenAI o4-mini е малък, ефективен модел за разсъждение, подходящ за сценарии с ниско закъснение.",
"openai/text-embedding-3-large.description": "Най-способният embedding модел на OpenAI за задачи на английски и други езици.",
"openai/text-embedding-3-small.description": "Подобрена, високопроизводителна версия на embedding модела ada от OpenAI.",
"openai/text-embedding-ada-002.description": "Наследен embedding модел за текст от OpenAI.",
"openrouter/auto.description": "Въз основа на дължината на контекста, темата и сложността, заявката ви се насочва към Llama 3 70B Instruct, Claude 3.5 Sonnet (със самомодерация) или GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini е предварителен модел, оптимизиран за задачи, свързани с програмиране.",
"oswe-vscode-secondary.description": "Raptor mini е предварителен модел, оптимизиран за задачи, свързани с програмиране.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 е модел, който балансира висока изчислителна ефективност и отлична производителност за разсъждение и агенти.",
"perplexity/sonar-pro.description": "Водещият продукт на Perplexity с търсене в реално време, поддържащ сложни заявки и последващи въпроси.",
"perplexity/sonar-reasoning-pro.description": "Разширен модел, фокусиран върху разсъждение, който генерира chain-of-thought (CoT) с подобрено търсене, включително множество заявки на заявка.",
"perplexity/sonar-reasoning.description": "Модел, фокусиран върху разсъждение, който генерира chain-of-thought (CoT) с подробни обяснения, базирани на търсене.",
"perplexity/sonar.description": "Олекотен продукт на Perplexity с търсене в реално време, по-бърз и по-евтин от Sonar Pro.",
"phi3.description": "Phi-3 е лек отворен модел на Microsoft за ефективна интеграция и мащабно разсъждение.",
"phi3:14b.description": "Phi-3 е лек отворен модел на Microsoft за ефективна интеграция и мащабно разсъждение.",
"pixtral-12b-2409.description": "Pixtral е силен в разбирането на графики/изображения, въпроси и отговори по документи, мултимодално разсъждение и следване на инструкции. Обработва изображения в оригинална резолюция/съотношение и поддържа множество изображения в контекст от 128K.",
"pixtral-large-latest.description": "Pixtral Large е мултимодален отворен модел с 124 милиарда параметъра, базиран на Mistral Large 2 вторият в нашето мултимодално семейство с водещо разбиране на изображения.",
"pro-128k.description": "Spark Pro 128K предлага много голям контекст, обработващ до 128K, идеален за дълги документи, изискващи пълен анализ и логическа последователност, с плавна логика и разнообразна поддръжка на цитиране в сложни дискусии.",
"pro-deepseek-r1.description": "Модел за специализирани корпоративни услуги с включена паралелна обработка.",
"pro-deepseek-v3.description": "Модел за специализирани корпоративни услуги с включена паралелна обработка.",
"qianfan-70b.description": "Qianfan 70B е голям китайски модел за висококачествено генериране и сложно разсъждение.",
"qianfan-8b.description": "Qianfan 8B е среден по размер общ модел, балансиращ разходи и качество за генериране на текст и въпроси/отговори.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K е насочен към разпознаване на намерения и координация на агенти с поддръжка на дълъг контекст.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K е лек агент модел за нискобюджетни многозавойни диалози и работни потоци.",
"qianfan-check-vl.description": "Qianfan Check VL е мултимодален модел за преглед на съдържание, съвместимост между изображение и текст и задачи по разпознаване.",
"qianfan-composition.description": "Qianfan Composition е мултимодален модел за създаване, разбиране и генериране на смесено изображение и текст.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL е мултимодален модел за разпознаване, фокусиран върху английски езикови сценарии.",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B е мултимодален модел, базиран на Llama, за общо разбиране на изображения и текст.",
"qianfan-multipicocr.description": "Qianfan MultiPicOCR е OCR модел за множество изображения, откриващ и разпознаващ текст в различни изображения.",
"qianfan-qi-vl.description": "Qianfan QI VL е мултимодален модел за въпроси и отговори с точна извличане и отговори в сложни сценарии с изображения и текст.",
"qianfan-singlepicocr.description": "Qianfan SinglePicOCR е OCR модел за едно изображение с висока точност при разпознаване на символи.",
"qianfan-vl-70b.description": "Qianfan VL 70B е голям мултимодален езиков модел за сложно разбиране на изображения и текст.",
"qianfan-vl-8b.description": "Qianfan VL 8B е лек мултимодален езиков модел за ежедневни въпроси и анализ на изображения и текст.",
"qvq-72b-preview.description": "QVQ-72B-Preview е експериментален изследователски модел от Qwen, фокусиран върху подобрено визуално разсъждение.",
"qvq-max.description": "Моделът за визуално разсъждение Qwen QVQ поддържа вход от изображения и изход с chain-of-thought, с по-силна производителност в математика, програмиране, визуален анализ, творчество и общи задачи.",
"qvq-plus.description": "Модел за визуално разсъждение с вход от изображения и изход с chain-of-thought. Серията qvq-plus следва qvq-max и предлага по-бързо разсъждение с по-добър баланс между качество и цена.",
"qwen-coder-plus.description": "Модел за програмиране от серията Qwen.",
"qwen-coder-turbo-latest.description": "Модел за програмиране от серията Qwen.",
"qwen-coder-turbo.description": "Модел за програмиране от серията Qwen.",
"qwen-flash.description": "Най-бързият и най-евтин модел от Qwen, идеален за прости задачи.",
"qwen-image-2.0-pro.description": "Моделът от серията Qwen-Image-2.0 пълна версия интегрира генериране на изображения и редактиране на изображения в единна способност. Той поддържа по-професионално рендиране на текст с капацитет до 1k токена за инструкции, предоставя по-деликатни и реалистични визуални текстури, позволява детайлно изобразяване на реалистични сцени и демонстрира по-силно семантично съответствие с подадените инструкции. Пълната версия на модела осигурява най-силната способност за рендиране на текст и най-високото ниво на реализъм в рамките на серията 2.0.",
"qwen-image-2.0.description": "Моделът от серията Qwen-Image-2.0 ускорена версия интегрира генериране на изображения и редактиране на изображения в единна способност. Той поддържа по-професионално рендиране на текст с капацитет до 1k токена за инструкции, предоставя по-изтънчени и реалистични визуални текстури, позволява детайлно изобразяване на реалистични сцени и демонстрира по-силно семантично съответствие с подадените инструкции. Ускорената версия ефективно постига оптималния баланс между качеството и производителността на модела.",
"qwen-image-edit-max.description": "Моделът за редактиране на изображения Qwen поддържа входове за множество изображения и изходи за множество изображения, позволявайки прецизно редактиране на текст в изображения, добавяне, премахване или преместване на обекти, модификация на действия на субекти, трансфер на стил на изображения и подобрени визуални детайли.",
"qwen-image-edit-plus.description": "Моделът за редактиране на изображения Qwen поддържа входове за множество изображения и изходи за множество изображения, позволявайки прецизно редактиране на текст в изображения, добавяне, премахване или преместване на обекти, модификация на действия на субекти, трансфер на стил на изображения и подобрени визуални детайли.",
"qwen-image-edit.description": "Qwen Image Edit е модел за редактиране на изображения, който променя изображения въз основа на входни изображения и текстови подсказки, позволявайки прецизни корекции и творчески трансформации.",
"qwen-image-max.description": "Моделът за генериране на изображения Qwen (серия Max) предоставя подобрена реалистичност и визуална естественост в сравнение със серията Plus, ефективно намалявайки артефактите, генерирани от AI, и демонстрирайки изключителна производителност в човешки външен вид, текстурни детайли и рендиране на текст.",
"qwen-image-plus.description": "Поддържа широк спектър от художествени стилове и е особено умел в рендирането на сложен текст в изображения, позволявайки интегриран дизайн на оформление на изображения и текст.",
"qwen-image.description": "Qwen-Image е универсален модел за генериране на изображения, поддържащ множество художествени стилове и силно рендиране на сложен текст, особено на китайски и английски. Поддържа многострочни оформления, текст на ниво абзац и фини детайли за сложни текстово-визуални оформления.",
"qwen-long.description": "Изключително голям модел от Qwen с дълъг контекст и чат в сценарии с дълги и многодокументни взаимодействия.",
"qwen-math-plus-latest.description": "Qwen Math е езиков модел, специализиран в решаване на математически задачи.",
"qwen-math-plus.description": "Qwen Math е езиков модел, специализиран в решаване на математически задачи.",
"qwen-math-turbo-latest.description": "Qwen Math е езиков модел, специализиран в решаване на математически задачи.",
"qwen-math-turbo.description": "Qwen Math е езиков модел, специализиран в решаване на математически задачи.",
"qwen-max.description": "Изключително голям модел от серията Qwen с мащаб от стотици милиарди параметри, поддържащ китайски, английски и други езици; API моделът зад текущите продукти Qwen2.5.",
"qwen-omni-turbo.description": "Моделите Qwen-Omni поддържат мултимодални входове (видео, аудио, изображения, текст) и изходи в аудио и текстов формат.",
"qwen-plus.description": "Подобрен изключително голям модел от серията Qwen, поддържащ китайски, английски и други езици.",
"qwen-turbo.description": "Qwen Turbo вече няма да се актуализира; заменете го с Qwen Flash. Изключително голям модел от серията Qwen, поддържащ китайски, английски и други езици.",
"qwen-vl-chat-v1.description": "Qwen VL поддържа гъвкави взаимодействия, включително вход от множество изображения, многозавойни въпроси и творчески задачи.",
"qwen-vl-max-latest.description": "Изключително голям мултимодален модел от серията Qwen. В сравнение с подобрената версия, допълнително подобрява визуалното разсъждение и следването на инструкции за по-силно възприятие и когниция.",
"qwen-vl-max.description": "Изключително голям мултимодален модел от серията Qwen. В сравнение с подобрената версия, допълнително подобрява визуалното разсъждение и следването на инструкции за по-силно визуално възприятие и когниция.",
"qwen-vl-ocr.description": "Qwen OCR е модел за извличане на текст от документи, таблици, изображения от изпити и ръкописен текст. Поддържа китайски, английски, френски, японски, корейски, немски, руски, италиански, виетнамски и арабски.",
"qwen-vl-plus-latest.description": "Подобрен голям мултимодален модел от серията Qwen с значителни подобрения в детайлите и разпознаването на текст, поддържащ резолюция над 1 мегапиксел и произволни съотношения.",
"qwen-vl-plus.description": "Подобрен голям мултимодален модел от серията Qwen с значителни подобрения в детайлите и разпознаването на текст, поддържащ резолюция над 1 мегапиксел и произволни съотношения.",
"qwen-vl-v1.description": "Предварително обучен модел, инициализиран от Qwen-7B с добавен визуален модул и вход за изображения с резолюция 448.",
"qwen/qwen-2-7b-instruct.description": "Qwen2 е новата серия LLM модели Qwen. Qwen2 7B е трансформаторен модел, който се отличава с езиково разбиране, многоезичност, програмиране, математика и логическо мислене.",
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 е ново семейство големи езикови модели с по-силни способности за разбиране и генериране.",
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL е най-новата версия на Qwen-VL, постигайки водещи резултати в бенчмаркове за визуално разбиране като MathVista, DocVQA, RealWorldQA и MTVQA. Може да разбира видео с продължителност над 20 минути за висококачествени въпроси и отговори, диалог и създаване на съдържание. Справя се с комплексно разсъждение и вземане на решения, интегрирайки се с мобилни устройства и роботи за действия въз основа на визуален контекст и текстови инструкции. Освен английски и китайски, чете текст в изображения на много езици, включително повечето европейски езици, японски, корейски, арабски и виетнамски.",
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct е един от най-новите LLM модели на Alibaba Cloud. Моделът с 72 милиарда параметъра предлага значителни подобрения в програмирането и математиката, поддържа над 29 езика (включително китайски и английски) и значително подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct е един от най-новите LLM модели на Alibaba Cloud. Моделът с 32 милиарда параметъра предлага значителни подобрения в програмирането и математиката, поддържа над 29 езика (включително китайски и английски) и значително подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"qwen/qwen2.5-7b-instruct.description": "Двуезичен LLM модел за китайски и английски език, обхващащ език, програмиране, математика и логическо мислене.",
"qwen/qwen2.5-coder-32b-instruct.description": "Разширен LLM модел за генериране, анализ и корекция на код на основните програмни езици.",
"qwen/qwen2.5-coder-7b-instruct.description": "Силен среден по размер модел за програмиране с 32K контекст, отличаващ се в многоезично програмиране.",
"qwen/qwen3-14b.description": "Qwen3-14B е 14-милиарден вариант за общо разсъждение и чат сценарии.",
"qwen/qwen3-14b:free.description": "Qwen3-14B е плътен LLM модел с 14.8 милиарда параметъра, създаден за сложни разсъждения и ефективен чат. Превключва между режим на мислене за математика, програмиране и логика и режим без мислене за общ чат. Фино настроен за следване на инструкции, използване на инструменти и творческо писане на над 100 езика и диалекта. Поддържа 32K контекст по подразбиране и се мащабира до 131K с YaRN.",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 е вариантът Instruct от серията Qwen3, балансиращ между многоезично използване на инструкции и сценарии с дълъг контекст.",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 е вариантът Thinking от Qwen3, подсилен за сложни математически и логически задачи.",
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B е MoE модел с 235 милиарда параметъра от Qwen, с 22 милиарда активни при всяко преминаване. Превключва между режим на мислене за сложни разсъждения, математика и код и режим без мислене за ефективен чат. Предлага силно разсъждение, многоезична поддръжка (над 100 езика/диалекта), напреднало следване на инструкции и използване на инструменти. Поддържа 32K контекст по подразбиране и се мащабира до 131K с YaRN.",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B е MoE модел с 235 милиарда параметъра от Qwen, с 22 милиарда активни при всяко преминаване. Превключва между режим на мислене за сложни разсъждения, математика и код и режим без мислене за ефективен чат. Предлага силно разсъждение, многоезична поддръжка (над 100 езика/диалекта), напреднало следване на инструкции и използване на инструменти. Поддържа 32K контекст по подразбиране и се мащабира до 131K с YaRN.",
"qwen/qwen3-30b-a3b.description": "Qwen3 е най-новото поколение LLM модели от Qwen с плътни и MoE архитектури, отличаващи се в разсъждение, многоезична поддръжка и напреднали агентски задачи. Уникалната му способност да превключва между режим на мислене за сложни задачи и режим без мислене за ефективен чат осигурява гъвкава и висококачествена производителност.\n\nQwen3 значително превъзхожда предишни модели като QwQ и Qwen2.5, предоставяйки отлични резултати в математика, програмиране, логическо мислене, творческо писане и интерактивен чат. Вариантът Qwen3-30B-A3B има 30.5 милиарда параметъра (3.3 милиарда активни), 48 слоя, 128 експерта (8 активни на задача) и поддържа до 131K контекст с YaRN, поставяйки нов стандарт за отворени модели.",
"qwen/qwen3-30b-a3b:free.description": "Qwen3 е най-новото поколение LLM модели от Qwen с плътни и MoE архитектури, отличаващи се в разсъждение, многоезична поддръжка и напреднали агентски задачи. Уникалната му способност да превключва между режим на мислене за сложни задачи и режим без мислене за ефективен чат осигурява гъвкава и висококачествена производителност.\n\nQwen3 значително превъзхожда предишни модели като QwQ и Qwen2.5, предоставяйки отлични резултати в математика, програмиране, логическо мислене, творческо писане и интерактивен чат. Вариантът Qwen3-30B-A3B има 30.5 милиарда параметъра (3.3 милиарда активни), 48 слоя, 128 експерта (8 активни на задача) и поддържа до 131K контекст с YaRN, поставяйки нов стандарт за отворени модели.",
"qwen/qwen3-32b.description": "Qwen3-32B е плътен LLM модел с 32.8 милиарда параметъра, оптимизиран за сложни разсъждения и ефективен чат. Превключва между режим на мислене за математика, програмиране и логика и режим без мислене за по-бърз общ чат. Отличава се в следване на инструкции, използване на инструменти и творческо писане на над 100 езика и диалекта. Поддържа 32K контекст по подразбиране и се мащабира до 131K с YaRN.",
"qwen/qwen3-32b:free.description": "Qwen3-32B е плътен LLM модел с 32.8 милиарда параметъра, оптимизиран за сложни разсъждения и ефективен чат. Превключва между режим на мислене за математика, програмиране и логика и режим без мислене за по-бърз общ чат. Отличава се в следване на инструкции, използване на инструменти и творческо писане на над 100 езика и диалекта. Поддържа 32K контекст по подразбиране и се мащабира до 131K с YaRN.",
"qwen/qwen3-8b:free.description": "Qwen3-8B е плътен LLM модел с 8.2 милиарда параметъра, създаден за задачи, изискващи разсъждение, и ефективен чат. Превключва между режим на мислене за математика, програмиране и логика и режим без мислене за общ чат. Фино настроен за следване на инструкции, интеграция с агенти и творческо писане на над 100 езика и диалекта. Поддържа 32K контекст по подразбиране и се мащабира до 131K с YaRN.",
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus е модел от серията Qwen, оптимизиран за по-сложно използване на инструменти и дълготрайни сесии.",
"qwen/qwen3-coder.description": "Qwen3-Coder е част от семейството за генериране на код Qwen3, силен в разбирането и създаването на код от дълги документи.",
"qwen/qwen3-max-preview.description": "Qwen3 Max (преглед) е вариантът Max за напреднало разсъждение и интеграция с инструменти.",
"qwen/qwen3-max.description": "Qwen3 Max е висококласният модел за разсъждение от серията Qwen3, предназначен за многоезично разсъждение и интеграция с инструменти.",
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus е подобрен визуален вариант на Qwen3 с усъвършенствано мултимодално разсъждение и обработка на видео.",
"qwen/qwen3.5-122b-a10b.description": "Qwen3.5-122B-A10B е роден мултимодален голям езиков модел, разработен от екипа на Qwen, с общо 122 милиарда параметри и само 10 милиарда активни параметри. Моделът използва високо ефективна хибридна архитектура, комбинираща Gated Delta Networks със Sparse Mixture of Experts (MoE). Нативно поддържа дължина на контекста от 256K, разширяема до приблизително 1 милион токени. Чрез ранно обучение за сливане моделът постига унифицирани основни способности за визия и език, поддържащи текст, изображения и видео разбиране. Той предоставя отлична производителност в множество бенчмаркове, включително знания, разсъждения, кодиране, агенти, визуално разбиране и многоезични задачи, надминавайки GPT-5-mini и Qwen3-235B-A22B по няколко метрики. Моделът има режим на мислене, активиран по подразбиране, поддържа извикване на инструменти и обхваща 201 езика и диалекта.",
"qwen/qwen3.5-27b.description": "Qwen3.5-27B е роден мултимодален голям езиков модел, разработен от екипа на Qwen, с 27 милиарда параметри. Моделът използва високо ефективна хибридна архитектура, комбинираща Gated Delta Networks със Gated Attention. Нативно поддържа дължина на контекста от 256K, разширяема до приблизително 1 милион токени. Чрез ранно обучение за сливане моделът постига унифицирани основни способности за визия и език, поддържащи текст, изображения и видео разбиране. Той предоставя отлична производителност в множество бенчмаркове, включително разсъждения, кодиране, агенти и визуално разбиране, надминавайки Qwen3-235B-A22B и GPT-5-mini по няколко метрики. Моделът има режим на мислене, активиран по подразбиране, поддържа извикване на инструменти и обхваща 201 езика и диалекта.",
"qwen/qwen3.5-35b-a3b.description": "Qwen3.5-35B-A3B е роден мултимодален голям езиков модел, разработен от екипа на Qwen, с общо 35 милиарда параметри и само 3 милиарда активни параметри. Моделът използва високо ефективна хибридна архитектура, комбинираща Gated Delta Networks със Sparse Mixture of Experts (MoE). Нативно поддържа дължина на контекста от 256K, разширяема до приблизително 1 милион токени. Чрез ранно обучение за сливане моделът постига унифицирани основни способности за визия и език, поддържащи текст, изображения и видео разбиране. Той предоставя отлична производителност в множество бенчмаркове, включително разсъждения, кодиране, агенти и визуално разбиране. Моделът има режим на мислене, активиран по подразбиране, поддържа извикване на инструменти и обхваща 201 езика и диалекта.",
"qwen/qwen3.5-397b-a17b.description": "Qwen3.5-397B-A17B е най-новият модел за визия и език в серията Qwen, с архитектура Mixture of Experts (MoE) и общо 397 милиарда параметри и 17 милиарда активни параметри. Моделът нативно поддържа дължина на контекста от 256K, разширяема до приблизително 1 милион токени. Той поддържа 201 езика и предлага унифицирани способности за разбиране на визия и език, извикване на инструменти и режими на мислене за разсъждение.",
"qwen/qwen3.5-4b.description": "Qwen3.5-4B е роден мултимодален голям езиков модел, разработен от екипа на Qwen, с 4 милиарда параметри, което го прави най-леката плътна архитектура в серията Qwen3.5. Моделът използва високо ефективна хибридна архитектура, комбинираща Gated Delta Networks със Gated Attention. Нативно поддържа дължина на контекста от 256K, разширяема до приблизително 1 милион токени. Чрез ранно обучение за сливане моделът постига унифицирани основни способности за визия и език, поддържащи текст, изображения и видео разбиране. Той предоставя отлична производителност сред модели от подобен размер, надминавайки GPT-5-Nano и Gemini-2.5-Flash-Lite по няколко метрики. Моделът има режим на мислене, активиран по подразбиране, поддържа извикване на инструменти и обхваща 201 езика и диалекта.",
"qwen/qwen3.5-9b.description": "Qwen3.5-9B е роден мултимодален голям езиков модел, разработен от екипа на Qwen, с 9 милиарда параметри. Като лек плътен модел в серията Qwen3.5, той използва високо ефективна хибридна архитектура, комбинираща Gated Delta Networks със Gated Attention. Нативно поддържа дължина на контекста от 256K, разширяема до приблизително 1 милион токени. Чрез ранно обучение за сливане моделът постига унифицирани основни способности за визия и език, поддържащи текст, изображения и видео разбиране. Моделът има режим на мислене, активиран по подразбиране, поддържа извикване на инструменти и обхваща 201 езика и диалекта.",
"qwen2.5-14b-instruct-1m.description": "Qwen2.5 отворен код, модел с 72B параметъра.",
"qwen2.5-14b-instruct.description": "Qwen2.5 отворен код, модел с 14B параметъра.",
"qwen2.5-32b-instruct.description": "Qwen2.5 отворен код, модел с 32B параметъра.",
"qwen2.5-72b-instruct.description": "Qwen2.5 отворен код, модел с 72B параметъра.",
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct е зрял модел с отворен код за чат и генериране в различни сценарии.",
"qwen2.5-coder-1.5b-instruct.description": "Модел за програмиране Qwen с отворен код.",
"qwen2.5-coder-14b-instruct.description": "Модел за програмиране Qwen с отворен код.",
"qwen2.5-coder-32b-instruct.description": "Модел за програмиране Qwen с отворен код.",
"qwen2.5-coder-7b-instruct.description": "Модел за програмиране Qwen с отворен код.",
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder е най-новият модел, фокусиран върху програмиране, от семейството Qwen (преди CodeQwen).",
"qwen2.5-instruct.description": "Qwen2.5 е най-новата серия LLM модели от Qwen, включваща базови и инструкторски модели от 0.5B до 72B параметъра.",
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math предлага силни способности за решаване на математически задачи.",
"qwen2.5-math-72b-instruct.description": "Qwen-Math предлага силни способности за решаване на математически задачи.",
"qwen2.5-math-7b-instruct.description": "Qwen-Math предлага силни способности за решаване на математически задачи.",
"qwen2.5-omni-7b.description": "Моделите Qwen-Omni поддържат мултимодални входове (видео, аудио, изображения, текст) и извеждат аудио и текст.",
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct е мултимодален модел с отворен код, подходящ за частно внедряване и използване в различни сценарии.",
"qwen2.5-vl-72b-instruct.description": "Подобрен следване на инструкции, математика, решаване на задачи и програмиране, с по-силно разпознаване на обекти. Поддържа точно локализиране на визуални елементи във всички формати, разбиране на дълги видеа (до 10 минути) с прецизно времево маркиране, разбиране на последователност и скорост, както и агенти, които могат да управляват ОС или мобилни устройства чрез парсинг и локализация. Силен в извличането на ключова информация и изход в JSON формат. Това е най-мощната версия от серията с 72B параметъра.",
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct е лек мултимодален модел, балансиращ между разходи за внедряване и способности за разпознаване.",
"qwen2.5-vl-instruct.description": "Qwen2.5-VL е най-новият модел за визия и език от семейството Qwen.",
"qwen2.5.description": "Qwen2.5 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen2.5:0.5b.description": "Qwen2.5 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen2.5:1.5b.description": "Qwen2.5 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen2.5:72b.description": "Qwen2.5 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen2.description": "Qwen2 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen2:0.5b.description": "Qwen2 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen2:1.5b.description": "Qwen2 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen2:72b.description": "Qwen2 е следващото поколение голям езиков модел на Alibaba с висока производителност в различни приложения.",
"qwen3-0.6b.description": "Qwen3 0.6B е начален модел за базово разсъждение и силно ограничени среди.",
"qwen3-1.7b.description": "Qwen3 1.7B е ултралек модел за внедряване на устройства и крайни точки.",
"qwen3-14b.description": "Qwen3 14B е среден по размер модел за многоезични въпроси и отговори и генериране на текст.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 е водещ модел с инструкции за широк спектър от задачи по генериране и разсъждение.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 е ултраголям модел за дълбоко разсъждение.",
"qwen3-235b-a22b.description": "Qwen3 е следващо поколение модел Tongyi Qwen с големи подобрения в разсъждението, общите способности, агентските възможности и многоезичната производителност, с поддръжка на превключване между мисловни режими.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 е средно-голям модел с инструкции за висококачествено генериране и въпроси и отговори.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 е средно-голям модел за разсъждение, балансиращ точност и разходи.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B е средно-голям универсален модел, балансиращ между цена и качество.",
"qwen3-32b.description": "Qwen3 32B е подходящ за общи задачи, изискващи по-дълбоко разбиране.",
"qwen3-4b.description": "Qwen3 4B е подходящ за малки до средни приложения и локално извеждане.",
"qwen3-8b.description": "Qwen3 8B е лек модел с гъвкаво внедряване за натоварвания с висока едновременност.",
"qwen3-coder-30b-a3b-instruct.description": "Модел за програмиране Qwen с отворен код. Най-новият qwen3-coder-30b-a3b-instruct е базиран на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct е водещ модел за програмиране с поддръжка на много езици и разбиране на сложен код.",
"qwen3-coder-flash.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder-next.description": "Следващо поколение Qwen кодер, оптимизиран за сложна многокодова генерация, дебъгване и високопроизводителни работни потоци на агенти. Създаден за силна интеграция на инструменти и подобрена производителност на разсъждения.",
"qwen3-coder-plus.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder:480b.description": "Високопроизводителен модел на Alibaba с дълъг контекст за задачи с агенти и програмиране.",
"qwen3-max-2026-01-23.description": "Qwen3 Max: Най-добре представящият се модел Qwen за сложни, многократни задачи по програмиране с поддръжка на мислене.",
"qwen3-max-preview.description": "Най-добре представящият се модел Qwen за сложни, многоетапни задачи. Прегледната версия поддържа разсъждение.",
"qwen3-max.description": "Моделите Qwen3 Max предлагат значителни подобрения спрямо серията 2.5 в общите способности, разбиране на китайски/английски, следване на сложни инструкции, субективни отворени задачи, многоезичност и използване на инструменти, с по-малко халюцинации. Най-новият qwen3-max подобрява програмирането чрез агенти и използването на инструменти спрямо qwen3-max-preview. Тази версия достига водещи резултати в индустрията и е насочена към по-сложни нужди на агентите.",
"qwen3-next-80b-a3b-instruct.description": "Следващо поколение отворен модел Qwen3 без мисловни способности. В сравнение с предишната версия (Qwen3-235B-A22B-Instruct-2507), предлага по-добро разбиране на китайски, по-силна логическа аргументация и подобрено генериране на текст.",
"qwen3-next-80b-a3b-thinking.description": "Qwen3 Next 80B A3B Thinking е водеща версия за мисловни задачи, предназначена за сложни предизвикателства.",
"qwen3-omni-flash.description": "Qwen-Omni приема комбинирани входове от текст, изображения, аудио и видео и генерира текст или реч. Предлага разнообразни естествени гласови стилове, поддържа многоезична и диалектна реч и е подходящ за приложения като писане, визуално разпознаване и гласови асистенти.",
"qwen3-vl-235b-a22b-instruct.description": "Qwen3 VL 235B A22B Instruct е водещ мултимодален модел за взискателно разбиране и създаване на съдържание.",
"qwen3-vl-235b-a22b-thinking.description": "Qwen3 VL 235B A22B Thinking е водеща мисловна версия за сложна мултимодална аргументация и планиране.",
"qwen3-vl-30b-a3b-instruct.description": "Qwen3 VL 30B A3B Instruct е голям мултимодален модел, балансиращ между точност и логическа ефективност.",
"qwen3-vl-30b-a3b-thinking.description": "Qwen3 VL 30B A3B Thinking е дълбокомислеща версия за сложни мултимодални задачи.",
"qwen3-vl-32b-instruct.description": "Qwen3 VL 32B Instruct е мултимодален модел, обучен с инструкции, за висококачествени въпроси и отговори с изображения и създаване на съдържание.",
"qwen3-vl-32b-thinking.description": "Qwen3 VL 32B Thinking е дълбокомислеща мултимодална версия за сложна аргументация и дълговерижна логика.",
"qwen3-vl-8b-instruct.description": "Qwen3 VL 8B Instruct е лек мултимодален модел за ежедневни визуални въпроси и отговори и интеграция в приложения.",
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking е мултимоделен модел с верига на мисълта за детайлна визуална аргументация.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: лек, високоскоростен модел за аргументация, подходящ за заявки с ниска латентност или голям обем.",
"qwen3-vl-plus.description": "Qwen VL е модел за генериране на текст с разбиране на визуално съдържание. Може да извършва OCR, както и обобщаване и логическа обработка, например извличане на атрибути от продуктови снимки или решаване на задачи от изображения.",
"qwen3.5-122b-a10b.description": "Поддържа текстови, визуални и видео входове. За задачи само с текст, неговата производителност е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.",
"qwen3.5-27b.description": "Поддържа текстови, визуални и видео входове. За задачи само с текст, неговата производителност е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.",
"qwen3.5-35b-a3b.description": "Поддържа текстови, визуални и видео входове. За задачи само с текст, неговата производителност е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.",
"qwen3.5-397b-a17b.description": "Поддържа текст, изображения и видео входове. За задачи само с текст, производителността му е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.",
"qwen3.5-flash.description": "Най-бързият и най-нискобюджетен модел Qwen, идеален за прости задачи.",
"qwen3.5-plus.description": "Qwen3.5 Plus поддържа текст, изображения и видео вход. Производителността му при чисто текстови задачи е сравнима с Qwen3 Max, с по-добра производителност и по-ниска цена. Мултимодалните му възможности са значително подобрени в сравнение със серията Qwen3 VL.",
"qwen3.5:397b.description": "Qwen3.5 е обединен модел за визия и език с хибридна архитектура (Mixture-of-Experts + линейно внимание), предлагащ силни мултимодални разсъждения, кодиране и способности за дълъг контекст с 256K контекстен прозорец.",
"qwen3.description": "Qwen3 е следващото поколение голям езиков модел на Alibaba с висока ефективност в разнообразни приложения.",
"qwq-32b-preview.description": "QwQ е експериментален изследователски модел от Qwen, фокусиран върху подобрена аргументация.",
"qwq-32b.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при сложни задачи. QwQ-32B е среден по размер модел, съперничещ на водещи модели като DeepSeek-R1 и o1-mini.",
"qwq-plus.description": "Моделът за аргументация QwQ, обучен върху Qwen2.5, използва подсилено обучение (RL) за значително подобрение в логическите задачи. Основни метрики в математика/код (AIME 24/25, LiveCodeBench) и общи бенчмаркове (IFEval, LiveBench) достигат нивото на DeepSeek-R1.",
"qwq.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при трудни задачи. QwQ-32B е среден по размер модел, който се конкурира с водещи модели като DeepSeek-R1 и o1-mini.",
"qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.",
"r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.",
"solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.",
"solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.",
"solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.",
"sonar-deep-research.description": "Deep Research извършва задълбочени експертни изследвания и ги синтезира в достъпни и приложими доклади.",
"sonar-pro.description": "Разширен продукт за търсене с обосновани резултати за сложни заявки и последващи въпроси.",
"sonar-reasoning-pro.description": "Разширен продукт за търсене с обосновани резултати за сложни заявки и последващи въпроси.",
"sonar-reasoning.description": "Разширен продукт за търсене с обосновани резултати за сложни заявки и последващи въпроси.",
"sonar.description": "Лек продукт с обосновано търсене, по-бърз и по-евтин от Sonar Pro.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 е модел, който балансира висока изчислителна ефективност и отлична производителност за разсъждение и агенти.",
"spark-x.description": "Преглед на възможностите на X2: 1. Въвежда динамично регулиране на режима на разсъждение, контролирано чрез полето `thinking`. 2. Разширена дължина на контекста: 64K входни токени и 128K изходни токени. 3. Поддържа функционалност за извикване на функции.",
"stable-diffusion-3-medium.description": "Най-новият модел за преобразуване на текст в изображение от Stability AI. Тази версия значително подобрява качеството на изображенията, разбирането на текст и стиловото разнообразие, като по-точно интерпретира сложни естественоезикови заявки и генерира по-прецизни и разнообразни изображения.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo използва adversarial diffusion distillation (ADD) върху stable-diffusion-3.5-large за по-висока скорост.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large е текст-към-изображение модел MMDiT с 800 милиона параметъра, предлагащ отлично качество и съответствие с подадените инструкции, поддържащ изображения с резолюция 1 мегапиксел и ефективна работа на потребителски хардуер.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 е инициализиран от контролна точка v1.2 и фино настроен за 595 хиляди стъпки върху „laion-aesthetics v2 5+“ при резолюция 512x512, като намалява влиянието на текстовото условие с 10% за подобрено семплиране без класификатор.",
"stable-diffusion-xl-base-1.0.description": "Модел с отворен код за генериране на изображения от текст от Stability AI, предлагащ водещо в индустрията творческо качество. Притежава силно разбиране на инструкции и поддържа обратни дефиниции на подканите за прецизно генериране.",
"stable-diffusion-xl.description": "stable-diffusion-xl предлага значителни подобрения спрямо v1.5 и съответства на водещите отворени модели за генериране на изображения от текст. Подобренията включват 3 пъти по-голям UNet гръбнак, модул за прецизиране за по-добро качество на изображенията и по-ефективни техники на обучение.",
"step-1-128k.description": "Баланс между производителност и разходи за общи сценарии.",
"step-1-256k.description": "Обработка на изключително дълъг контекст, идеална за анализ на дълги документи.",
"step-1-32k.description": "Поддържа разговори със средна дължина за широк спектър от приложения.",
"step-1-8k.description": "Малък модел, подходящ за леки задачи.",
"step-1-flash.description": "Модел с висока скорост, подходящ за чат в реално време.",
"step-1.5v-mini.description": "Силни възможности за разбиране на видео съдържание.",
"step-1o-turbo-vision.description": "Силно визуално разбиране, надминаващо 1o в математика и програмиране. По-малък от 1o с по-бърз изход.",
"step-1o-vision-32k.description": "Силно визуално разбиране с по-добра визуална производителност от серията Step-1V.",
"step-1v-32k.description": "Поддържа визуални входове за по-богато мултимодално взаимодействие.",
"step-1v-8k.description": "Малък визуален модел за основни задачи с изображения и текст.",
"step-1x-edit.description": "Този модел е фокусиран върху редактиране на изображения, модифицирайки и подобрявайки изображения въз основа на предоставени от потребителя изображения и текст. Поддържа множество входни формати, включително текстови описания и примерни изображения, и генерира редакции, съответстващи на намеренията на потребителя.",
"step-1x-medium.description": "Този модел предлага силно генериране на изображения от текстови подканва. С вградена поддръжка на китайски език, той по-добре разбира китайски описания, улавя тяхната семантика и ги преобразува във визуални характеристики за по-точно генериране. Създава изображения с висока резолюция и качество и поддържа известна степен на трансфер на стил.",
"step-2-16k-exp.description": "Експериментална версия на Step-2 с най-нови функции и текущи актуализации. Не се препоръчва за продукционна употреба.",
"step-2-16k.description": "Поддържа взаимодействия с голям контекст за сложни диалози.",
"step-2-mini.description": "Изграден върху следващото поколение вътрешна архитектура MFA attention, предоставяйки резултати, подобни на Step-1, при значително по-ниска цена, с по-висока пропускателна способност и по-бърза латентност. Обработва общи задачи със силни способности за програмиране.",
"step-2x-large.description": "Модел от ново поколение StepFun за генериране на изображения, създаващ висококачествени изображения от текстови подканва. Осигурява по-реалистична текстура и по-добро визуализиране на китайски/английски текст.",
"step-3.5-flash.description": "Флагманският модел за езиково разсъждение на Stepfun. Този модел има първокласни способности за разсъждение и бързи и надеждни изпълнителни възможности. Може да разлага и планира сложни задачи, бързо и надеждно да извиква инструменти за изпълнение на задачи и да бъде компетентен в различни сложни задачи като логическо разсъждение, математика, софтуерно инженерство и задълбочени изследвания.",
"step-3.description": "Този модел притежава силно визуално възприятие и сложна логика, точно обработва междудомейново знание, анализ между математика и визия и широк спектър от ежедневни визуални задачи.",
"step-r1-v-mini.description": "Модел за логическо разсъждение със силно визуално разбиране, който може да обработва изображения и текст, след което да генерира текст след дълбоко разсъждение. Отличава се във визуално разсъждение и предоставя водещи резултати в математика, програмиране и текстово разсъждение, с контекстен прозорец от 100K.",
"stepfun-ai/step3.description": "Step3 е авангарден модел за мултимодално разсъждение от StepFun, построен върху архитектура MoE с 321 милиарда общи и 38 милиарда активни параметри. Неговият дизайн от край до край минимизира разходите за декодиране, като същевременно осигурява водещо разсъждение за визия и език. С дизайна MFA и AFD, той остава ефективен както на водещи, така и на нискобюджетни ускорители. Предварителното обучение използва над 20 трилиона текстови токени и 4 трилиона токени за изображения-текстове на много езици. Той достига водещи резултати сред модели с отворен код в математика, код и мултимодални бенчмаркове.",
"taichu4_vl_2b_nothinking.description": "Версията без мислене на модела Taichu4.0-VL 2B се отличава с по-ниска употреба на памет, лек дизайн, бърза скорост на отговор и силни способности за мултимодално разбиране.",
"taichu4_vl_32b.description": "Версията с мислене на модела Taichu4.0-VL 32B е подходяща за сложни задачи за мултимодално разбиране и разсъждение, демонстрирайки изключителна производителност в мултимодално математическо разсъждение, мултимодални способности на агенти и общо разбиране на изображения и визуализации.",
"taichu4_vl_32b_nothinking.description": "Версията без мислене на модела Taichu4.0-VL 32B е предназначена за сложни сценарии за разбиране на изображения и текст и визуални въпроси и отговори, превъзхождайки в описания на изображения, визуални въпроси и отговори, разбиране на видео и задачи за визуална локализация.",
"taichu4_vl_3b.description": "Версията с мислене на модела Taichu4.0-VL 3B ефективно изпълнява задачи за мултимодално разбиране и разсъждение, с цялостни подобрения в визуалното разбиране, визуалната локализация, OCR разпознаването и свързаните способности.",
"taichu_llm.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.",
"taichu_llm_14b.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.",
"taichu_llm_2b.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.",
"taichu_o1.description": "taichu_o1 е модел за разсъждение от следващо поколение, който постига човешка верига на мисълта чрез мултимодално взаимодействие и обучение чрез подсилване. Поддържа сложни симулации за вземане на решения и, докато поддържа високопрецизен изход, разкрива интерпретируеми пътища на разсъждение. Подходящ е за анализ на стратегии, дълбоко мислене и подобни сценарии.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct използва общо 80B параметъра с 13B активни, за да съответства на по-големи модели. Поддържа хибридно бързо/бавнопотоцово разсъждение, стабилно разбиране на дълги текстове и водещи способности на агенти в BFCL-v3 и τ-Bench. GQA и мулти-квантови формати позволяват ефективно извеждане.",
"tencent/Hunyuan-MT-7B.description": "Моделът за превод Hunyuan включва Hunyuan-MT-7B и ансамбъла Hunyuan-MT-Chimera. Hunyuan-MT-7B е лек модел с 7B параметъра, поддържащ 33 езика плюс 5 китайски малцинствени езика. В WMT25 заема първо място в 30 от 31 езикови двойки. Tencent Hunyuan използва пълен тренировъчен процес от предобучение до SFT, превод чрез RL и ансамблово RL, постигайки водеща производителност за своя размер с ефективно и лесно внедряване.",
"text-embedding-3-large.description": "Най-способният модел за вграждане за задачи на английски и други езици.",
"text-embedding-3-small.description": "Ефективен, икономичен модел от ново поколение за вграждане, подходящ за извличане и RAG сценарии.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 е двуезичен (китайски/английски) модел с отворени тегла и 32B параметъра, оптимизиран за генериране на код, извикване на функции и агентни задачи. Предобучен върху 15T висококачествени и логически наситени данни и допълнително усъвършенстван чрез подравняване с човешки предпочитания, отхвърляне на проби и RL. Отличава се в сложно разсъждение, генериране на артефакти и структурирани изходи, достигайки нивото на GPT-4o и DeepSeek-V3-0324 в множество бенчмаркове.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 е двуезичен (китайски/английски) модел с отворени тегла и 32B параметъра, оптимизиран за генериране на код, извикване на функции и агентни задачи. Предобучен върху 15T висококачествени и логически наситени данни и допълнително усъвършенстван чрез подравняване с човешки предпочитания, отхвърляне на проби и RL. Отличава се в сложно разсъждение, генериране на артефакти и структурирани изходи, достигайки нивото на GPT-4o и DeepSeek-V3-0324 в множество бенчмаркове.",
"thudm/glm-4-9b-chat.description": "Отворената версия на най-новия предобучен модел GLM-4 от Zhipu AI.",
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 е подобрен вариант на GLM-4-32B, създаден за дълбоко математическо, логическо и кодово разсъждение. Използва разширено RL (специфично за задачи и общо предпочитание по двойки), за да подобри сложни многоетапни задачи. В сравнение с GLM-4-32B, Z1 значително подобрява структурираното разсъждение и способностите в формални домейни.\n\nПоддържа принудително „мислене“ чрез инженеринг на подканите, подобрена кохерентност за дълги изходи и е оптимизиран за агентни работни потоци с дълъг контекст (чрез YaRN), извикване на JSON инструменти и фино семплиране за стабилно разсъждение. Идеален за случаи, изискващи внимателни многоетапни или формални изводи.",
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B е 32B модел за дълбока аргументация от серията GLM-4-Z1, оптимизиран за сложни отворени задачи, изискващи продължително мислене. Изграден върху glm-4-32b-0414, добавя допълнителни етапи с подсилено обучение и многоетапно подравняване, въвеждайки способност за „размисъл“, симулираща разширена когнитивна обработка. Това включва итеративна аргументация, многостъпкова логика и работни потоци с инструменти като търсене, извличане и синтез с позовавания. Отличава се в изследователско писане, сравнителен анализ и сложни въпроси и отговори. Поддържа извикване на функции за търсене/навигация (`search`, `click`, `open`, `finish`) за агентни процеси. Поведението на размисъл се управлява чрез многократни цикли с правила за възнаграждение и отложени решения, тествани спрямо рамки за дълбоки изследвания като вътрешната система за подравняване на OpenAI. Този вариант е фокусиран върху дълбочина, а не скорост.",
"tngtech/deepseek-r1t-chimera:free.description": "DeepSeek-R1T-Chimera е създаден чрез обединяване на DeepSeek-R1 и DeepSeek-V3 (0324), комбинирайки логиката на R1 с ефективността на токените от V3. Базиран е на DeepSeek-MoE Transformer и е оптимизиран за общо генериране на текст. Обединява предварително обучени тегла за баланс между логика, ефективност и следване на инструкции. Пуснат под MIT лиценз за изследователска и търговска употреба.",
"togethercomputer/StripedHyena-Nous-7B.description": "StripedHyena Nous (7B) предлага подобрена изчислителна ефективност чрез своята архитектура и стратегия.",
"tts-1-hd.description": "Най-новият модел за преобразуване на текст в реч, оптимизиран за качество.",
"tts-1.description": "Най-новият модел за преобразуване на текст в реч, оптимизиран за реално време.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) е настроен за прецизни задачи с инструкции с висока езикова ефективност.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поставя нов стандарт в индустрията, надминавайки конкурентите и Claude 3 Opus в широки оценки, като запазва средна скорост и цена.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, подобрява всички умения и надминава предишния флагман Claude 3 Opus в много интелектуални бенчмаркове.",
"v0-1.0-md.description": "v0-1.0-md е наследен модел, достъпен чрез v0 API.",
"v0-1.5-lg.description": "v0-1.5-lg е подходящ за напреднали мисловни или логически задачи.",
"v0-1.5-md.description": "v0-1.5-md е подходящ за ежедневни задачи и генериране на потребителски интерфейси.",
"vercel/v0-1.0-md.description": "Достъп до моделите зад v0 за генериране, корекция и оптимизация на съвременни уеб приложения с логика, специфична за рамката, и актуални знания.",
"vercel/v0-1.5-md.description": "Достъп до моделите зад v0 за генериране, корекция и оптимизация на съвременни уеб приложения с логика, специфична за рамката, и актуални знания.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code е оптимизиран за нуждите на програмиране на корпоративно ниво. Изграден върху отличните възможности на Agent и VLM от Seed 2.0, той специално подобрява способностите за кодиране с изключителна производителност на фронтенда и целенасочена оптимизация за често срещани корпоративни изисквания за многозначно кодиране, което го прави идеален за интеграция с различни AI инструменти за програмиране.",
"volcengine/doubao-seed-2-0-lite.description": "Баланс между качеството на генериране и скоростта на отговор, подходящ като универсален модел за производствени цели.",
"volcengine/doubao-seed-2-0-mini.description": "Посочва най-новата версия на doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Посочва най-новата версия на doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code е LLM на ByteDance Volcano Engine, оптимизиран за агентно програмиране, с висока ефективност в програмиране и агентни бенчмаркове и поддръжка на контекст от 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash е най-новият модел с подобрения в креативността, стабилността и реализма, предоставящ бързо генериране и висока стойност.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus е най-новият модел с подобрения в креативността, стабилността и реализма, произвеждащ по-богати детайли.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview поддържа редактиране на единични изображения и сливане на множество изображения.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I поддържа гъвкав избор на размери на изображения в рамките на общата площ на пикселите и ограниченията на съотношението.",
"wan2.6-image.description": "Wanxiang 2.6 Image поддържа редактиране на изображения и смесен изход на оформление на изображения и текст.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I поддържа гъвкав избор на размери на изображения в рамките на общата площ на пикселите и ограниченията на съотношението (същото като Wanxiang 2.5).",
"wanx-v1.description": "Базов модел за преобразуване на текст в изображение. Съответства на Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Изключителен при текстурирани портрети с умерена скорост и по-ниска цена. Съответства на Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Изцяло обновена версия с по-богати детайли в изображенията и леко по-бавна скорост. Съответства на Tongyi Wanxiang 2.1 Pro.",
"wanx2.1-t2i-turbo.description": "Изцяло обновена версия с бързо генериране, високо общо качество и отлична стойност. Съответства на Tongyi Wanxiang 2.1 Speed.",
"whisper-1.description": "Общ модел за разпознаване на реч с поддръжка на многоезичен ASR, превод на реч и идентификация на език.",
"wizardlm2.description": "WizardLM 2 е езиков модел от Microsoft AI, който се отличава в сложни диалози, многоезични задачи, логика и асистенти.",
"wizardlm2:8x22b.description": "WizardLM 2 е езиков модел от Microsoft AI, който се отличава в сложни диалози, многоезични задачи, логика и асистенти.",
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (Non-Reasoning) е високопроизводителен, нискобюджетен мултимодален модел на xAI (поддържа 2M контекст), подходящ за сценарии, чувствителни към латентност и разходи, които не изискват логика в модела. Работи паралелно с логическата версия на Grok 4 Fast, като логиката може да се активира чрез параметъра reasoning в API.",
"x-ai/grok-4-fast.description": "Grok 4 Fast е високопроизводителен, нискобюджетен модел на xAI (поддържа 2M контекст), идеален за случаи с висока едновременност и дълъг контекст.",
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4 Fast (Non-Reasoning) е високопроизводителен, нискобюджетен мултимодален модел на xAI (поддържа 2M контекст), подходящ за сценарии, чувствителни към латентност и разходи, които не изискват логика в модела. Работи паралелно с логическата версия на Grok 4 Fast, като логиката може да се активира чрез параметъра reasoning в API.",
"x-ai/grok-4.1-fast.description": "Grok 4 Fast е високопроизводителен, нискобюджетен модел на xAI (поддържа 2M контекст), идеален за случаи с висока едновременност и дълъг контекст.",
"x-ai/grok-4.description": "Grok 4 е водещ логически модел на xAI с мощни логически и мултимодални възможности.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 е бърз кодов модел на xAI с четим и удобен за инженеринг изход.",
"x1.description": "Актуализации на X1.5: (1) добавя динамичен режим на мислене, контролиран чрез полето `thinking`; (2) по-голяма дължина на контекста с 64K вход и 64K изход; (3) поддържа FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision се отличава във визуални задачи, постигайки водещи резултати във визуална математическа логика (MathVista) и въпроси и отговори по документи (DocVQA). Обработва документи, диаграми, графики, екранни снимки и снимки.",
"xai/grok-2.description": "Grok 2 е авангарден модел с водеща логика, силен чат, кодиране и логическа ефективност, надминаващ Claude 3.5 Sonnet и GPT-4 Turbo в LMSYS.",
"xai/grok-3-fast.description": "Водещият модел на xAI се отличава в корпоративни приложения като извличане на данни, кодиране и обобщаване, с дълбоки познания в области като финанси, здравеопазване, право и наука. Бързият вариант работи върху по-бърза инфраструктура за значително по-бързи отговори при по-висока цена на токен.",
"xai/grok-3-mini-fast.description": "Лек модел на xAI, който обмисля преди да отговори идеален за прости или логически задачи без необходимост от задълбочени познания в конкретна област. Налични са сурови следи от разсъждения. Бързият вариант работи върху по-бърза инфраструктура за значително по-бързи отговори, но с по-висока цена на токен.",
"xai/grok-3-mini.description": "Лек модел на xAI, който обмисля преди да отговори идеален за прости или логически задачи без необходимост от задълбочени познания в конкретна област. Налични са сурови следи от разсъждения.",
"xai/grok-3.description": "Флагманският модел на xAI се отличава в корпоративни приложения като извличане на данни, програмиране и обобщаване, с дълбоки познания в области като финанси, здравеопазване, право и наука.",
"xai/grok-4.description": "Най-новият флагмански модел на xAI с ненадмината производителност в естествен език, математика и разсъждение идеален универсален модел.",
"yi-large-fc.description": "Изграден върху yi-large с подобрено извикване на инструменти, подходящ за агенти и работни потоци.",
"yi-large-preview.description": "Ранна версия; препоръчва се използването на по-новия yi-large.",
"yi-large-rag.description": "Разширена услуга, базирана на yi-large, която комбинира извличане и генериране за прецизни отговори с търсене в реално време в интернет.",
"yi-large-turbo.description": "Изключителна стойност и производителност, настроен за силен баланс между качество, скорост и цена.",
"yi-large.description": "Нов модел със 100 милиарда параметъра с отлични възможности за въпроси и отговори и генериране на текст.",
"yi-lightning-lite.description": "Олекотена версия; препоръчва се използването на yi-lightning.",
"yi-lightning.description": "Най-нов високопроизводителен модел с по-бързо извеждане и висококачествени резултати.",
"yi-medium-200k.description": "Модел с дълъг контекст от 200K, предназначен за дълбоко разбиране и генериране на дълги текстове.",
"yi-medium.description": "Настроен модел със среден размер с балансирани възможности и стойност, оптимизиран за следване на инструкции.",
"yi-spark.description": "Компактен и бърз модел с подсилени възможности в математика и програмиране.",
"yi-vision-v2.description": "Визуален модел за сложни задачи със силно разбиране и анализ на множество изображения.",
"yi-vision.description": "Визуален модел за сложни задачи със силно разбиране и анализ на изображения.",
"z-ai/glm-4.5-air.description": "GLM 4.5 Air е олекотен вариант на GLM 4.5 за сценарии, чувствителни към разходи, като същевременно запазва силни способности за разсъждение.",
"z-ai/glm-4.5.description": "GLM 4.5 е флагманският модел на Z.AI с хибридно разсъждение, оптимизиран за инженерни и задачи с дълъг контекст.",
"z-ai/glm-4.6.description": "GLM 4.6 е флагманският модел на Z.AI с разширен контекст и подобрени възможности за програмиране.",
"z-ai/glm-4.7.description": "GLM-4.7 е най-новият водещ модел на Zhipu, предлагащ подобрени общи възможности, по-прости и естествени отговори и по-завладяващо писмено изживяване.",
"z-ai/glm4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu, подобрен за сценарии на агентно кодиране с усъвършенствани кодови способности.",
"z-ai/glm5.description": "GLM-5 е новият флагмански основен модел на Zhipu AI за инженеринг на агенти, постигайки отворен източник SOTA производителност в кодиране и способности на агенти. Сравнява се с Claude Opus 4.5 по производителност.",
"z-image-turbo.description": "Z-Image е лек модел за генериране на изображения от текст, който може бързо да произвежда изображения, поддържа както китайско, така и английско рендиране на текст и гъвкаво се адаптира към множество резолюции и съотношения.",
"zai-glm-4.7.description": "Този модел предоставя силна производителност в кодирането с напреднали способности за разсъждение, превъзходно използване на инструменти и подобрена реална производителност в агентни приложения за кодиране.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air е базов модел за агентни приложения с архитектура Mixture-of-Experts. Оптимизиран е за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.",
"zai-org/GLM-4.5V.description": "GLM-4.5V е най-новият визуален езиков модел (VLM) на Zhipu AI, изграден върху флагманския текстов модел GLM-4.5-Air (106B общо, 12B активни) с MoE архитектура за висока производителност при по-ниска цена. Следва пътя на GLM-4.1V-Thinking и добавя 3D-RoPE за подобрено пространствено разсъждение в 3D. Оптимизиран чрез предварително обучение, SFT и RL, обработва изображения, видео и дълги документи и е сред водещите отворени модели в 41 публични мултимодални бенчмарка. Режимът Thinking позволява на потребителите да балансират между скорост и дълбочина.",
"zai-org/GLM-4.6.description": "В сравнение с GLM-4.5, GLM-4.6 разширява контекста от 128K до 200K за по-сложни агентни задачи. Постига по-високи резултати в кодови бенчмаркове и показва по-добра реална производителност в приложения като Claude Code, Cline, Roo Code и Kilo Code, включително по-добро генериране на фронтенд страници. Разсъждението е подобрено и се поддържа използване на инструменти по време на разсъждение, което засилва цялостните възможности. По-добре се интегрира в агентни рамки, подобрява инструментите/търсещите агенти и има по-предпочитан от хора стил на писане и естественост в ролевите сценарии.",
"zai-org/GLM-4.6V.description": "GLM-4.6V постига водеща точност във визуалното разбиране за своя мащаб на параметрите и е първият, който нативно интегрира възможности за извикване на функции в архитектурата на визуалния модел, преодолявайки разликата между \"визуално възприятие\" и \"изпълними действия\" и предоставяйки унифицирана техническа основа за мултимодални агенти в реални бизнес сценарии. Визуалният контекстен прозорец е разширен до 128 хиляди, поддържайки обработка на дълги видео потоци и анализ на изображения с висока резолюция.",
"zai/glm-4.5-air.description": "GLM-4.5 и GLM-4.5-Air са най-новите ни флагмани за агентни приложения, и двата използват MoE. GLM-4.5 има 355B общо и 32B активни параметри на стъпка; GLM-4.5-Air е по-лек с 106B общо и 12B активни.",
"zai/glm-4.5.description": "Серията GLM-4.5 е проектирана за агенти. Флагманският GLM-4.5 комбинира разсъждение, програмиране и агентни умения с 355B общи параметри (32B активни) и предлага два режима на работа като хибридна система за разсъждение.",
"zai/glm-4.5v.description": "GLM-4.5V надгражда GLM-4.5-Air, наследявайки доказани техники от GLM-4.1V-Thinking и мащабира с мощна MoE архитектура с 106 милиарда параметъра.",
"zenmux/auto.description": "ZenMux автоматично избира най-добрия модел по стойност и производителност от поддържаните опции според вашата заявка."
}