mirror of
https://github.com/lobehub/lobehub
synced 2026-04-21 09:37:28 +00:00
3632 lines
345 KiB
JSON
3632 lines
345 KiB
JSON
{
|
||
"01-ai/yi-1.5-34b-chat": {
|
||
"description": "Zero Um, o mais recente modelo de ajuste fino de código aberto, com 34 bilhões de parâmetros, suporta múltiplos cenários de diálogo, com dados de treinamento de alta qualidade, alinhados às preferências humanas."
|
||
},
|
||
"01-ai/yi-1.5-9b-chat": {
|
||
"description": "Zero Um, o mais recente modelo de ajuste fino de código aberto, com 9 bilhões de parâmetros, suporta múltiplos cenários de diálogo, com dados de treinamento de alta qualidade, alinhados às preferências humanas."
|
||
},
|
||
"360/deepseek-r1": {
|
||
"description": "【Versão implantada 360】DeepSeek-R1 utilizou amplamente técnicas de aprendizado por reforço na fase de pós-treinamento, melhorando significativamente a capacidade de inferência do modelo com apenas poucos dados rotulados. Em tarefas de matemática, código e raciocínio em linguagem natural, seu desempenho é comparável à versão oficial OpenAI o1."
|
||
},
|
||
"360gpt-pro": {
|
||
"description": "360GPT Pro, como um membro importante da série de modelos de IA da 360, atende a diversas aplicações de linguagem natural com sua capacidade eficiente de processamento de texto, suportando compreensão de longos textos e diálogos em múltiplas rodadas."
|
||
},
|
||
"360gpt-pro-trans": {
|
||
"description": "Modelo dedicado à tradução, otimizado com ajuste fino profundo, com resultados de tradução líderes."
|
||
},
|
||
"360gpt-turbo": {
|
||
"description": "360GPT Turbo oferece poderosas capacidades de computação e diálogo, com excelente compreensão semântica e eficiência de geração, sendo a solução ideal de assistente inteligente para empresas e desenvolvedores."
|
||
},
|
||
"360gpt-turbo-responsibility-8k": {
|
||
"description": "360GPT Turbo Responsibility 8K enfatiza segurança semântica e responsabilidade, projetado especificamente para cenários de aplicação com altas exigências de segurança de conteúdo, garantindo precisão e robustez na experiência do usuário."
|
||
},
|
||
"360gpt2-o1": {
|
||
"description": "O 360gpt2-o1 utiliza busca em árvore para construir cadeias de pensamento e introduz um mecanismo de reflexão, sendo treinado com aprendizado por reforço, o modelo possui a capacidade de auto-reflexão e correção de erros."
|
||
},
|
||
"360gpt2-pro": {
|
||
"description": "360GPT2 Pro é um modelo avançado de processamento de linguagem natural lançado pela 360, com excelente capacidade de geração e compreensão de texto, destacando-se especialmente na geração e criação de conteúdo, capaz de lidar com tarefas complexas de conversão de linguagem e interpretação de papéis."
|
||
},
|
||
"360zhinao2-o1": {
|
||
"description": "O 360zhinao2-o1 utiliza busca em árvore para construir cadeias de pensamento e introduz um mecanismo de reflexão, utilizando aprendizado por reforço para treinar, permitindo que o modelo tenha a capacidade de auto-reflexão e correção de erros."
|
||
},
|
||
"4.0Ultra": {
|
||
"description": "Spark4.0 Ultra é a versão mais poderosa da série de grandes modelos Xinghuo, que, ao atualizar a conexão de busca online, melhora a capacidade de compreensão e resumo de conteúdo textual. É uma solução abrangente para aumentar a produtividade no trabalho e responder com precisão às demandas, sendo um produto inteligente líder na indústria."
|
||
},
|
||
"AnimeSharp": {
|
||
"description": "AnimeSharp (também conhecido como “4x‑AnimeSharp”) é um modelo de super-resolução open source desenvolvido por Kim2091 baseado na arquitetura ESRGAN, focado em ampliação e nitidez de imagens no estilo anime. Renomeado em fevereiro de 2022 a partir de “4x-TextSharpV1”, originalmente também aplicável a imagens de texto, mas com desempenho significativamente otimizado para conteúdo de anime."
|
||
},
|
||
"Baichuan2-Turbo": {
|
||
"description": "Utiliza tecnologia de busca aprimorada para conectar completamente o grande modelo com conhecimento de domínio e conhecimento da web. Suporta upload de vários documentos, como PDF e Word, e entrada de URLs, garantindo acesso a informações de forma rápida e abrangente, com resultados precisos e profissionais."
|
||
},
|
||
"Baichuan3-Turbo": {
|
||
"description": "Otimizado para cenários de alta frequência empresarial, com melhorias significativas de desempenho e excelente custo-benefício. Em comparação com o modelo Baichuan2, a criação de conteúdo aumentou em 20%, a resposta a perguntas de conhecimento em 17% e a capacidade de interpretação de papéis em 40%. O desempenho geral é superior ao do GPT-3.5."
|
||
},
|
||
"Baichuan3-Turbo-128k": {
|
||
"description": "Possui uma janela de contexto ultra longa de 128K, otimizada para cenários de alta frequência empresarial, com melhorias significativas de desempenho e excelente custo-benefício. Em comparação com o modelo Baichuan2, a criação de conteúdo aumentou em 20%, a resposta a perguntas de conhecimento em 17% e a capacidade de interpretação de papéis em 40%. O desempenho geral é superior ao do GPT-3.5."
|
||
},
|
||
"Baichuan4": {
|
||
"description": "O modelo é o melhor do país, superando modelos estrangeiros em tarefas em chinês, como enciclopédias, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes na indústria, com desempenho excepcional em várias avaliações de referência."
|
||
},
|
||
"Baichuan4-Air": {
|
||
"description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
|
||
},
|
||
"Baichuan4-Turbo": {
|
||
"description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
|
||
},
|
||
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
|
||
"description": "Seed-OSS é uma série de grandes modelos de linguagem de código aberto desenvolvidos pela equipe Seed da ByteDance, projetados para processamento poderoso de contexto longo, raciocínio, agentes inteligentes e capacidades gerais. O Seed-OSS-36B-Instruct desta série é um modelo ajustado por instruções com 36 bilhões de parâmetros, que suporta nativamente comprimentos de contexto ultra longos, permitindo processar grandes volumes de documentos ou bases de código complexas de uma só vez. Este modelo é especialmente otimizado para tarefas de raciocínio, geração de código e agentes (como uso de ferramentas), mantendo um equilíbrio e desempenho geral excelentes. Uma característica marcante deste modelo é a função \"Orçamento de Pensamento\" (Thinking Budget), que permite aos usuários ajustar flexivelmente o comprimento do raciocínio conforme necessário, melhorando efetivamente a eficiência do raciocínio em aplicações práticas."
|
||
},
|
||
"DeepSeek-R1": {
|
||
"description": "LLM eficiente de ponta, especializado em raciocínio, matemática e programação."
|
||
},
|
||
"DeepSeek-R1-Distill-Llama-70B": {
|
||
"description": "DeepSeek R1 — o modelo maior e mais inteligente do conjunto DeepSeek — foi destilado para a arquitetura Llama 70B. Com base em testes de benchmark e avaliações humanas, este modelo é mais inteligente do que o Llama 70B original, destacando-se especialmente em tarefas que exigem precisão matemática e factual."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-1.5B": {
|
||
"description": "Modelo de destilação DeepSeek-R1 baseado no Qwen2.5-Math-1.5B, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-14B": {
|
||
"description": "Modelo de destilação DeepSeek-R1 baseado no Qwen2.5-14B, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-32B": {
|
||
"description": "A série DeepSeek-R1 otimiza o desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas, superando o nível do OpenAI-o1-mini."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-7B": {
|
||
"description": "Modelo de destilação DeepSeek-R1 baseado no Qwen2.5-Math-7B, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
|
||
},
|
||
"DeepSeek-V3": {
|
||
"description": "DeepSeek-V3 é um modelo MoE desenvolvido internamente pela DeepSeek. Os resultados de várias avaliações do DeepSeek-V3 superaram outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho é comparável aos melhores modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet."
|
||
},
|
||
"DeepSeek-V3-1": {
|
||
"description": "DeepSeek V3.1: modelo de inferência de próxima geração, aprimorado para raciocínio complexo e pensamento em cadeia, ideal para tarefas que exigem análise profunda."
|
||
},
|
||
"DeepSeek-V3-Fast": {
|
||
"description": "Fornecedor do modelo: plataforma sophnet. DeepSeek V3 Fast é a versão de alta velocidade e alto TPS do DeepSeek V3 0324, totalmente não quantificada, com capacidades aprimoradas de código e matemática, respondendo de forma mais rápida!"
|
||
},
|
||
"DeepSeek-V3.1-Fast": {
|
||
"description": "DeepSeek V3.1 Fast é a versão de alta TPS e alta velocidade do DeepSeek V3.1. Modo híbrido de pensamento: através da alteração do template de chat, um único modelo pode suportar simultaneamente os modos com e sem pensamento. Chamadas de ferramentas mais inteligentes: com otimização pós-treinamento, o desempenho do modelo no uso de ferramentas e em tarefas de agentes foi significativamente melhorado."
|
||
},
|
||
"DeepSeek-V3.1-Think": {
|
||
"description": "DeepSeek-V3.1 - modo com pensamento; DeepSeek-V3.1 é um novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Otimizado pós-treinamento, o uso de ferramentas por agentes e o desempenho em tarefas de agentes foram significativamente aprimorados."
|
||
},
|
||
"Doubao-lite-128k": {
|
||
"description": "Doubao-lite oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 128k."
|
||
},
|
||
"Doubao-lite-32k": {
|
||
"description": "Doubao-lite oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 32k."
|
||
},
|
||
"Doubao-lite-4k": {
|
||
"description": "Doubao-lite oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 4k."
|
||
},
|
||
"Doubao-pro-128k": {
|
||
"description": "Modelo principal com melhor desempenho, adequado para tarefas complexas, apresentando ótimos resultados em perguntas de referência, resumos, criação, classificação de texto, interpretação de papéis e outros cenários. Suporta inferência e fine-tuning com janela de contexto de 128k."
|
||
},
|
||
"Doubao-pro-32k": {
|
||
"description": "Modelo principal com melhor desempenho, adequado para tarefas complexas, apresentando ótimos resultados em perguntas de referência, resumos, criação, classificação de texto, interpretação de papéis e outros cenários. Suporta inferência e fine-tuning com janela de contexto de 32k."
|
||
},
|
||
"Doubao-pro-4k": {
|
||
"description": "Modelo principal com melhor desempenho, adequado para tarefas complexas, apresentando ótimos resultados em perguntas de referência, resumos, criação, classificação de texto, interpretação de papéis e outros cenários. Suporta inferência e fine-tuning com janela de contexto de 4k."
|
||
},
|
||
"DreamO": {
|
||
"description": "DreamO é um modelo open source de geração de imagens customizadas desenvolvido em parceria pela ByteDance e pela Universidade de Pequim, projetado para suportar geração multitarefa de imagens através de uma arquitetura unificada. Utiliza um método eficiente de modelagem combinada para gerar imagens altamente consistentes e personalizadas com base em múltiplas condições especificadas pelo usuário, como identidade, sujeito, estilo e fundo."
|
||
},
|
||
"ERNIE-3.5-128K": {
|
||
"description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
|
||
},
|
||
"ERNIE-3.5-8K": {
|
||
"description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
|
||
},
|
||
"ERNIE-3.5-8K-Preview": {
|
||
"description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
|
||
},
|
||
"ERNIE-4.0-8K-Latest": {
|
||
"description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas."
|
||
},
|
||
"ERNIE-4.0-8K-Preview": {
|
||
"description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas."
|
||
},
|
||
"ERNIE-4.0-Turbo-8K-Latest": {
|
||
"description": "Modelo de linguagem de última geração desenvolvido pela Baidu, com desempenho excepcional em uma ampla gama de cenários de tarefas complexas; suporta integração automática com plugins de busca da Baidu, garantindo a relevância da informação nas respostas. Supera o desempenho do ERNIE 4.0."
|
||
},
|
||
"ERNIE-4.0-Turbo-8K-Preview": {
|
||
"description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, com desempenho excepcional em resultados gerais, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
|
||
},
|
||
"ERNIE-Character-8K": {
|
||
"description": "Modelo de linguagem vertical desenvolvido pela Baidu, adequado para aplicações como NPCs em jogos, diálogos de atendimento ao cliente e interpretação de personagens em diálogos, com estilos de personagem mais distintos e consistentes, maior capacidade de seguir instruções e desempenho de inferência superior."
|
||
},
|
||
"ERNIE-Lite-Pro-128K": {
|
||
"description": "Modelo de linguagem leve desenvolvido pela Baidu, que combina excelente desempenho do modelo com eficiência de inferência, apresentando resultados superiores ao ERNIE Lite, adequado para uso em inferência com placas de aceleração de IA de baixo poder computacional."
|
||
},
|
||
"ERNIE-Speed-128K": {
|
||
"description": "Modelo de linguagem de alto desempenho desenvolvido pela Baidu, lançado em 2024, com capacidades gerais excepcionais, adequado como modelo base para ajuste fino, melhorando o tratamento de problemas em cenários específicos, enquanto mantém excelente desempenho de inferência."
|
||
},
|
||
"ERNIE-Speed-Pro-128K": {
|
||
"description": "Modelo de linguagem de alto desempenho desenvolvido pela Baidu, lançado em 2024, com capacidades gerais excepcionais, apresentando resultados superiores ao ERNIE Speed, adequado como modelo base para ajuste fino, melhorando o tratamento de problemas em cenários específicos, enquanto mantém excelente desempenho de inferência."
|
||
},
|
||
"FLUX-1.1-pro": {
|
||
"description": "FLUX.1.1 Pro"
|
||
},
|
||
"FLUX.1-Kontext-dev": {
|
||
"description": "FLUX.1-Kontext-dev é um modelo multimodal de geração e edição de imagens desenvolvido pela Black Forest Labs, baseado na arquitetura Rectified Flow Transformer, com 12 bilhões de parâmetros, focado em gerar, reconstruir, aprimorar ou editar imagens sob condições contextuais fornecidas. Combina as vantagens da geração controlada de modelos de difusão com a capacidade de modelagem contextual dos Transformers, suportando saída de imagens de alta qualidade e aplicável a tarefas como restauração, preenchimento e reconstrução visual de cenas."
|
||
},
|
||
"FLUX.1-Kontext-pro": {
|
||
"description": "FLUX.1 Kontext [pro]"
|
||
},
|
||
"FLUX.1-dev": {
|
||
"description": "FLUX.1-dev é um modelo multimodal de linguagem open source desenvolvido pela Black Forest Labs, otimizado para tarefas de texto e imagem, integrando capacidades de compreensão e geração de imagens e texto. Baseado em avançados modelos de linguagem como Mistral-7B, utiliza codificadores visuais cuidadosamente projetados e ajuste fino em múltiplas etapas para alcançar processamento colaborativo de texto e imagem e raciocínio complexo."
|
||
},
|
||
"Gryphe/MythoMax-L2-13b": {
|
||
"description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas."
|
||
},
|
||
"HelloMeme": {
|
||
"description": "HelloMeme é uma ferramenta de IA que gera automaticamente memes, GIFs ou vídeos curtos a partir de imagens ou ações fornecidas por você. Não requer habilidades de desenho ou programação; basta fornecer imagens de referência, e ela cria conteúdos visualmente atraentes, divertidos e com estilo consistente."
|
||
},
|
||
"HiDream-I1-Full": {
|
||
"description": "HiDream-E1-Full é um grande modelo open source de edição multimodal de imagens lançado pela HiDream.ai, baseado na avançada arquitetura Diffusion Transformer e integrado com forte capacidade de compreensão linguística (incorporando LLaMA 3.1-8B-Instruct). Suporta geração de imagens, transferência de estilo, edição local e repintura de conteúdo via comandos em linguagem natural, com excelente compreensão e execução texto-imagem."
|
||
},
|
||
"HunyuanDiT-v1.2-Diffusers-Distilled": {
|
||
"description": "hunyuandit-v1.2-distilled é um modelo leve de geração de imagens a partir de texto, otimizado por destilação para gerar imagens de alta qualidade rapidamente, especialmente adequado para ambientes com recursos limitados e tarefas de geração em tempo real."
|
||
},
|
||
"InstantCharacter": {
|
||
"description": "InstantCharacter é um modelo de geração personalizada de personagens lançado pela equipe de IA da Tencent em 2025, que não requer ajuste fino (tuning-free), visando gerar personagens consistentes e de alta fidelidade em múltiplos cenários. Suporta modelagem de personagens a partir de uma única imagem de referência e permite transferir esses personagens para diversos estilos, ações e fundos de forma flexível."
|
||
},
|
||
"InternVL2-8B": {
|
||
"description": "InternVL2-8B é um poderoso modelo de linguagem visual, que suporta processamento multimodal de imagens e textos, capaz de identificar com precisão o conteúdo da imagem e gerar descrições ou respostas relevantes."
|
||
},
|
||
"InternVL2.5-26B": {
|
||
"description": "InternVL2.5-26B é um poderoso modelo de linguagem visual, que suporta processamento multimodal de imagens e textos, capaz de identificar com precisão o conteúdo da imagem e gerar descrições ou respostas relevantes."
|
||
},
|
||
"Kolors": {
|
||
"description": "Kolors é um modelo de geração de imagens a partir de texto desenvolvido pela equipe Kolors da Kuaishou. Treinado com bilhões de parâmetros, apresenta vantagens significativas em qualidade visual, compreensão semântica do chinês e renderização de texto."
|
||
},
|
||
"Kwai-Kolors/Kolors": {
|
||
"description": "Kolors é um modelo de geração de imagens a partir de texto em larga escala baseado em difusão latente, desenvolvido pela equipe Kolors da Kuaishou. Treinado com bilhões de pares texto-imagem, destaca-se na qualidade visual, precisão semântica complexa e renderização de caracteres em chinês e inglês. Suporta entrada em chinês e inglês, com desempenho excepcional na compreensão e geração de conteúdos específicos em chinês."
|
||
},
|
||
"Kwaipilot/KAT-Dev": {
|
||
"description": "KAT-Dev (32B) é um modelo de código aberto com 32 bilhões de parâmetros, projetado especialmente para tarefas de engenharia de software. No benchmark SWE-Bench Verified, alcançou uma taxa de resolução de 62,4%, classificando-se em quinto lugar entre todos os modelos de código aberto de diferentes tamanhos. O modelo foi otimizado por meio de várias etapas, incluindo treinamento intermediário, ajuste supervisionado (SFT) e aprendizado por reforço (RL), com o objetivo de oferecer suporte robusto para tarefas complexas de programação, como autocompletar código, correção de bugs e revisão de código."
|
||
},
|
||
"Llama-3.2-11B-Vision-Instruct": {
|
||
"description": "Capacidade de raciocínio de imagem excepcional em imagens de alta resolução, adequada para aplicações de compreensão visual."
|
||
},
|
||
"Llama-3.2-90B-Vision-Instruct\t": {
|
||
"description": "Capacidade avançada de raciocínio de imagem para aplicações de agentes de compreensão visual."
|
||
},
|
||
"Meta-Llama-3-3-70B-Instruct": {
|
||
"description": "Llama 3.3 70B: modelo Transformer versátil, adequado para tarefas de diálogo e geração."
|
||
},
|
||
"Meta-Llama-3.1-405B-Instruct": {
|
||
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogos multilíngues, apresentando desempenho superior em muitos modelos de chat de código aberto e fechados em benchmarks da indústria."
|
||
},
|
||
"Meta-Llama-3.1-70B-Instruct": {
|
||
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogos multilíngues, apresentando desempenho superior em muitos modelos de chat de código aberto e fechados em benchmarks da indústria."
|
||
},
|
||
"Meta-Llama-3.1-8B-Instruct": {
|
||
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogos multilíngues, apresentando desempenho superior em muitos modelos de chat de código aberto e fechados em benchmarks da indústria."
|
||
},
|
||
"Meta-Llama-3.2-1B-Instruct": {
|
||
"description": "Modelo de linguagem pequeno de ponta, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
||
},
|
||
"Meta-Llama-3.2-3B-Instruct": {
|
||
"description": "Modelo de linguagem pequeno de ponta, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
||
},
|
||
"Meta-Llama-3.3-70B-Instruct": {
|
||
"description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo de 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechados em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
|
||
},
|
||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
||
"description": "Llama 4 Maverick: modelo de grande escala baseado em Mixture-of-Experts, oferecendo uma estratégia eficiente de ativação de especialistas para desempenho superior em inferência."
|
||
},
|
||
"MiniMax-M1": {
|
||
"description": "Novo modelo de inferência desenvolvido internamente. Líder global: 80 mil cadeias de raciocínio x 1 milhão de entradas, com desempenho comparável aos melhores modelos internacionais."
|
||
},
|
||
"MiniMax-M2": {
|
||
"description": "Projetado especialmente para codificação eficiente e fluxos de trabalho com agentes."
|
||
},
|
||
"MiniMax-M2-Stable": {
|
||
"description": "Projetado para codificação eficiente e fluxos de trabalho com agentes, com alta concorrência e uso comercial."
|
||
},
|
||
"MiniMax-Text-01": {
|
||
"description": "Na série de modelos MiniMax-01, fizemos inovações ousadas: pela primeira vez, implementamos em larga escala um mecanismo de atenção linear, tornando a arquitetura Transformer tradicional não mais a única opção. Este modelo possui um total de 456 bilhões de parâmetros, com 45,9 bilhões ativados em uma única vez. O desempenho geral do modelo é comparável aos melhores modelos internacionais, enquanto lida eficientemente com contextos de até 4 milhões de tokens, 32 vezes mais que o GPT-4o e 20 vezes mais que o Claude-3.5-Sonnet."
|
||
},
|
||
"MiniMaxAI/MiniMax-M1-80k": {
|
||
"description": "MiniMax-M1 é um modelo de inferência de atenção mista em grande escala com pesos abertos, possuindo 456 bilhões de parâmetros, com cerca de 45,9 bilhões de parâmetros ativados por token. O modelo suporta nativamente contextos ultra longos de 1 milhão de tokens e, graças ao mecanismo de atenção relâmpago, economiza 75% do custo computacional em operações de ponto flutuante em tarefas de geração com 100 mil tokens, em comparação com o DeepSeek R1. Além disso, MiniMax-M1 utiliza a arquitetura MoE (Mistura de Especialistas), combinando o algoritmo CISPO e um design eficiente de atenção mista para treinamento reforçado, alcançando desempenho líder na indústria em inferência de entradas longas e cenários reais de engenharia de software."
|
||
},
|
||
"MiniMaxAI/MiniMax-M2": {
|
||
"description": "O MiniMax-M2 redefine a eficiência para agentes inteligentes. É um modelo MoE compacto, rápido e econômico, com 230 bilhões de parâmetros totais e 10 bilhões de parâmetros ativos, projetado para oferecer desempenho de ponta em tarefas de codificação e agentes, mantendo uma inteligência geral robusta. Com apenas 10 bilhões de parâmetros ativos, o MiniMax-M2 oferece desempenho comparável a modelos de grande escala, tornando-se a escolha ideal para aplicações de alta eficiência."
|
||
},
|
||
"Moonshot-Kimi-K2-Instruct": {
|
||
"description": "Com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativados, este modelo não reflexivo alcança níveis de ponta em conhecimento avançado, matemática e codificação, sendo especialmente apto para tarefas gerais de agentes. Otimizado para tarefas de agentes, não apenas responde perguntas, mas também pode agir. Ideal para conversas improvisadas, experiências gerais de chat e agentes, funcionando como um modelo reflexivo sem necessidade de longos processos de pensamento."
|
||
},
|
||
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
||
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) é um modelo de instrução de alta precisão, adequado para cálculos complexos."
|
||
},
|
||
"OmniConsistency": {
|
||
"description": "OmniConsistency melhora a consistência de estilo e a capacidade de generalização em tarefas de imagem para imagem (Image-to-Image) ao introduzir grandes Diffusion Transformers (DiTs) e dados estilizados pareados, evitando a degradação do estilo."
|
||
},
|
||
"Phi-3-medium-128k-instruct": {
|
||
"description": "Mesmo modelo Phi-3-medium, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
|
||
},
|
||
"Phi-3-medium-4k-instruct": {
|
||
"description": "Um modelo de 14B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade."
|
||
},
|
||
"Phi-3-mini-128k-instruct": {
|
||
"description": "Mesmo modelo Phi-3-mini, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
|
||
},
|
||
"Phi-3-mini-4k-instruct": {
|
||
"description": "O menor membro da família Phi-3. Otimizado tanto para qualidade quanto para baixa latência."
|
||
},
|
||
"Phi-3-small-128k-instruct": {
|
||
"description": "Mesmo modelo Phi-3-small, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
|
||
},
|
||
"Phi-3-small-8k-instruct": {
|
||
"description": "Um modelo de 7B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade."
|
||
},
|
||
"Phi-3.5-mini-instruct": {
|
||
"description": "Versão atualizada do modelo Phi-3-mini."
|
||
},
|
||
"Phi-3.5-vision-instrust": {
|
||
"description": "Versão atualizada do modelo Phi-3-vision."
|
||
},
|
||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||
"description": "Qwen2-7B-Instruct é um modelo de linguagem de grande escala com ajuste fino para instruções na série Qwen2, com um tamanho de parâmetro de 7B. Este modelo é baseado na arquitetura Transformer, utilizando funções de ativação SwiGLU, viés de atenção QKV e atenção de consulta em grupo. Ele é capaz de lidar com entradas em larga escala. O modelo se destaca em compreensão de linguagem, geração, capacidade multilíngue, codificação, matemática e raciocínio em vários benchmarks, superando a maioria dos modelos de código aberto e demonstrando competitividade comparável a modelos proprietários em algumas tarefas. O Qwen2-7B-Instruct superou o Qwen1.5-7B-Chat em várias avaliações, mostrando melhorias significativas de desempenho."
|
||
},
|
||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||
"description": "Qwen2.5-7B-Instruct é um dos mais recentes modelos de linguagem de grande escala lançados pela Alibaba Cloud. Este modelo de 7B apresenta melhorias significativas em áreas como codificação e matemática. O modelo também oferece suporte multilíngue, abrangendo mais de 29 idiomas, incluindo chinês e inglês. O modelo teve melhorias significativas em seguir instruções, entender dados estruturados e gerar saídas estruturadas (especialmente JSON)."
|
||
},
|
||
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
|
||
"description": "Qwen2.5-Coder-7B-Instruct é a versão mais recente da série de modelos de linguagem de grande escala específicos para código lançada pela Alibaba Cloud. Este modelo, baseado no Qwen2.5, foi treinado com 55 trilhões de tokens, melhorando significativamente a capacidade de geração, raciocínio e correção de código. Ele não apenas aprimora a capacidade de codificação, mas também mantém as vantagens em matemática e habilidades gerais. O modelo fornece uma base mais abrangente para aplicações práticas, como agentes de código."
|
||
},
|
||
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
|
||
"description": "Qwen2.5-VL é o novo membro da série Qwen, com capacidades avançadas de compreensão visual. Ele pode analisar textos, gráficos e layouts em imagens, compreender vídeos longos e capturar eventos. Capaz de realizar raciocínios, manipular ferramentas, suporta localização de objetos em múltiplos formatos e geração de saídas estruturadas. Otimiza a compreensão de vídeos através de treinamento com resolução dinâmica e taxa de quadros, além de melhorar a eficiência do codificador visual."
|
||
},
|
||
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
|
||
"description": "GLM-4.1V-9B-Thinking é um modelo de linguagem visual (VLM) de código aberto lançado em conjunto pela Zhipu AI e pelo Laboratório KEG da Universidade de Tsinghua, projetado para lidar com tarefas cognitivas multimodais complexas. Este modelo é baseado no modelo base GLM-4-9B-0414 e melhora significativamente sua capacidade e estabilidade de raciocínio multimodal ao introduzir o mecanismo de raciocínio \"Chain-of-Thought\" (Cadeia de Pensamento) e adotar estratégias de aprendizado por reforço."
|
||
},
|
||
"Pro/THUDM/glm-4-9b-chat": {
|
||
"description": "GLM-4-9B-Chat é a versão de código aberto da série de modelos pré-treinados GLM-4 lançada pela Zhipu AI. Este modelo se destaca em semântica, matemática, raciocínio, código e conhecimento. Além de suportar diálogos de múltiplas rodadas, o GLM-4-9B-Chat também possui recursos avançados como navegação na web, execução de código, chamadas de ferramentas personalizadas (Function Call) e raciocínio de longo texto. O modelo suporta 26 idiomas, incluindo chinês, inglês, japonês, coreano e alemão. Em vários benchmarks, o GLM-4-9B-Chat demonstrou desempenho excepcional, como AlignBench-v2, MT-Bench, MMLU e C-Eval. O modelo suporta um comprimento de contexto máximo de 128K, adequado para pesquisa acadêmica e aplicações comerciais."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-R1": {
|
||
"description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho de inferência. Ele se compara ao OpenAI-o1 em tarefas matemáticas, de código e de inferência, e melhora o desempenho geral por meio de métodos de treinamento cuidadosamente projetados."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-7B é um modelo obtido por destilação de conhecimento baseado no Qwen2.5-Math-7B. Este modelo foi refinado usando 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando excelente capacidade de raciocínio. Apresenta desempenho destacado em diversos benchmarks, alcançando 92,8% de precisão no MATH-500, 55,5% de taxa de aprovação no AIME 2024 e uma pontuação de 1189 no CodeForces, mostrando forte competência em matemática e programação para um modelo de escala 7B."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-V3": {
|
||
"description": "DeepSeek-V3 é um modelo de linguagem com 671 bilhões de parâmetros, utilizando uma arquitetura de especialistas mistos (MoE) com atenção potencial de múltiplas cabeças (MLA) e uma estratégia de balanceamento de carga sem perda auxiliar, otimizando a eficiência de inferência e treinamento. Pré-treinado em 14,8 trilhões de tokens de alta qualidade, e ajustado por supervisão e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto, aproximando-se de modelos fechados líderes."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
||
"description": "DeepSeek-V3.1-Terminus é uma versão atualizada do modelo V3.1 lançado pela DeepSeek, posicionada como um modelo de linguagem grande com agentes híbridos. Esta atualização mantém as capacidades originais do modelo, focando na correção de problemas reportados pelos usuários e na melhoria da estabilidade. Houve uma melhoria significativa na consistência linguística, reduzindo o uso misto de chinês e inglês e a ocorrência de caracteres anômalos. O modelo integra o “Modo de Pensamento” e o “Modo Não-Pensamento”, permitindo que os usuários alternem flexivelmente entre eles via templates de chat para diferentes tarefas. Como uma otimização importante, o V3.1-Terminus aprimora o desempenho dos agentes de código e de busca, tornando-os mais confiáveis na chamada de ferramentas e na execução de tarefas complexas em múltiplas etapas."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
|
||
"description": "DeepSeek-V3.2-Exp é a versão experimental V3.2 lançada pela DeepSeek, representando uma etapa intermediária rumo à próxima geração de arquitetura. Baseando-se no V3.1-Terminus, ela introduz o mecanismo de Atenção Esparsa DeepSeek (DeepSeek Sparse Attention, DSA) para melhorar a eficiência de treinamento e inferência em contextos longos. Foi especialmente otimizada para chamadas de ferramentas, compreensão de documentos extensos e raciocínio em múltiplas etapas. A V3.2-Exp serve como uma ponte entre pesquisa e aplicação comercial, ideal para usuários que buscam maior eficiência de raciocínio em cenários com orçamentos de contexto elevados."
|
||
},
|
||
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
||
"description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
|
||
},
|
||
"Pro/moonshotai/Kimi-K2-Thinking": {
|
||
"description": "Kimi K2 Thinking Turbo é a versão Turbo da série Kimi K2, otimizada para velocidade de raciocínio e throughput, mantendo a capacidade de raciocínio em múltiplas etapas e uso de ferramentas do K2 Thinking. Baseado em uma arquitetura de especialistas mistos (MoE), possui cerca de 1 trilhão de parâmetros, suporta nativamente contexto de 256K e executa chamadas de ferramentas em larga escala de forma estável, ideal para cenários de produção com alta exigência de latência e concorrência."
|
||
},
|
||
"QwQ-32B-Preview": {
|
||
"description": "O QwQ-32B-Preview é um modelo de processamento de linguagem natural inovador, capaz de lidar eficientemente com tarefas complexas de geração de diálogos e compreensão de contexto."
|
||
},
|
||
"Qwen/QVQ-72B-Preview": {
|
||
"description": "QVQ-72B-Preview é um modelo de pesquisa desenvolvido pela equipe Qwen, focado em capacidades de raciocínio visual, apresentando vantagens únicas na compreensão de cenários complexos e na resolução de problemas matemáticos relacionados à visão."
|
||
},
|
||
"Qwen/QwQ-32B": {
|
||
"description": "QwQ é o modelo de inferência da série Qwen. Em comparação com modelos tradicionais de ajuste de instruções, o QwQ possui habilidades de raciocínio e inferência, permitindo um desempenho significativamente melhorado em tarefas de downstream, especialmente na resolução de problemas difíceis. O QwQ-32B é um modelo de inferência de médio porte, capaz de obter um desempenho competitivo em comparação com modelos de inferência de ponta, como DeepSeek-R1 e o1-mini. Este modelo utiliza tecnologias como RoPE, SwiGLU, RMSNorm e viés de atenção QKV, apresentando uma estrutura de rede de 64 camadas e 40 cabeças de atenção Q (sendo KV 8 no GQA)."
|
||
},
|
||
"Qwen/QwQ-32B-Preview": {
|
||
"description": "QwQ-32B-Preview é o mais recente modelo de pesquisa experimental da Qwen, focado em melhorar a capacidade de raciocínio da IA. Ao explorar mecanismos complexos como mistura de linguagem e raciocínio recursivo, suas principais vantagens incluem forte capacidade de análise de raciocínio, habilidades matemáticas e de programação. Ao mesmo tempo, existem questões de troca de linguagem, ciclos de raciocínio, considerações de segurança e diferenças em outras capacidades."
|
||
},
|
||
"Qwen/Qwen-Image": {
|
||
"description": "Qwen-Image é um modelo base de geração de imagens desenvolvido pela equipe Tongyi Qianwen da Alibaba, com 20 bilhões de parâmetros. O modelo apresenta avanços significativos na renderização de texto complexa e na edição precisa de imagens, sendo especialmente eficaz na geração de imagens com textos em chinês e inglês de alta fidelidade. O Qwen-Image é capaz de lidar com layouts de múltiplas linhas e textos em nível de parágrafo, mantendo a coerência tipográfica e a harmonia contextual durante a geração de imagens. Além de sua notável capacidade de renderização de texto, o modelo suporta uma ampla gama de estilos artísticos — desde fotografias realistas até estéticas de anime — adaptando-se com flexibilidade a diversas necessidades criativas. Ele também possui poderosas capacidades de edição e compreensão de imagens, incluindo transferência de estilo, adição e remoção de objetos, aprimoramento de detalhes, edição de texto e até manipulação de poses humanas, com o objetivo de se tornar um modelo base abrangente para criação e processamento visual inteligente que integra linguagem, layout e imagem."
|
||
},
|
||
"Qwen/Qwen-Image-Edit-2509": {
|
||
"description": "Qwen-Image-Edit-2509 é a versão mais recente de edição de imagens do Qwen-Image, lançada pela equipe Tongyi Qianwen da Alibaba. Este modelo foi treinado com base no Qwen-Image de 20B parâmetros, expandindo com sucesso sua capacidade única de renderização de texto para o campo da edição de imagens, permitindo edições precisas de textos contidos nas imagens. O Qwen-Image-Edit adota uma arquitetura inovadora que envia a imagem de entrada simultaneamente para o Qwen2.5-VL (para controle semântico visual) e para o VAE Encoder (para controle da aparência visual), oferecendo assim capacidades de edição tanto semânticas quanto visuais. Isso significa que ele não apenas suporta edições locais de aparência, como adição, remoção ou modificação de elementos, mas também edições semânticas visuais avançadas que exigem consistência de significado, como criação de IPs e transferência de estilo. O modelo demonstrou desempenho de ponta (SOTA) em diversos benchmarks públicos, tornando-se uma poderosa base para edição de imagens."
|
||
},
|
||
"Qwen/Qwen2-72B-Instruct": {
|
||
"description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções."
|
||
},
|
||
"Qwen/Qwen2-7B-Instruct": {
|
||
"description": "Qwen2-72B-Instruct é um modelo de linguagem de grande escala com ajuste fino para instruções na série Qwen2, com um tamanho de parâmetro de 72B. Este modelo é baseado na arquitetura Transformer, utilizando funções de ativação SwiGLU, viés de atenção QKV e atenção de consulta em grupo. Ele é capaz de lidar com entradas em larga escala. O modelo se destaca em compreensão de linguagem, geração, capacidade multilíngue, codificação, matemática e raciocínio em vários benchmarks, superando a maioria dos modelos de código aberto e demonstrando competitividade comparável a modelos proprietários em algumas tarefas."
|
||
},
|
||
"Qwen/Qwen2-VL-72B-Instruct": {
|
||
"description": "Qwen2-VL é a versão mais recente do modelo Qwen-VL, alcançando desempenho de ponta em testes de compreensão visual."
|
||
},
|
||
"Qwen/Qwen2.5-14B-Instruct": {
|
||
"description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
|
||
},
|
||
"Qwen/Qwen2.5-32B-Instruct": {
|
||
"description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
|
||
},
|
||
"Qwen/Qwen2.5-72B-Instruct": {
|
||
"description": "Modelo de linguagem de grande escala desenvolvido pela equipe Qianwen da Alibaba Cloud."
|
||
},
|
||
"Qwen/Qwen2.5-72B-Instruct-128K": {
|
||
"description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, com capacidades de compreensão e geração aprimoradas."
|
||
},
|
||
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
|
||
"description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, projetada para otimizar o processamento de tarefas instrucionais."
|
||
},
|
||
"Qwen/Qwen2.5-7B-Instruct": {
|
||
"description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
|
||
},
|
||
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
||
"description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, projetada para otimizar o processamento de tarefas instrucionais."
|
||
},
|
||
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
||
"description": "Qwen2.5-Coder foca na escrita de código."
|
||
},
|
||
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
||
"description": "Qwen2.5-Coder-7B-Instruct é a versão mais recente da série de modelos de linguagem de grande escala específicos para código lançada pela Alibaba Cloud. Este modelo, baseado no Qwen2.5, foi treinado com 55 trilhões de tokens, melhorando significativamente a capacidade de geração, raciocínio e correção de código. Ele não apenas aprimora a capacidade de codificação, mas também mantém as vantagens em matemática e habilidades gerais. O modelo fornece uma base mais abrangente para aplicações práticas, como agentes de código."
|
||
},
|
||
"Qwen/Qwen2.5-VL-32B-Instruct": {
|
||
"description": "Qwen2.5-VL-32B-Instruct é um modelo multimodal de grande escala desenvolvido pela equipe Tongyi Qianwen, parte da série Qwen2.5-VL. Este modelo não apenas domina o reconhecimento de objetos comuns, mas também pode analisar textos, gráficos, ícones, diagramas e layouts em imagens. Ele funciona como um agente visual inteligente, capaz de raciocinar e manipular ferramentas dinamicamente, com habilidades para operar computadores e smartphones. Além disso, o modelo pode localizar objetos em imagens com precisão e gerar saídas estruturadas para documentos como faturas e tabelas. Em comparação com a versão anterior Qwen2-VL, esta versão apresenta melhorias significativas em habilidades matemáticas e de resolução de problemas através de aprendizado por reforço, com um estilo de resposta mais alinhado às preferências humanas."
|
||
},
|
||
"Qwen/Qwen2.5-VL-72B-Instruct": {
|
||
"description": "Qwen2.5-VL é o modelo de linguagem visual da série Qwen2.5. Este modelo apresenta melhorias significativas em vários aspectos: possui capacidade aprimorada de compreensão visual, podendo reconhecer objetos comuns, analisar textos, gráficos e layouts; atua como um agente visual capaz de raciocinar e orientar dinamicamente o uso de ferramentas; suporta a compreensão de vídeos longos com mais de 1 hora de duração, capturando eventos-chave; pode localizar objetos em imagens com precisão através da geração de caixas delimitadoras ou pontos; suporta a geração de saídas estruturadas, sendo especialmente útil para dados digitalizados como faturas e tabelas."
|
||
},
|
||
"Qwen/Qwen3-14B": {
|
||
"description": "O Qwen3 é um novo modelo de grande escala da Tongyi Qianwen com capacidades significativamente aprimoradas, alcançando níveis líderes da indústria em raciocínio, tarefas gerais, agentes e multilinguismo, e suporta a alternância de modos de pensamento."
|
||
},
|
||
"Qwen/Qwen3-235B-A22B": {
|
||
"description": "O Qwen3 é um novo modelo de grande escala da Tongyi Qianwen com capacidades significativamente aprimoradas, alcançando níveis líderes da indústria em raciocínio, tarefas gerais, agentes e multilinguismo, e suporta a alternância de modos de pensamento."
|
||
},
|
||
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
|
||
"description": "Qwen3-235B-A22B-Instruct-2507 é um modelo de linguagem grande híbrido especialista (MoE) flagship da série Qwen3, desenvolvido pela equipe Tongyi Qianwen da Alibaba Cloud. Com 235 bilhões de parâmetros totais e 22 bilhões ativados por inferência, é uma versão atualizada do modo não reflexivo Qwen3-235B-A22B, focada em melhorias significativas em seguimento de instruções, raciocínio lógico, compreensão textual, matemática, ciência, programação e uso de ferramentas. Além disso, amplia a cobertura de conhecimento multilíngue e alinha melhor as preferências do usuário em tarefas subjetivas e abertas para gerar textos mais úteis e de alta qualidade."
|
||
},
|
||
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
|
||
"description": "Qwen3-235B-A22B-Thinking-2507 é um modelo de linguagem grande da série Qwen3, desenvolvido pela equipe Tongyi Qianwen da Alibaba, focado em tarefas complexas de raciocínio avançado. Baseado em arquitetura MoE, possui 235 bilhões de parâmetros totais, ativando cerca de 22 bilhões por token, equilibrando alta performance e eficiência computacional. Como modelo dedicado ao “pensamento”, apresenta melhorias notáveis em raciocínio lógico, matemática, ciência, programação e benchmarks acadêmicos, alcançando o topo entre modelos open source reflexivos. Também aprimora capacidades gerais como seguimento de instruções, uso de ferramentas e geração de texto, com suporte nativo para contexto longo de 256K tokens, ideal para cenários que exigem raciocínio profundo e processamento de documentos extensos."
|
||
},
|
||
"Qwen/Qwen3-30B-A3B": {
|
||
"description": "O Qwen3 é um novo modelo de grande escala da Tongyi Qianwen com capacidades significativamente aprimoradas, alcançando níveis líderes da indústria em raciocínio, tarefas gerais, agentes e multilinguismo, e suporta a alternância de modos de pensamento."
|
||
},
|
||
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
|
||
"description": "Qwen3-30B-A3B-Instruct-2507 é uma versão atualizada do Qwen3-30B-A3B no modo não reflexivo. Este é um modelo de especialista misto (MoE) com um total de 30,5 bilhões de parâmetros e 3,3 bilhões de parâmetros ativados. O modelo apresenta melhorias significativas em vários aspectos, incluindo um aumento notável na capacidade de seguir instruções, raciocínio lógico, compreensão de texto, matemática, ciências, codificação e uso de ferramentas. Além disso, alcança avanços substanciais na cobertura de conhecimento em múltiplos idiomas e melhor alinhamento com as preferências dos usuários em tarefas subjetivas e abertas, permitindo gerar respostas mais úteis e textos de maior qualidade. A capacidade de compreensão de textos longos também foi ampliada para 256K. Este modelo suporta apenas o modo não reflexivo e não gera tags `<think></think>` em sua saída."
|
||
},
|
||
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
|
||
"description": "Qwen3-30B-A3B-Thinking-2507 é o mais recente modelo de raciocínio da série Qwen3, lançado pela equipe Tongyi Qianwen da Alibaba. Como um modelo Mixture-of-Experts (MoE) com um total de 30,5 bilhões de parâmetros e 3,3 bilhões de parâmetros de ativação, ele foca em aprimorar a capacidade de lidar com tarefas complexas. O modelo apresenta melhorias de desempenho significativas em benchmarks acadêmicos de raciocínio lógico, matemática, ciências, programação e outras tarefas que exigem conhecimento especializado humano. Além disso, suas capacidades gerais — como cumprimento de instruções, uso de ferramentas, geração de texto e alinhamento com preferências humanas — também foram significativamente aprimoradas. O modelo oferece suporte nativo à compreensão de contexto longo de 256K tokens e pode ser expandido até 1 milhão de tokens. Esta versão foi projetada especificamente para o 'modo de pensamento', visando resolver tarefas altamente complexas por meio de um raciocínio passo a passo detalhado, e suas capacidades como agente (Agent) também se destacam."
|
||
},
|
||
"Qwen/Qwen3-32B": {
|
||
"description": "O Qwen3 é um novo modelo de grande escala da Tongyi Qianwen com capacidades significativamente aprimoradas, alcançando níveis líderes da indústria em raciocínio, tarefas gerais, agentes e multilinguismo, e suporta a alternância de modos de pensamento."
|
||
},
|
||
"Qwen/Qwen3-8B": {
|
||
"description": "O Qwen3 é um novo modelo de grande escala da Tongyi Qianwen com capacidades significativamente aprimoradas, alcançando níveis líderes da indústria em raciocínio, tarefas gerais, agentes e multilinguismo, e suporta a alternância de modos de pensamento."
|
||
},
|
||
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
|
||
"description": "Qwen3-Coder-30B-A3B-Instruct é um modelo de código da série Qwen3 desenvolvido pela equipe Tongyi Qianwen da Alibaba. Como um modelo enxuto e otimizado, ele mantém alto desempenho e eficiência, ao mesmo tempo em que se concentra em aprimorar a capacidade de processamento de código. Esse modelo demonstra vantagens de desempenho notáveis entre modelos de código aberto em tarefas complexas, como programação agente (Agentic Coding), automação de operações de navegador e chamadas de ferramentas. Ele suporta nativamente contexto longo de 256K tokens e pode ser expandido até 1M tokens, permitindo um entendimento e processamento mais aprofundados em nível de repositório de código. Além disso, o modelo oferece forte suporte a codificação por agentes em plataformas como Qwen Code e CLINE, e foi projetado com um formato dedicado para chamadas de função."
|
||
},
|
||
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
|
||
"description": "Qwen3-Coder-480B-A35B-Instruct é o modelo de código com maior capacidade agentic (de atuação autônoma) publicado pela Alibaba até o momento. É um modelo de especialistas mistos (MoE) com 480 bilhões de parâmetros totais e 35 bilhões de parâmetros ativados, que alcança um equilíbrio entre eficiência e desempenho. O modelo oferece suporte nativo a um comprimento de contexto de 256K (aproximadamente 260 mil) tokens e pode ser estendido até 1 milhão de tokens por meio de métodos de extrapolação como YaRN, permitindo lidar com grandes bases de código e tarefas de programação complexas. O Qwen3-Coder foi projetado para fluxos de trabalho de codificação baseados em agentes: além de gerar código, ele pode interagir de forma autônoma com ferramentas e ambientes de desenvolvimento para resolver problemas de programação complexos. Em diversos benchmarks de tarefas de codificação e de agentes, este modelo alcançou desempenho de ponta entre os modelos de código aberto, comparável a modelos líderes como o Claude Sonnet 4."
|
||
},
|
||
"Qwen/Qwen3-Next-80B-A3B-Instruct": {
|
||
"description": "Qwen3-Next-80B-A3B-Instruct é o modelo base de próxima geração lançado pela equipe Tongyi Qianwen da Alibaba. Baseado na nova arquitetura Qwen3-Next, visa alcançar eficiência máxima em treinamento e inferência. O modelo adota um mecanismo inovador de atenção híbrida (Gated DeltaNet e Gated Attention), uma estrutura de especialistas mistos altamente esparsos (MoE) e várias otimizações para estabilidade no treinamento. Como um modelo esparso com 80 bilhões de parâmetros totais, ativa apenas cerca de 3 bilhões de parâmetros durante a inferência, reduzindo significativamente o custo computacional. Em tarefas de contexto longo com mais de 32 mil tokens, sua taxa de inferência é mais de 10 vezes superior ao modelo Qwen3-32B. Esta versão é ajustada por instrução para tarefas gerais e não suporta o modo de cadeia de pensamento (Thinking). Em desempenho, é comparável ao modelo principal Tongyi Qianwen Qwen3-235B em alguns benchmarks, destacando-se especialmente em tarefas de contexto ultra longo."
|
||
},
|
||
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
||
"description": "Qwen3-Next-80B-A3B-Thinking é o modelo base de próxima geração lançado pela equipe Tongyi Qianwen da Alibaba, projetado para tarefas complexas de raciocínio. Baseado na inovadora arquitetura Qwen3-Next, que integra mecanismos híbridos de atenção (Gated DeltaNet e Gated Attention) e uma estrutura de especialistas mistos altamente esparsos (MoE), busca máxima eficiência em treinamento e inferência. Como um modelo esparso com 80 bilhões de parâmetros totais, ativa apenas cerca de 3 bilhões durante a inferência, reduzindo significativamente o custo computacional. Em tarefas de contexto longo com mais de 32 mil tokens, sua taxa de inferência é mais de 10 vezes superior ao modelo Qwen3-32B. Esta versão “Thinking” é otimizada para executar tarefas complexas de múltiplas etapas, como provas matemáticas, síntese de código, análise lógica e planejamento, e por padrão produz o processo de raciocínio em forma estruturada de “cadeia de pensamento”. Em desempenho, supera modelos mais custosos como o Qwen3-32B-Thinking e também apresenta melhor desempenho que o Gemini-2.5-Flash-Thinking em vários benchmarks."
|
||
},
|
||
"Qwen/Qwen3-Omni-30B-A3B-Captioner": {
|
||
"description": "O Qwen3-Omni-30B-A3B-Captioner é um modelo de linguagem visual (VLM) da série Qwen3, desenvolvido pela equipe Tongyi Qianwen da Alibaba. Ele é especializado na geração de descrições de imagens de alta qualidade, detalhadas e precisas. Baseado em uma arquitetura de especialistas mistos (MoE) com 30 bilhões de parâmetros totais, o modelo é capaz de compreender profundamente o conteúdo visual e transformá-lo em descrições textuais naturais e fluentes. Apresenta desempenho excepcional em captura de detalhes, compreensão de cenários, reconhecimento de objetos e raciocínio relacional, sendo ideal para aplicações que exigem entendimento visual preciso e geração de descrições."
|
||
},
|
||
"Qwen/Qwen3-Omni-30B-A3B-Instruct": {
|
||
"description": "O Qwen3-Omni-30B-A3B-Instruct é um modelo da nova série Qwen3 da equipe Tongyi Qianwen da Alibaba. Com 30 bilhões de parâmetros totais e 3 bilhões de parâmetros ativos, este modelo de especialistas mistos (MoE) oferece alto desempenho com menor custo de inferência. Treinado com dados de alta qualidade, multiorigem e multilíngues, possui forte capacidade geral e suporta entrada multimodal, incluindo texto, imagem, áudio e vídeo, sendo capaz de compreender e gerar conteúdo entre diferentes modalidades."
|
||
},
|
||
"Qwen/Qwen3-Omni-30B-A3B-Thinking": {
|
||
"description": "O Qwen3-Omni-30B-A3B-Thinking é o componente central \"pensador\" (Thinker) do modelo multimodal Qwen3-Omni. Ele é responsável por processar entradas multimodais, como texto, áudio, imagem e vídeo, realizando raciocínios complexos em cadeia. Atuando como o cérebro da inferência, o modelo unifica todas as entradas em um espaço de representação comum, permitindo compreensão profunda e raciocínio complexo entre modalidades. Baseado em uma arquitetura de especialistas mistos (MoE), possui 30 bilhões de parâmetros totais e 3 bilhões de parâmetros ativos, otimizando a eficiência computacional sem comprometer a capacidade de raciocínio."
|
||
},
|
||
"Qwen/Qwen3-VL-235B-A22B-Instruct": {
|
||
"description": "Qwen3-VL-235B-A22B-Instruct é um modelo de ajuste fino baseado em instruções da série Qwen3-VL, com arquitetura de especialistas mistos (MoE), oferecendo capacidades excepcionais de compreensão e geração multimodal. Suporta nativamente contexto de até 256K tokens, sendo adequado para serviços multimodais de produção com alta concorrência."
|
||
},
|
||
"Qwen/Qwen3-VL-235B-A22B-Thinking": {
|
||
"description": "Qwen3-VL-235B-A22B-Thinking é a versão principal da série Qwen3-VL voltada para raciocínio, com otimizações específicas para inferência multimodal complexa, raciocínio com contexto longo e interações com agentes inteligentes. É ideal para cenários corporativos que exigem raciocínio profundo e interpretação visual avançada."
|
||
},
|
||
"Qwen/Qwen3-VL-30B-A3B-Instruct": {
|
||
"description": "Qwen3-VL-30B-A3B-Instruct é a versão ajustada por instruções da série Qwen3-VL, com fortes capacidades de compreensão e geração visuo-linguística. Suporta nativamente contexto de até 256K tokens, sendo ideal para diálogos multimodais e tarefas de geração condicionada por imagem."
|
||
},
|
||
"Qwen/Qwen3-VL-30B-A3B-Thinking": {
|
||
"description": "Qwen3-VL-30B-A3B-Thinking é a versão aprimorada para raciocínio da série Qwen3-VL, otimizada para tarefas de inferência multimodal, conversão de imagem para código e compreensão visual complexa. Suporta contexto de até 256K tokens e possui capacidades avançadas de raciocínio encadeado."
|
||
},
|
||
"Qwen/Qwen3-VL-32B-Instruct": {
|
||
"description": "O Qwen3-VL-32B-Instruct é um modelo de linguagem visual desenvolvido pela equipe Tongyi Qianwen da Alibaba, que alcançou desempenho SOTA em diversos benchmarks de linguagem visual. Suporta entrada de imagens em alta resolução com milhões de pixels e possui capacidades robustas de compreensão visual geral, OCR multilíngue, localização visual de alta precisão e diálogo visual. Como parte da série Qwen3, este modelo é capaz de lidar com tarefas multimodais complexas e oferece funcionalidades avançadas como chamada de ferramentas e continuação de prefixos."
|
||
},
|
||
"Qwen/Qwen3-VL-32B-Thinking": {
|
||
"description": "O Qwen3-VL-32B-Thinking é uma versão otimizada do modelo de linguagem visual da equipe Tongyi Qianwen da Alibaba, voltada para tarefas complexas de raciocínio visual. Com um modo de \"pensamento\" embutido, o modelo é capaz de gerar etapas intermediárias de raciocínio antes de responder, melhorando significativamente seu desempenho em tarefas que exigem lógica em múltiplas etapas, planejamento e raciocínio complexo. Suporta imagens em alta resolução com milhões de pixels, possui forte compreensão visual geral, OCR multilíngue, localização visual precisa e diálogo visual, além de funcionalidades como chamada de ferramentas e continuação de prefixos."
|
||
},
|
||
"Qwen/Qwen3-VL-8B-Instruct": {
|
||
"description": "Qwen3-VL-8B-Instruct é um modelo de linguagem visual da série Qwen3, desenvolvido com base no Qwen3-8B-Instruct e treinado com grandes volumes de dados multimodais. Ele é especializado em compreensão visual geral, diálogos centrados em imagens e reconhecimento multilíngue de texto em imagens. É ideal para tarefas como perguntas e respostas visuais, descrição de imagens, seguimento de instruções multimodais e chamadas de ferramentas."
|
||
},
|
||
"Qwen/Qwen3-VL-8B-Thinking": {
|
||
"description": "Qwen3-VL-8B-Thinking é a versão de raciocínio visual da série Qwen3, otimizada para tarefas complexas de raciocínio em múltiplas etapas. Por padrão, o modelo gera uma cadeia de pensamento antes de responder, a fim de melhorar a precisão do raciocínio. É adequado para cenários que exigem raciocínio visual profundo, como perguntas e respostas visuais complexas, revisão de conteúdo de imagens e análises detalhadas."
|
||
},
|
||
"Qwen2-72B-Instruct": {
|
||
"description": "Qwen2 é a mais recente série do modelo Qwen, suportando 128k de contexto. Em comparação com os melhores modelos de código aberto atuais, o Qwen2-72B supera significativamente os modelos líderes em várias capacidades, incluindo compreensão de linguagem natural, conhecimento, código, matemática e multilinguismo."
|
||
},
|
||
"Qwen2-7B-Instruct": {
|
||
"description": "Qwen2 é a mais recente série do modelo Qwen, capaz de superar modelos de código aberto de tamanho equivalente e até mesmo modelos de maior escala. O Qwen2 7B obteve vantagens significativas em várias avaliações, especialmente em compreensão de código e chinês."
|
||
},
|
||
"Qwen2-VL-72B": {
|
||
"description": "O Qwen2-VL-72B é um poderoso modelo de linguagem visual, que suporta processamento multimodal de imagens e texto, capaz de reconhecer com precisão o conteúdo das imagens e gerar descrições ou respostas relacionadas."
|
||
},
|
||
"Qwen2.5-14B-Instruct": {
|
||
"description": "Qwen2.5-14B-Instruct é um grande modelo de linguagem com 14 bilhões de parâmetros, com desempenho excelente, otimizado para cenários em chinês e multilíngues, suportando aplicações como perguntas e respostas inteligentes e geração de conteúdo."
|
||
},
|
||
"Qwen2.5-32B-Instruct": {
|
||
"description": "Qwen2.5-32B-Instruct é um grande modelo de linguagem com 32 bilhões de parâmetros, com desempenho equilibrado, otimizado para cenários em chinês e multilíngues, suportando aplicações como perguntas e respostas inteligentes e geração de conteúdo."
|
||
},
|
||
"Qwen2.5-72B-Instruct": {
|
||
"description": "Qwen2.5-72B-Instruct suporta 16k de contexto, gerando textos longos com mais de 8K. Suporta chamadas de função e interação sem costura com sistemas externos, aumentando significativamente a flexibilidade e escalabilidade. O conhecimento do modelo aumentou consideravelmente, e suas habilidades em codificação e matemática melhoraram muito, com suporte a mais de 29 idiomas."
|
||
},
|
||
"Qwen2.5-7B-Instruct": {
|
||
"description": "Qwen2.5-7B-Instruct é um grande modelo de linguagem com 7 bilhões de parâmetros, que suporta chamadas de função e interação sem costura com sistemas externos, aumentando significativamente a flexibilidade e escalabilidade. Otimizado para cenários em chinês e multilíngues, suporta aplicações como perguntas e respostas inteligentes e geração de conteúdo."
|
||
},
|
||
"Qwen2.5-Coder-14B-Instruct": {
|
||
"description": "O Qwen2.5-Coder-14B-Instruct é um modelo de instrução de programação baseado em pré-treinamento em larga escala, com forte capacidade de compreensão e geração de código, capaz de lidar eficientemente com diversas tarefas de programação, especialmente adequado para escrita inteligente de código, geração de scripts automatizados e resolução de problemas de programação."
|
||
},
|
||
"Qwen2.5-Coder-32B-Instruct": {
|
||
"description": "Qwen2.5-Coder-32B-Instruct é um grande modelo de linguagem projetado para geração de código, compreensão de código e cenários de desenvolvimento eficiente, com uma escala de 32 bilhões de parâmetros, atendendo a diversas necessidades de programação."
|
||
},
|
||
"Qwen3-235B": {
|
||
"description": "Qwen3-235B-A22B, modelo MoE (especialista misto), introduz o “modo de raciocínio híbrido”, permitindo aos usuários alternar perfeitamente entre os modos “reflexivo” e “não reflexivo”. Suporta compreensão e raciocínio em 119 idiomas e dialetos, além de possuir forte capacidade de chamada de ferramentas. Em testes de benchmark abrangentes, incluindo habilidades gerais, código, matemática, multilinguismo, conhecimento e raciocínio, compete com os principais grandes modelos do mercado, como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro."
|
||
},
|
||
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
||
"description": "Qwen3 235B A22B Instruct 2507: modelo otimizado para raciocínio avançado e instruções de diálogo, com arquitetura híbrida de especialistas para manter eficiência em inferência com grande número de parâmetros."
|
||
},
|
||
"Qwen3-32B": {
|
||
"description": "Qwen3-32B, modelo denso (Dense Model), introduz o “modo de raciocínio híbrido”, permitindo aos usuários alternar perfeitamente entre os modos “reflexivo” e “não reflexivo”. Graças a melhorias na arquitetura do modelo, aumento dos dados de treinamento e métodos de treinamento mais eficazes, seu desempenho geral é comparável ao do Qwen2.5-72B."
|
||
},
|
||
"SenseChat": {
|
||
"description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas."
|
||
},
|
||
"SenseChat-128K": {
|
||
"description": "Modelo da versão básica (V4), com comprimento de contexto de 128K, se destaca em tarefas de compreensão e geração de textos longos."
|
||
},
|
||
"SenseChat-32K": {
|
||
"description": "Modelo da versão básica (V4), com comprimento de contexto de 32K, aplicável de forma flexível em diversos cenários."
|
||
},
|
||
"SenseChat-5": {
|
||
"description": "Modelo da versão mais recente (V5.5), com comprimento de contexto de 128K, com capacidades significativamente aprimoradas em raciocínio matemático, diálogos em inglês, seguimento de instruções e compreensão de textos longos, rivalizando com o GPT-4o."
|
||
},
|
||
"SenseChat-5-1202": {
|
||
"description": "Baseado na versão mais recente V5.5, apresenta melhorias significativas em várias dimensões, incluindo habilidades básicas em chinês e inglês, conversação, conhecimento científico, conhecimento humanístico, escrita, lógica matemática e controle de contagem de palavras."
|
||
},
|
||
"SenseChat-5-Cantonese": {
|
||
"description": "Comprimento de contexto de 32K, superando o GPT-4 na compreensão de diálogos em cantonês, competindo com o GPT-4 Turbo em várias áreas, incluindo conhecimento, raciocínio, matemática e programação."
|
||
},
|
||
"SenseChat-5-beta": {
|
||
"description": "Desempenho superior em alguns aspectos em relação ao SenseCat-5-1202"
|
||
},
|
||
"SenseChat-Character": {
|
||
"description": "Modelo padrão, com comprimento de contexto de 8K, alta velocidade de resposta."
|
||
},
|
||
"SenseChat-Character-Pro": {
|
||
"description": "Modelo avançado, com comprimento de contexto de 32K, com capacidades amplamente aprimoradas, suportando diálogos em chinês e inglês."
|
||
},
|
||
"SenseChat-Turbo": {
|
||
"description": "Adequado para perguntas rápidas e cenários de ajuste fino do modelo."
|
||
},
|
||
"SenseChat-Turbo-1202": {
|
||
"description": "É a versão mais recente do modelo leve, alcançando mais de 90% da capacidade do modelo completo, reduzindo significativamente o custo de inferência."
|
||
},
|
||
"SenseChat-Vision": {
|
||
"description": "Modelo da versão mais recente (V5.5), suporta entrada de múltiplas imagens, otimizando completamente as capacidades básicas do modelo, com grandes melhorias em reconhecimento de atributos de objetos, relações espaciais, reconhecimento de eventos, compreensão de cenários, reconhecimento de emoções, raciocínio lógico e compreensão e geração de texto."
|
||
},
|
||
"SenseNova-V6-5-Pro": {
|
||
"description": "Com atualizações abrangentes em dados multimodais, linguísticos e de raciocínio, além da otimização das estratégias de treinamento, o novo modelo alcança melhorias significativas em raciocínio multimodal e capacidade de seguir instruções generalizadas. Suporta janelas de contexto de até 128k e apresenta desempenho excepcional em tarefas especializadas como OCR e reconhecimento de IPs culturais e turísticos."
|
||
},
|
||
"SenseNova-V6-5-Turbo": {
|
||
"description": "Com atualizações abrangentes em dados multimodais, linguísticos e de raciocínio, além da otimização das estratégias de treinamento, o novo modelo alcança melhorias significativas em raciocínio multimodal e capacidade de seguir instruções generalizadas. Suporta janelas de contexto de até 128k e apresenta desempenho excepcional em tarefas especializadas como OCR e reconhecimento de IPs culturais e turísticos."
|
||
},
|
||
"SenseNova-V6-Pro": {
|
||
"description": "Realizar a unificação nativa de capacidades de imagem, texto e vídeo, superando as limitações tradicionais da multimodalidade discreta, conquistando o título duplo nas avaliações OpenCompass e SuperCLUE."
|
||
},
|
||
"SenseNova-V6-Reasoner": {
|
||
"description": "Equilibrar raciocínio visual e linguístico profundo, realizando um pensamento lento e uma inferência profunda, apresentando um processo completo de cadeia de pensamento."
|
||
},
|
||
"SenseNova-V6-Turbo": {
|
||
"description": "Realizar a unificação nativa de capacidades de imagem, texto e vídeo, superando as limitações tradicionais da multimodalidade discreta, liderando amplamente em dimensões centrais como capacidades básicas multimodais e linguísticas, combinando rigor acadêmico e prático, e alcançando repetidamente o nível da primeira divisão em várias avaliações nacionais e internacionais."
|
||
},
|
||
"Skylark2-lite-8k": {
|
||
"description": "Modelo de segunda geração Skylark, o modelo Skylark2-lite possui alta velocidade de resposta, adequado para cenários que exigem alta capacidade de resposta, sensíveis ao custo e com baixa exigência de precisão do modelo, com uma janela de contexto de 8k."
|
||
},
|
||
"Skylark2-pro-32k": {
|
||
"description": "Modelo de segunda geração Skylark, a versão Skylark2-pro possui alta precisão, adequada para cenários de geração de texto mais complexos, como geração de textos em campos especializados, criação de romances e traduções de alta qualidade, com uma janela de contexto de 32k."
|
||
},
|
||
"Skylark2-pro-4k": {
|
||
"description": "Modelo de segunda geração Skylark, o modelo Skylark2-pro possui alta precisão, adequado para cenários de geração de texto mais complexos, como geração de textos em campos especializados, criação de romances e traduções de alta qualidade, com uma janela de contexto de 4k."
|
||
},
|
||
"Skylark2-pro-character-4k": {
|
||
"description": "Modelo de segunda geração Skylark, o modelo Skylark2-pro-character possui excelentes habilidades de interpretação de papéis e chat, especializado em interpretar diferentes papéis com base nas solicitações do usuário e engajar em conversas, apresentando um estilo de personagem distinto e um conteúdo de diálogo natural e fluído, adequado para construir chatbots, assistentes virtuais e atendimento ao cliente online, com alta velocidade de resposta."
|
||
},
|
||
"Skylark2-pro-turbo-8k": {
|
||
"description": "Modelo de segunda geração Skylark, o Skylark2-pro-turbo-8k proporciona raciocínio mais rápido e menor custo, com uma janela de contexto de 8k."
|
||
},
|
||
"THUDM/GLM-4-32B-0414": {
|
||
"description": "GLM-4-32B-0414 é a nova geração de modelo de código aberto da série GLM, com 32 bilhões de parâmetros. O desempenho deste modelo é comparável ao da série GPT da OpenAI e da série V3/R1 da DeepSeek."
|
||
},
|
||
"THUDM/GLM-4-9B-0414": {
|
||
"description": "GLM-4-9B-0414 é um modelo compacto da série GLM, com 9 bilhões de parâmetros. Este modelo herda as características técnicas da série GLM-4-32B, mas oferece uma opção de implantação mais leve. Apesar de seu tamanho menor, o GLM-4-9B-0414 ainda demonstra habilidades excepcionais em tarefas de geração de código, design de páginas da web, geração de gráficos SVG e redação baseada em pesquisa."
|
||
},
|
||
"THUDM/GLM-4.1V-9B-Thinking": {
|
||
"description": "GLM-4.1V-9B-Thinking é um modelo de linguagem visual (VLM) de código aberto lançado em conjunto pela Zhipu AI e pelo Laboratório KEG da Universidade de Tsinghua, projetado para lidar com tarefas cognitivas multimodais complexas. Este modelo é baseado no modelo base GLM-4-9B-0414 e melhora significativamente sua capacidade e estabilidade de raciocínio multimodal ao introduzir o mecanismo de raciocínio \"Chain-of-Thought\" (Cadeia de Pensamento) e adotar estratégias de aprendizado por reforço."
|
||
},
|
||
"THUDM/GLM-Z1-32B-0414": {
|
||
"description": "GLM-Z1-32B-0414 é um modelo de inferência com capacidade de pensamento profundo. Este modelo é baseado no GLM-4-32B-0414, desenvolvido através de inicialização a frio e aprendizado por reforço expandido, e foi treinado adicionalmente em tarefas de matemática, código e lógica. Em comparação com o modelo base, o GLM-Z1-32B-0414 melhorou significativamente suas habilidades matemáticas e capacidade de resolver tarefas complexas."
|
||
},
|
||
"THUDM/GLM-Z1-9B-0414": {
|
||
"description": "GLM-Z1-9B-0414 é um modelo compacto da série GLM, com apenas 9 bilhões de parâmetros, mas mantendo a tradição de código aberto enquanto exibe habilidades impressionantes. Apesar de seu tamanho menor, este modelo ainda se destaca em raciocínio matemático e tarefas gerais, com desempenho geral em nível de liderança entre modelos de código aberto de tamanho semelhante."
|
||
},
|
||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||
"description": "GLM-Z1-Rumination-32B-0414 é um modelo de inferência profunda com capacidade de reflexão (comparável ao Deep Research da OpenAI). Diferente dos modelos típicos de pensamento profundo, o modelo de reflexão utiliza um tempo mais longo de pensamento profundo para resolver problemas mais abertos e complexos."
|
||
},
|
||
"THUDM/glm-4-9b-chat": {
|
||
"description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa."
|
||
},
|
||
"Tongyi-Zhiwen/QwenLong-L1-32B": {
|
||
"description": "QwenLong-L1-32B é o primeiro modelo de raciocínio de grande escala com contexto longo treinado por aprendizado por reforço (LRM), otimizado para tarefas de raciocínio em textos longos. O modelo utiliza um framework de aprendizado por reforço com expansão progressiva de contexto, permitindo uma transição estável de contextos curtos para longos. Em sete benchmarks de perguntas e respostas com documentos de contexto longo, QwenLong-L1-32B supera modelos líderes como OpenAI-o3-mini e Qwen3-235B-A22B, com desempenho comparável ao Claude-3.7-Sonnet-Thinking. É especialmente eficaz em raciocínio matemático, lógico e raciocínio de múltiplos saltos."
|
||
},
|
||
"Yi-34B-Chat": {
|
||
"description": "Yi-1.5-34B, mantendo as excelentes habilidades linguísticas do modelo original, aumentou significativamente suas capacidades de lógica matemática e codificação através de treinamento incremental com 500 bilhões de tokens de alta qualidade."
|
||
},
|
||
"abab5.5-chat": {
|
||
"description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais."
|
||
},
|
||
"abab5.5s-chat": {
|
||
"description": "Projetado para cenários de diálogo de personagens em chinês, oferecendo capacidade de geração de diálogos de alta qualidade em chinês, adequado para várias aplicações."
|
||
},
|
||
"abab6.5g-chat": {
|
||
"description": "Projetado para diálogos de personagens multilíngues, suportando geração de diálogos de alta qualidade em inglês e várias outras línguas."
|
||
},
|
||
"abab6.5s-chat": {
|
||
"description": "Adequado para uma ampla gama de tarefas de processamento de linguagem natural, incluindo geração de texto, sistemas de diálogo, etc."
|
||
},
|
||
"abab6.5t-chat": {
|
||
"description": "Otimizado para cenários de diálogo de personagens em chinês, oferecendo capacidade de geração de diálogos fluentes e que respeitam os hábitos de expressão em chinês."
|
||
},
|
||
"accounts/fireworks/models/deepseek-r1": {
|
||
"description": "DeepSeek-R1 é um modelo de linguagem grande de última geração, otimizado com aprendizado por reforço e dados de inicialização a frio, apresentando desempenho excepcional em raciocínio, matemática e programação."
|
||
},
|
||
"accounts/fireworks/models/deepseek-v3": {
|
||
"description": "Modelo de linguagem poderoso da Deepseek, baseado em Mixture-of-Experts (MoE), com um total de 671B de parâmetros, ativando 37B de parâmetros por token."
|
||
},
|
||
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
||
"description": "O modelo Llama 3 70B Instruct é otimizado para diálogos multilíngues e compreensão de linguagem natural, superando a maioria dos modelos concorrentes."
|
||
},
|
||
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
||
"description": "O modelo Llama 3 8B Instruct é otimizado para diálogos e tarefas multilíngues, apresentando desempenho excepcional e eficiência."
|
||
},
|
||
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
|
||
"description": "O modelo Llama 3 8B Instruct (versão HF) é consistente com os resultados da implementação oficial, apresentando alta consistência e compatibilidade entre plataformas."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
|
||
"description": "O modelo Llama 3.1 405B Instruct possui parâmetros em escala extremamente grande, adequado para seguimento de instruções em tarefas complexas e cenários de alta carga."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
|
||
"description": "O modelo Llama 3.1 70B Instruct oferece excelente compreensão e geração de linguagem natural, sendo a escolha ideal para tarefas de diálogo e análise."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
||
"description": "O modelo Llama 3.1 8B Instruct é otimizado para diálogos multilíngues, superando a maioria dos modelos de código aberto e fechado em benchmarks do setor."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
||
"description": "Modelo de raciocínio visual de 11B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
||
"description": "O modelo de instrução Llama 3.2 3B é um modelo multilíngue leve lançado pela Meta. Este modelo visa aumentar a eficiência, oferecendo melhorias significativas em latência e custo em comparação com modelos maiores. Exemplos de uso incluem consultas, reescrita de prompts e auxílio na redação."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
||
"description": "Modelo de raciocínio visual de 90B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
||
"description": "Llama 3.3 70B Instruct é a versão atualizada de dezembro do Llama 3.1 70B. Este modelo foi aprimorado com base no Llama 3.1 70B (lançado em julho de 2024), melhorando a chamada de ferramentas, suporte a textos multilíngues, habilidades matemáticas e de programação. O modelo alcançou níveis de liderança da indústria em raciocínio, matemática e seguimento de instruções, e é capaz de oferecer desempenho semelhante ao 3.1 405B, ao mesmo tempo em que apresenta vantagens significativas em velocidade e custo."
|
||
},
|
||
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
||
"description": "Modelo com 24B de parâmetros, com capacidades de ponta comparáveis a modelos maiores."
|
||
},
|
||
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
||
"description": "O modelo Mixtral MoE 8x22B Instruct, com parâmetros em grande escala e arquitetura de múltiplos especialistas, suporta o processamento eficiente de tarefas complexas."
|
||
},
|
||
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
||
"description": "O modelo Mixtral MoE 8x7B Instruct, com uma arquitetura de múltiplos especialistas, oferece seguimento e execução de instruções de forma eficiente."
|
||
},
|
||
"accounts/fireworks/models/mythomax-l2-13b": {
|
||
"description": "O modelo MythoMax L2 13B combina novas técnicas de fusão, sendo especializado em narrativas e interpretação de personagens."
|
||
},
|
||
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
||
"description": "O modelo Phi 3 Vision Instruct é um modelo multimodal leve, capaz de processar informações visuais e textuais complexas, com forte capacidade de raciocínio."
|
||
},
|
||
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
||
"description": "O modelo QwQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em aprimorar a capacidade de raciocínio da IA."
|
||
},
|
||
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
||
"description": "A versão 72B do modelo Qwen-VL é o resultado da mais recente iteração da Alibaba, representando quase um ano de inovações."
|
||
},
|
||
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
||
"description": "Qwen2.5 é uma série de modelos de linguagem com apenas decodificadores, desenvolvida pela equipe Qwen da Alibaba Cloud. Estes modelos têm tamanhos variados, incluindo 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, com variantes base (base) e de instrução (instruct)."
|
||
},
|
||
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
||
"description": "Qwen2.5 Coder 32B Instruct é a versão mais recente da série de modelos de linguagem de grande escala específicos para código lançada pela Alibaba Cloud. Este modelo, baseado no Qwen2.5, foi treinado com 55 trilhões de tokens, melhorando significativamente a capacidade de geração, raciocínio e correção de código. Ele não apenas aprimora a capacidade de codificação, mas também mantém as vantagens em matemática e habilidades gerais. O modelo fornece uma base mais abrangente para aplicações práticas, como agentes de código."
|
||
},
|
||
"accounts/yi-01-ai/models/yi-large": {
|
||
"description": "O modelo Yi-Large oferece excelente capacidade de processamento multilíngue, adequado para diversas tarefas de geração e compreensão de linguagem."
|
||
},
|
||
"ai21-jamba-1.5-large": {
|
||
"description": "Um modelo multilíngue com 398B de parâmetros (94B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
|
||
},
|
||
"ai21-jamba-1.5-mini": {
|
||
"description": "Um modelo multilíngue com 52B de parâmetros (12B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
|
||
},
|
||
"ai21-labs/AI21-Jamba-1.5-Large": {
|
||
"description": "Um modelo multilíngue com 398 bilhões de parâmetros (94 bilhões ativos), oferecendo janela de contexto longa de 256K, chamadas de função, saída estruturada e geração baseada em fatos."
|
||
},
|
||
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
||
"description": "Um modelo multilíngue com 52 bilhões de parâmetros (12 bilhões ativos), oferecendo janela de contexto longa de 256K, chamadas de função, saída estruturada e geração baseada em fatos."
|
||
},
|
||
"alibaba/qwen-3-14b": {
|
||
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
|
||
},
|
||
"alibaba/qwen-3-235b": {
|
||
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
|
||
},
|
||
"alibaba/qwen-3-30b": {
|
||
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
|
||
},
|
||
"alibaba/qwen-3-32b": {
|
||
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
|
||
},
|
||
"alibaba/qwen3-coder": {
|
||
"description": "Qwen3-Coder-480B-A35B-Instruct é o modelo de código mais agente da série Qwen, com desempenho notável em codificação de agentes, uso de navegadores por agentes e outras tarefas básicas de codificação, alcançando resultados comparáveis ao Claude Sonnet."
|
||
},
|
||
"amazon/nova-lite": {
|
||
"description": "Um modelo multimodal de custo muito baixo, que processa entradas de imagem, vídeo e texto com velocidade extremamente rápida."
|
||
},
|
||
"amazon/nova-micro": {
|
||
"description": "Um modelo apenas de texto que oferece respostas com a menor latência a um custo muito baixo."
|
||
},
|
||
"amazon/nova-pro": {
|
||
"description": "Um modelo multimodal altamente capaz, com a melhor combinação de precisão, velocidade e custo, adequado para uma ampla gama de tarefas."
|
||
},
|
||
"amazon/titan-embed-text-v2": {
|
||
"description": "Amazon Titan Text Embeddings V2 é um modelo leve e eficiente de embeddings multilíngues, suportando dimensões de 1024, 512 e 256."
|
||
},
|
||
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
||
"description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
|
||
},
|
||
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
||
"description": "Claude 3.5 Sonnet elevou o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, enquanto mantém a velocidade e o custo de nossos modelos de nível médio."
|
||
},
|
||
"anthropic.claude-3-haiku-20240307-v1:0": {
|
||
"description": "O Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, oferecendo uma velocidade de resposta quase instantânea. Ele pode responder rapidamente a consultas e solicitações simples. Os clientes poderão construir uma experiência de IA sem costura que imita a interação humana. O Claude 3 Haiku pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K."
|
||
},
|
||
"anthropic.claude-3-opus-20240229-v1:0": {
|
||
"description": "O Claude 3 Opus é o modelo de IA mais poderoso da Anthropic, com desempenho de ponta em tarefas altamente complexas. Ele pode lidar com prompts abertos e cenários não vistos, apresentando fluência excepcional e compreensão semelhante à humana. O Claude 3 Opus demonstra as possibilidades de geração de IA na vanguarda. O Claude 3 Opus pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K."
|
||
},
|
||
"anthropic.claude-3-sonnet-20240229-v1:0": {
|
||
"description": "O Claude 3 Sonnet da Anthropic alcança um equilíbrio ideal entre inteligência e velocidade — especialmente adequado para cargas de trabalho empresariais. Ele oferece a máxima utilidade a um custo inferior ao dos concorrentes e foi projetado para ser um modelo confiável e durável, adequado para implantações de IA em larga escala. O Claude 3 Sonnet pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K."
|
||
},
|
||
"anthropic.claude-instant-v1": {
|
||
"description": "Um modelo rápido, econômico e ainda muito capaz, capaz de lidar com uma variedade de tarefas, incluindo diálogos cotidianos, análise de texto, resumos e perguntas e respostas de documentos."
|
||
},
|
||
"anthropic.claude-v2": {
|
||
"description": "O modelo da Anthropic demonstra alta capacidade em uma ampla gama de tarefas, desde diálogos complexos e geração de conteúdo criativo até o seguimento detalhado de instruções."
|
||
},
|
||
"anthropic.claude-v2:1": {
|
||
"description": "A versão atualizada do Claude 2, com o dobro da janela de contexto, além de melhorias na confiabilidade, taxa de alucinação e precisão baseada em evidências em documentos longos e contextos RAG."
|
||
},
|
||
"anthropic/claude-3-haiku": {
|
||
"description": "Claude 3 Haiku é o modelo mais rápido da Anthropic até hoje, projetado para cargas de trabalho empresariais que geralmente envolvem prompts longos. Haiku pode analisar rapidamente grandes volumes de documentos, como arquivos trimestrais, contratos ou casos jurídicos, com custo equivalente à metade de outros modelos em sua classe de desempenho."
|
||
},
|
||
"anthropic/claude-3-opus": {
|
||
"description": "Claude 3 Opus é o modelo mais inteligente da Anthropic, com desempenho líder de mercado em tarefas altamente complexas. Ele navega com fluidez excepcional e compreensão humana em prompts abertos e cenários inéditos."
|
||
},
|
||
"anthropic/claude-3.5-haiku": {
|
||
"description": "Claude 3.5 Haiku oferece capacidades aprimoradas em velocidade, precisão de codificação e uso de ferramentas. Ideal para cenários com alta exigência de velocidade e interação com ferramentas."
|
||
},
|
||
"anthropic/claude-3.5-sonnet": {
|
||
"description": "Claude 3.5 Sonnet é um modelo rápido e eficiente da família Sonnet, com melhor desempenho em codificação e raciocínio. Algumas versões serão gradualmente substituídas por modelos como o Sonnet 3.7."
|
||
},
|
||
"anthropic/claude-3.7-sonnet": {
|
||
"description": "Claude 3.7 Sonnet é uma versão aprimorada da série Sonnet, oferecendo capacidades superiores de raciocínio e codificação, ideal para tarefas empresariais complexas."
|
||
},
|
||
"anthropic/claude-haiku-4.5": {
|
||
"description": "Claude Haiku 4.5 é um modelo rápido e de alto desempenho da Anthropic, com latência extremamente baixa e alta precisão."
|
||
},
|
||
"anthropic/claude-opus-4": {
|
||
"description": "Opus 4 é o modelo carro-chefe da Anthropic, projetado para tarefas complexas e aplicações em nível empresarial."
|
||
},
|
||
"anthropic/claude-opus-4.1": {
|
||
"description": "Opus 4.1 é um modelo avançado da Anthropic, otimizado para programação, raciocínio complexo e tarefas contínuas."
|
||
},
|
||
"anthropic/claude-opus-4.5": {
|
||
"description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas de altíssima qualidade e grande capacidade de raciocínio."
|
||
},
|
||
"anthropic/claude-sonnet-4": {
|
||
"description": "Claude Sonnet 4 é uma versão de raciocínio híbrido da Anthropic, oferecendo capacidades combinadas de pensamento e execução direta."
|
||
},
|
||
"anthropic/claude-sonnet-4.5": {
|
||
"description": "Claude Sonnet 4.5 é o mais recente modelo de raciocínio híbrido da Anthropic, otimizado para raciocínio complexo e codificação."
|
||
},
|
||
"ascend-tribe/pangu-pro-moe": {
|
||
"description": "Pangu-Pro-MoE 72B-A16B é um modelo de linguagem grande esparso com 72 bilhões de parâmetros e 16 bilhões de parâmetros ativados, baseado na arquitetura Mixture of Experts em grupos (MoGE). Ele agrupa especialistas na fase de seleção e restringe a ativação de um número igual de especialistas dentro de cada grupo para cada token, alcançando equilíbrio na carga dos especialistas e melhorando significativamente a eficiência de implantação do modelo na plataforma Ascend."
|
||
},
|
||
"aya": {
|
||
"description": "Aya 23 é um modelo multilíngue lançado pela Cohere, suportando 23 idiomas, facilitando aplicações linguísticas diversificadas."
|
||
},
|
||
"aya:35b": {
|
||
"description": "Aya 23 é um modelo multilíngue lançado pela Cohere, suportando 23 idiomas, facilitando aplicações linguísticas diversificadas."
|
||
},
|
||
"azure-DeepSeek-R1-0528": {
|
||
"description": "Implantado e fornecido pela Microsoft; o modelo DeepSeek R1 passou por uma atualização menor, a versão atual é DeepSeek-R1-0528. Na atualização mais recente, o DeepSeek R1 aumentou significativamente a profundidade de inferência e a capacidade de dedução ao adicionar recursos computacionais e introduzir mecanismos de otimização algorítmica na fase pós-treinamento. Este modelo apresenta desempenho excelente em vários benchmarks, incluindo matemática, programação e lógica geral, com desempenho geral próximo aos modelos líderes, como O3 e Gemini 2.5 Pro."
|
||
},
|
||
"baichuan-m2-32b": {
|
||
"description": "Baichuan M2 32B é um modelo especialista híbrido desenvolvido pela Baichuan Intelligence, com poderosa capacidade de raciocínio."
|
||
},
|
||
"baichuan/baichuan2-13b-chat": {
|
||
"description": "Baichuan-13B é um modelo de linguagem de código aberto e comercializável desenvolvido pela Baichuan Intelligence, contendo 13 bilhões de parâmetros, alcançando os melhores resultados em benchmarks de chinês e inglês na mesma dimensão."
|
||
},
|
||
"baidu/ERNIE-4.5-300B-A47B": {
|
||
"description": "ERNIE-4.5-300B-A47B é um modelo de linguagem grande baseado na arquitetura Mixture of Experts (MoE), desenvolvido pela Baidu. Com um total de 300 bilhões de parâmetros, ativa apenas 47 bilhões por token durante a inferência, equilibrando desempenho robusto e eficiência computacional. Como um dos modelos centrais da série ERNIE 4.5, demonstra capacidades excepcionais em compreensão, geração, raciocínio textual e programação. O modelo utiliza um método inovador de pré-treinamento multimodal heterogêneo MoE, treinando conjuntamente texto e visão, o que melhora significativamente suas habilidades gerais, especialmente em seguir instruções e memória de conhecimento mundial."
|
||
},
|
||
"baidu/ernie-5.0-thinking-preview": {
|
||
"description": "ERNIE 5.0 Thinking Preview é o novo modelo multimodal nativo da Baidu, especializado em compreensão multimodal, seguimento de instruções, criação, perguntas factuais e uso de ferramentas."
|
||
},
|
||
"c4ai-aya-expanse-32b": {
|
||
"description": "Aya Expanse é um modelo multilíngue de alto desempenho com 32B, projetado para desafiar o desempenho de modelos monolíngues por meio de inovações em ajuste por instrução, arbitragem de dados, treinamento de preferências e fusão de modelos. Ele suporta 23 idiomas."
|
||
},
|
||
"c4ai-aya-expanse-8b": {
|
||
"description": "Aya Expanse é um modelo multilíngue de alto desempenho com 8B, projetado para desafiar o desempenho de modelos monolíngues por meio de inovações em ajuste por instrução, arbitragem de dados, treinamento de preferências e fusão de modelos. Ele suporta 23 idiomas."
|
||
},
|
||
"c4ai-aya-vision-32b": {
|
||
"description": "Aya Vision é um modelo multimodal de ponta, apresentando desempenho excepcional em múltiplos benchmarks críticos de linguagem, texto e imagem. Esta versão de 32 bilhões de parâmetros foca no desempenho multilíngue de ponta."
|
||
},
|
||
"c4ai-aya-vision-8b": {
|
||
"description": "Aya Vision é um modelo multimodal de ponta, apresentando desempenho excepcional em múltiplos benchmarks críticos de linguagem, texto e imagem. Esta versão de 8 bilhões de parâmetros foca em baixa latência e desempenho ideal."
|
||
},
|
||
"charglm-3": {
|
||
"description": "O CharGLM-3 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas e diálogos personalizados, com ampla aplicação."
|
||
},
|
||
"charglm-4": {
|
||
"description": "CharGLM-4 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas de longa duração e diálogos personalizados, com ampla aplicação."
|
||
},
|
||
"chatgpt-4o-latest": {
|
||
"description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
|
||
},
|
||
"claude-2.0": {
|
||
"description": "Claude 2 oferece avanços em capacidades críticas para empresas, incluindo um contexto líder do setor de 200K tokens, uma redução significativa na taxa de alucinação do modelo, prompts de sistema e uma nova funcionalidade de teste: chamadas de ferramentas."
|
||
},
|
||
"claude-2.1": {
|
||
"description": "Claude 2 oferece avanços em capacidades críticas para empresas, incluindo um contexto líder do setor de 200K tokens, uma redução significativa na taxa de alucinação do modelo, prompts de sistema e uma nova funcionalidade de teste: chamadas de ferramentas."
|
||
},
|
||
"claude-3-5-haiku-20241022": {
|
||
"description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, o Claude 3.5 Haiku apresenta melhorias em várias habilidades e superou o maior modelo da geração anterior, o Claude 3 Opus, em muitos testes de referência de inteligência."
|
||
},
|
||
"claude-3-5-haiku-latest": {
|
||
"description": "Claude 3.5 Haiku oferece respostas rápidas, ideal para tarefas leves."
|
||
},
|
||
"claude-3-7-sonnet-20250219": {
|
||
"description": "Claude 3.7 Sonnet é o modelo de IA mais poderoso da Anthropic, com desempenho de ponta em tarefas altamente complexas. Ele pode lidar com prompts abertos e cenários não vistos, apresentando fluência excepcional e compreensão semelhante à humana. O Claude 3.7 Sonnet demonstra as possibilidades de geração de IA na vanguarda."
|
||
},
|
||
"claude-3-7-sonnet-latest": {
|
||
"description": "Claude 3.7 Sonnet é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluidez e compreensão."
|
||
},
|
||
"claude-3-haiku-20240307": {
|
||
"description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas. Ele possui desempenho direcionado rápido e preciso."
|
||
},
|
||
"claude-3-opus-20240229": {
|
||
"description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluência e compreensão."
|
||
},
|
||
"claude-3-sonnet-20240229": {
|
||
"description": "Claude 3 Sonnet oferece um equilíbrio ideal entre inteligência e velocidade para cargas de trabalho empresariais. Ele fornece máxima utilidade a um custo mais baixo, sendo confiável e adequado para implantação em larga escala."
|
||
},
|
||
"claude-haiku-4-5-20251001": {
|
||
"description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio expandida."
|
||
},
|
||
"claude-opus-4-1-20250805": {
|
||
"description": "Claude Opus 4.1 é o modelo mais poderoso e recente da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluidez e compreensão."
|
||
},
|
||
"claude-opus-4-1-20250805-thinking": {
|
||
"description": "Modelo de pensamento Claude Opus 4.1, uma versão avançada que pode demonstrar seu processo de raciocínio."
|
||
},
|
||
"claude-opus-4-20250514": {
|
||
"description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluência e compreensão."
|
||
},
|
||
"claude-opus-4-5-20251101": {
|
||
"description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas de altíssima qualidade e grande capacidade de raciocínio."
|
||
},
|
||
"claude-sonnet-4-20250514": {
|
||
"description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que o usuário veja claramente esses processos."
|
||
},
|
||
"claude-sonnet-4-20250514-thinking": {
|
||
"description": "Modelo de pensamento Claude Sonnet 4 pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que o usuário veja claramente esses processos."
|
||
},
|
||
"claude-sonnet-4-5-20250929": {
|
||
"description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até agora."
|
||
},
|
||
"codegeex-4": {
|
||
"description": "O CodeGeeX-4 é um poderoso assistente de programação AI, suportando perguntas e respostas inteligentes e autocompletar em várias linguagens de programação, aumentando a eficiência do desenvolvimento."
|
||
},
|
||
"codegeex4-all-9b": {
|
||
"description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue, suportando funcionalidades abrangentes, incluindo completude e geração de código, interpretador de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo diversos cenários de desenvolvimento de software. É um modelo de geração de código de ponta com menos de 10B de parâmetros."
|
||
},
|
||
"codegemma": {
|
||
"description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração."
|
||
},
|
||
"codegemma:2b": {
|
||
"description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração."
|
||
},
|
||
"codellama": {
|
||
"description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores."
|
||
},
|
||
"codellama/CodeLlama-34b-Instruct-hf": {
|
||
"description": "Code Llama é um LLM focado em geração e discussão de código, combinando amplo suporte a linguagens de programação, adequado para ambientes de desenvolvedores."
|
||
},
|
||
"codellama:13b": {
|
||
"description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores."
|
||
},
|
||
"codellama:34b": {
|
||
"description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores."
|
||
},
|
||
"codellama:70b": {
|
||
"description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores."
|
||
},
|
||
"codeqwen": {
|
||
"description": "CodeQwen1.5 é um modelo de linguagem de grande escala treinado com uma vasta quantidade de dados de código, projetado para resolver tarefas de programação complexas."
|
||
},
|
||
"codestral": {
|
||
"description": "Codestral é o primeiro modelo de código da Mistral AI, oferecendo suporte excepcional para tarefas de geração de código."
|
||
},
|
||
"codestral-latest": {
|
||
"description": "Codestral é um modelo gerador de ponta focado em geração de código, otimizado para preenchimento intermediário e tarefas de conclusão de código."
|
||
},
|
||
"codex-mini-latest": {
|
||
"description": "codex-mini-latest é uma versão ajustada do o4-mini, especialmente para Codex CLI. Para uso direto via API, recomendamos começar pelo gpt-4.1."
|
||
},
|
||
"cogito-2.1:671b": {
|
||
"description": "Cogito v2.1 671B é um modelo de linguagem de código aberto dos EUA com uso comercial gratuito, destacando-se por desempenho comparável aos melhores modelos, eficiência de raciocínio por token, contexto longo de 128k e capacidades abrangentes."
|
||
},
|
||
"cogview-4": {
|
||
"description": "CogView-4 é o primeiro modelo de geração de imagens a partir de texto open source da Zhipu que suporta a geração de caracteres chineses. Ele apresenta melhorias abrangentes em compreensão semântica, qualidade de geração de imagens e capacidade de geração de textos em chinês e inglês, suportando entradas bilíngues de qualquer comprimento e podendo gerar imagens em qualquer resolução dentro do intervalo especificado."
|
||
},
|
||
"cohere-command-r": {
|
||
"description": "Command R é um modelo generativo escalável voltado para RAG e uso de ferramentas, permitindo IA em escala de produção para empresas."
|
||
},
|
||
"cohere-command-r-plus": {
|
||
"description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
|
||
},
|
||
"cohere/Cohere-command-r": {
|
||
"description": "Command R é um modelo generativo escalável projetado para uso com RAG e ferramentas, permitindo que empresas implementem IA em nível de produção."
|
||
},
|
||
"cohere/Cohere-command-r-plus": {
|
||
"description": "Command R+ é um modelo otimizado de ponta para RAG, projetado para cargas de trabalho empresariais."
|
||
},
|
||
"cohere/command-a": {
|
||
"description": "Command A é o modelo de maior desempenho da Cohere até hoje, destacando-se no uso de ferramentas, agentes, geração aprimorada por recuperação (RAG) e casos multilíngues. Com um comprimento de contexto de 256K, roda em apenas dois GPUs, oferecendo um aumento de 150% na taxa de transferência em comparação com o Command R+ 08-2024."
|
||
},
|
||
"cohere/command-r": {
|
||
"description": "Command R é um grande modelo de linguagem otimizado para interações de diálogo e tarefas de contexto longo. Ele se posiciona na categoria \"escalável\", equilibrando alto desempenho e forte precisão, permitindo que empresas avancem além da prova de conceito para produção."
|
||
},
|
||
"cohere/command-r-plus": {
|
||
"description": "Command R+ é o mais recente grande modelo de linguagem da Cohere, otimizado para interações de diálogo e tarefas de contexto longo. Seu objetivo é oferecer desempenho excepcional, permitindo que empresas avancem além da prova de conceito para produção."
|
||
},
|
||
"cohere/embed-v4.0": {
|
||
"description": "Um modelo que permite classificar texto, imagens ou conteúdo misto ou convertê-los em embeddings."
|
||
},
|
||
"comfyui/flux-dev": {
|
||
"description": "FLUX.1 Dev - Modelo de geração de imagens a partir de texto de alta qualidade, gera em 10 a 50 etapas, ideal para criações artísticas e obras visuais refinadas"
|
||
},
|
||
"comfyui/flux-kontext-dev": {
|
||
"description": "FLUX.1 Kontext-dev - Modelo de edição de imagens, permite modificar imagens existentes com instruções em texto, com suporte para edições locais e transferência de estilo"
|
||
},
|
||
"comfyui/flux-krea-dev": {
|
||
"description": "FLUX.1 Krea-dev - Modelo de geração de imagens com segurança aprimorada, desenvolvido em parceria com a Krea, com filtros de segurança integrados"
|
||
},
|
||
"comfyui/flux-schnell": {
|
||
"description": "FLUX.1 Schnell - Modelo ultrarrápido de geração de imagens a partir de texto, produz imagens de alta qualidade em apenas 1 a 4 etapas, ideal para aplicações em tempo real e prototipagem rápida"
|
||
},
|
||
"comfyui/stable-diffusion-15": {
|
||
"description": "Modelo Stable Diffusion 1.5 para geração de imagens a partir de texto, clássico com resolução 512x512, ideal para prototipagem rápida e experimentação criativa"
|
||
},
|
||
"comfyui/stable-diffusion-35": {
|
||
"description": "Stable Diffusion 3.5 - nova geração de modelo de geração de imagens, disponível nas versões Large e Medium, requer arquivos externos de codificador CLIP, oferece excelente qualidade de imagem e precisão na interpretação de prompts"
|
||
},
|
||
"comfyui/stable-diffusion-35-inclclip": {
|
||
"description": "Stable Diffusion 3.5 com codificadores CLIP/T5 integrados, não requer arquivos externos, compatível com modelos como sd3.5_medium_incl_clips, com menor uso de recursos"
|
||
},
|
||
"comfyui/stable-diffusion-custom": {
|
||
"description": "Modelo SD personalizado para geração de imagens a partir de texto. Nomeie o arquivo do modelo como custom_sd_lobe.safetensors e, se houver VAE, use custom_sd_vae_lobe.safetensors. Os arquivos devem ser colocados nas pastas corretas conforme exigido pelo Comfy"
|
||
},
|
||
"comfyui/stable-diffusion-custom-refiner": {
|
||
"description": "Modelo SDXL personalizado para conversão de imagem para imagem. Nomeie o arquivo do modelo como custom_sd_lobe.safetensors e, se houver VAE, use custom_sd_vae_lobe.safetensors. Os arquivos devem ser colocados nas pastas corretas conforme exigido pelo Comfy"
|
||
},
|
||
"comfyui/stable-diffusion-refiner": {
|
||
"description": "Modelo SDXL para conversão de imagem para imagem, gera imagens de alta qualidade com base em uma imagem de entrada, com suporte para transferência de estilo, restauração de imagem e transformações criativas"
|
||
},
|
||
"comfyui/stable-diffusion-xl": {
|
||
"description": "Modelo SDXL para geração de imagens a partir de texto, com suporte para resolução alta de 1024x1024, oferecendo melhor qualidade de imagem e riqueza de detalhes"
|
||
},
|
||
"command": {
|
||
"description": "Um modelo de diálogo que segue instruções, apresentando alta qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com nosso modelo de geração básico."
|
||
},
|
||
"command-a-03-2025": {
|
||
"description": "O Command A é o nosso modelo mais poderoso até agora, apresentando um desempenho excepcional em uso de ferramentas, agentes, geração aumentada por recuperação (RAG) e cenários de aplicação multilíngue. O Command A possui um comprimento de contexto de 256K, pode ser executado com apenas duas GPUs e, em comparação com o Command R+ 08-2024, teve um aumento de 150% na taxa de transferência."
|
||
},
|
||
"command-light": {
|
||
"description": "Uma versão do Command que é menor e mais rápida, quase tão poderosa, mas com maior velocidade."
|
||
},
|
||
"command-light-nightly": {
|
||
"description": "Para reduzir o intervalo entre os lançamentos de versões principais, lançamos versões noturnas do modelo Command. Para a série command-light, essa versão é chamada de command-light-nightly. Observe que o command-light-nightly é a versão mais recente, experimental e (possivelmente) instável. As versões noturnas são atualizadas regularmente e sem aviso prévio, portanto, não são recomendadas para uso em ambientes de produção."
|
||
},
|
||
"command-nightly": {
|
||
"description": "Para reduzir o intervalo entre os lançamentos de versões principais, lançamos versões noturnas do modelo Command. Para a série Command, essa versão é chamada de command-cightly. Observe que o command-nightly é a versão mais recente, experimental e (possivelmente) instável. As versões noturnas são atualizadas regularmente e sem aviso prévio, portanto, não são recomendadas para uso em ambientes de produção."
|
||
},
|
||
"command-r": {
|
||
"description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
|
||
},
|
||
"command-r-03-2024": {
|
||
"description": "O Command R é um modelo de diálogo que segue instruções, apresentando maior qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com modelos anteriores. Ele pode ser utilizado em fluxos de trabalho complexos, como geração de código, geração aumentada por recuperação (RAG), uso de ferramentas e agentes."
|
||
},
|
||
"command-r-08-2024": {
|
||
"description": "O command-r-08-2024 é uma versão atualizada do modelo Command R, lançada em agosto de 2024."
|
||
},
|
||
"command-r-plus": {
|
||
"description": "Command R+ é um modelo de linguagem de grande porte de alto desempenho, projetado para cenários empresariais reais e aplicações complexas."
|
||
},
|
||
"command-r-plus-04-2024": {
|
||
"description": "O Command R+ é um modelo de diálogo que segue instruções, apresentando maior qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com modelos anteriores. É mais adequado para fluxos de trabalho complexos de RAG e uso de ferramentas em múltiplas etapas."
|
||
},
|
||
"command-r-plus-08-2024": {
|
||
"description": "Command R+ é um modelo de diálogo que segue instruções, apresentando maior qualidade e confiabilidade em tarefas de linguagem, além de ter um comprimento de contexto mais longo em comparação com modelos anteriores. É mais adequado para fluxos de trabalho RAG complexos e uso de ferramentas em múltiplas etapas."
|
||
},
|
||
"command-r7b-12-2024": {
|
||
"description": "O command-r7b-12-2024 é uma versão compacta e eficiente, lançada em dezembro de 2024. Ele se destaca em tarefas que exigem raciocínio complexo e processamento em múltiplas etapas, como RAG, uso de ferramentas e agentes."
|
||
},
|
||
"computer-use-preview": {
|
||
"description": "O modelo computer-use-preview é um modelo dedicado projetado para \"ferramentas de uso de computador\", treinado para entender e executar tarefas relacionadas a computadores."
|
||
},
|
||
"dall-e-2": {
|
||
"description": "O segundo modelo DALL·E, suporta geração de imagens mais realistas e precisas, com resolução quatro vezes maior que a da primeira geração."
|
||
},
|
||
"dall-e-3": {
|
||
"description": "O mais recente modelo DALL·E, lançado em novembro de 2023. Suporta geração de imagens mais realistas e precisas, com maior capacidade de detalhamento."
|
||
},
|
||
"databricks/dbrx-instruct": {
|
||
"description": "DBRX Instruct oferece capacidade de processamento de instruções altamente confiável, suportando aplicações em diversos setores."
|
||
},
|
||
"deepseek-ai/DeepSeek-OCR": {
|
||
"description": "O DeepSeek-OCR é um modelo de linguagem visual desenvolvido pela DeepSeek AI, com foco em reconhecimento óptico de caracteres (OCR) e \"compressão óptica contextual\". O modelo explora os limites da compressão de informações contextuais a partir de imagens, sendo capaz de processar documentos de forma eficiente e convertê-los em formatos estruturados como Markdown. Ele reconhece com precisão o conteúdo textual em imagens, sendo especialmente adequado para digitalização de documentos, extração de texto e processamento estruturado."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1": {
|
||
"description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho da inferência. Ele apresenta desempenho comparável ao OpenAI-o1 em tarefas matemáticas, de código e de inferência, e melhora o resultado geral por meio de métodos de treinamento cuidadosamente projetados."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-0528": {
|
||
"description": "DeepSeek R1, ao utilizar recursos computacionais ampliados e introduzir mecanismos de otimização algorítmica durante o pós-treinamento, aumentou significativamente a profundidade de suas capacidades de raciocínio e inferência. Este modelo apresenta desempenho excelente em diversos benchmarks, incluindo matemática, programação e lógica geral. Seu desempenho geral está próximo de modelos líderes, como O3 e Gemini 2.5 Pro."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
|
||
"description": "DeepSeek-R1-0528-Qwen3-8B é um modelo obtido pela destilação da cadeia de pensamento do DeepSeek-R1-0528 para o Qwen3 8B Base. Este modelo alcança desempenho de ponta (SOTA) entre modelos open source, superando o Qwen3 8B em 10% no teste AIME 2024 e atingindo o nível do Qwen3-235B-thinking. Apresenta excelente desempenho em raciocínio matemático, programação e lógica geral, compartilhando a arquitetura do Qwen3-8B, mas utilizando a configuração de tokenização do DeepSeek-R1-0528."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
||
"description": "Modelo de destilação DeepSeek-R1, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||
"description": "Modelo de destilação DeepSeek-R1, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
|
||
"description": "Modelo de destilação DeepSeek-R1, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-32B é um modelo obtido através da destilação do Qwen2.5-32B. Este modelo foi ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando desempenho excepcional em várias áreas, como matemática, programação e raciocínio. Obteve resultados notáveis em vários testes de referência, alcançando uma precisão de 94,3% no MATH-500, demonstrando forte capacidade de raciocínio matemático."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-7B é um modelo obtido através da destilação do Qwen2.5-Math-7B. Este modelo foi ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando excelente capacidade de inferência. Apresentou desempenho notável em vários testes de referência, alcançando uma precisão de 92,8% no MATH-500, uma taxa de aprovação de 55,5% no AIME 2024 e uma pontuação de 1189 no CodeForces, demonstrando forte capacidade matemática e de programação para um modelo de 7B."
|
||
},
|
||
"deepseek-ai/DeepSeek-V2.5": {
|
||
"description": "DeepSeek V2.5 combina as excelentes características das versões anteriores, aprimorando a capacidade geral e de codificação."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3": {
|
||
"description": "DeepSeek-V3 é um modelo de linguagem de especialistas mistos (MoE) com 671 bilhões de parâmetros, utilizando atenção latente de múltiplas cabeças (MLA) e a arquitetura DeepSeekMoE, combinando uma estratégia de balanceamento de carga sem perda auxiliar para otimizar a eficiência de inferência e treinamento. Após ser pré-treinado em 14,8 trilhões de tokens de alta qualidade e passar por ajuste fino supervisionado e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto em desempenho, aproximando-se de modelos fechados líderes."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3.1": {
|
||
"description": "O modelo DeepSeek V3.1 adota uma arquitetura de inferência híbrida, suportando tanto o modo de raciocínio quanto o modo não-racional."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
||
"description": "DeepSeek-V3.1-Terminus é uma versão atualizada do modelo V3.1 lançado pela DeepSeek, posicionada como um modelo de linguagem grande com agentes híbridos. Esta atualização mantém as capacidades originais do modelo, focando na correção de problemas reportados pelos usuários e na melhoria da estabilidade. Houve uma melhoria significativa na consistência linguística, reduzindo o uso misto de chinês e inglês e a ocorrência de caracteres anômalos. O modelo integra o “Modo de Pensamento” e o “Modo Não-Pensamento”, permitindo que os usuários alternem flexivelmente entre eles via templates de chat para diferentes tarefas. Como uma otimização importante, o V3.1-Terminus aprimora o desempenho dos agentes de código e de busca, tornando-os mais confiáveis na chamada de ferramentas e na execução de tarefas complexas em múltiplas etapas."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
||
"description": "DeepSeek-V3.2-Exp é a versão experimental V3.2 lançada pela DeepSeek, representando uma etapa intermediária rumo à próxima geração de arquitetura. Baseando-se no V3.1-Terminus, ela introduz o mecanismo de Atenção Esparsa DeepSeek (DeepSeek Sparse Attention, DSA) para melhorar a eficiência de treinamento e inferência em contextos longos. Foi especialmente otimizada para chamadas de ferramentas, compreensão de documentos extensos e raciocínio em múltiplas etapas. A V3.2-Exp serve como uma ponte entre pesquisa e aplicação comercial, ideal para usuários que buscam maior eficiência de raciocínio em cenários com orçamentos de contexto elevados."
|
||
},
|
||
"deepseek-ai/deepseek-llm-67b-chat": {
|
||
"description": "DeepSeek 67B é um modelo avançado treinado para diálogos de alta complexidade."
|
||
},
|
||
"deepseek-ai/deepseek-r1": {
|
||
"description": "LLM avançado e eficiente, especializado em raciocínio, matemática e programação."
|
||
},
|
||
"deepseek-ai/deepseek-v3.1": {
|
||
"description": "DeepSeek V3.1: modelo de inferência de próxima geração, aprimorado para raciocínio complexo e pensamento em cadeia, ideal para tarefas que exigem análise profunda."
|
||
},
|
||
"deepseek-ai/deepseek-v3.1-terminus": {
|
||
"description": "DeepSeek V3.1: um modelo de inferência de nova geração, com capacidades aprimoradas de raciocínio complexo e pensamento em cadeia, ideal para tarefas que exigem análise aprofundada."
|
||
},
|
||
"deepseek-ai/deepseek-vl2": {
|
||
"description": "DeepSeek-VL2 é um modelo de linguagem visual baseado no DeepSeekMoE-27B, desenvolvido como um especialista misto (MoE), utilizando uma arquitetura de MoE com ativação esparsa, alcançando desempenho excepcional com apenas 4,5 bilhões de parâmetros ativados. Este modelo se destaca em várias tarefas, incluindo perguntas visuais, reconhecimento óptico de caracteres, compreensão de documentos/tabelas/gráficos e localização visual."
|
||
},
|
||
"deepseek-chat": {
|
||
"description": "Um novo modelo de código aberto que combina capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções."
|
||
},
|
||
"deepseek-coder-33B-instruct": {
|
||
"description": "DeepSeek Coder 33B é um modelo de linguagem de código, treinado com 20 trilhões de dados, dos quais 87% são código e 13% são em chinês e inglês. O modelo introduz uma janela de 16K e tarefas de preenchimento, oferecendo funcionalidades de completude de código e preenchimento de fragmentos em nível de projeto."
|
||
},
|
||
"deepseek-coder-v2": {
|
||
"description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo."
|
||
},
|
||
"deepseek-coder-v2:236b": {
|
||
"description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo."
|
||
},
|
||
"deepseek-ocr": {
|
||
"description": "DeepSeek-OCR é um modelo de linguagem visual desenvolvido pela DeepSeek AI, focado em reconhecimento óptico de caracteres (OCR) e 'compressão óptica contextual'. O modelo explora os limites da compressão de informações contextuais a partir de imagens, processando documentos de forma eficiente e convertendo-os em formatos estruturados como Markdown. É altamente preciso na identificação de texto em imagens, sendo ideal para digitalização de documentos, extração de texto e processamento estruturado."
|
||
},
|
||
"deepseek-r1": {
|
||
"description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho da inferência. Ele apresenta desempenho comparável ao OpenAI-o1 em tarefas matemáticas, de código e de inferência, e melhora o resultado geral por meio de métodos de treinamento cuidadosamente projetados."
|
||
},
|
||
"deepseek-r1-0528": {
|
||
"description": "Modelo completo de 685B, lançado em 28 de maio de 2025. O DeepSeek-R1 utilizou amplamente técnicas de aprendizado por reforço na fase pós-treinamento, aumentando significativamente a capacidade de raciocínio do modelo mesmo com poucos dados anotados. Apresenta alto desempenho e forte capacidade em tarefas de matemática, código e raciocínio em linguagem natural."
|
||
},
|
||
"deepseek-r1-250528": {
|
||
"description": "DeepSeek R1 250528, versão completa do modelo de inferência DeepSeek-R1, ideal para tarefas complexas de matemática e lógica."
|
||
},
|
||
"deepseek-r1-70b-fast-online": {
|
||
"description": "DeepSeek R1 70B versão rápida, suporta busca em tempo real, oferecendo maior velocidade de resposta enquanto mantém o desempenho do modelo."
|
||
},
|
||
"deepseek-r1-70b-online": {
|
||
"description": "DeepSeek R1 70B versão padrão, suporta busca em tempo real, adequado para diálogos e tarefas de processamento de texto que requerem informações atualizadas."
|
||
},
|
||
"deepseek-r1-distill-llama": {
|
||
"description": "deepseek-r1-distill-llama é um modelo baseado no Llama, destilado a partir do DeepSeek-R1."
|
||
},
|
||
"deepseek-r1-distill-llama-70b": {
|
||
"description": "DeepSeek R1 Distill Llama 70B, modelo destilado que combina a capacidade de inferência R1 com o ecossistema Llama."
|
||
},
|
||
"deepseek-r1-distill-llama-8b": {
|
||
"description": "DeepSeek-R1-Distill-Llama-8B é um modelo de linguagem grande destilado baseado no Llama-3.1-8B, utilizando saídas do DeepSeek R1."
|
||
},
|
||
"deepseek-r1-distill-qianfan-70b": {
|
||
"description": "DeepSeek R1 Distill Qianfan 70B, modelo R1 destilado baseado no Qianfan-70B, com excelente custo-benefício."
|
||
},
|
||
"deepseek-r1-distill-qianfan-8b": {
|
||
"description": "DeepSeek R1 Distill Qianfan 8B, modelo R1 destilado baseado no Qianfan-8B, ideal para aplicações de pequeno e médio porte."
|
||
},
|
||
"deepseek-r1-distill-qianfan-llama-70b": {
|
||
"description": "DeepSeek R1 Distill Qianfan Llama 70B, modelo R1 destilado baseado no Llama-70B."
|
||
},
|
||
"deepseek-r1-distill-qwen": {
|
||
"description": "deepseek-r1-distill-qwen é um modelo derivado do Qwen, destilado a partir do DeepSeek-R1."
|
||
},
|
||
"deepseek-r1-distill-qwen-1.5b": {
|
||
"description": "DeepSeek R1 Distill Qwen 1.5B, modelo R1 destilado ultraleve, ideal para ambientes com recursos extremamente limitados."
|
||
},
|
||
"deepseek-r1-distill-qwen-14b": {
|
||
"description": "DeepSeek R1 Distill Qwen 14B, modelo R1 destilado de porte médio, adequado para implantação em múltiplos cenários."
|
||
},
|
||
"deepseek-r1-distill-qwen-32b": {
|
||
"description": "DeepSeek R1 Distill Qwen 32B, modelo R1 destilado baseado no Qwen-32B, equilibrando desempenho e custo."
|
||
},
|
||
"deepseek-r1-distill-qwen-7b": {
|
||
"description": "DeepSeek R1 Distill Qwen 7B, modelo R1 destilado leve, ideal para ambientes de borda e implantações privadas corporativas."
|
||
},
|
||
"deepseek-r1-fast-online": {
|
||
"description": "DeepSeek R1 versão completa rápida, suporta busca em tempo real, combinando a poderosa capacidade de 671B de parâmetros com maior velocidade de resposta."
|
||
},
|
||
"deepseek-r1-online": {
|
||
"description": "DeepSeek R1 versão completa, com 671B de parâmetros, suporta busca em tempo real, apresentando capacidades de compreensão e geração mais robustas."
|
||
},
|
||
"deepseek-reasoner": {
|
||
"description": "Modo de pensamento do DeepSeek V3.2. Antes de fornecer a resposta final, o modelo gera uma cadeia de raciocínio para melhorar a precisão da resposta."
|
||
},
|
||
"deepseek-v2": {
|
||
"description": "DeepSeek V2 é um modelo de linguagem eficiente Mixture-of-Experts, adequado para demandas de processamento econômico."
|
||
},
|
||
"deepseek-v2:236b": {
|
||
"description": "DeepSeek V2 236B é o modelo de código projetado do DeepSeek, oferecendo forte capacidade de geração de código."
|
||
},
|
||
"deepseek-v3": {
|
||
"description": "DeepSeek-V3 é um modelo MoE desenvolvido pela Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., com desempenho destacado em várias avaliações, ocupando o primeiro lugar entre os modelos de código aberto nas principais listas. Em comparação com o modelo V2.5, a velocidade de geração do V3 foi aumentada em 3 vezes, proporcionando uma experiência de uso mais rápida e fluida."
|
||
},
|
||
"deepseek-v3-0324": {
|
||
"description": "DeepSeek-V3-0324 é um modelo MoE com 671 bilhões de parâmetros, destacando-se em habilidades de programação e técnicas, compreensão de contexto e processamento de textos longos."
|
||
},
|
||
"deepseek-v3.1": {
|
||
"description": "DeepSeek-V3.1 é o novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Após otimização pós-treinamento, o uso de ferramentas Agent e o desempenho em tarefas inteligentes foram significativamente aprimorados. Suporta janela de contexto de 128k e comprimento máximo de saída de 64k tokens."
|
||
},
|
||
"deepseek-v3.1-terminus": {
|
||
"description": "DeepSeek-V3.1-Terminus é uma versão otimizada para dispositivos finais do modelo de linguagem de grande escala lançado pela DeepSeek."
|
||
},
|
||
"deepseek-v3.1-think-250821": {
|
||
"description": "DeepSeek V3.1 Think 250821, modelo de pensamento profundo correspondente à versão Terminus, ideal para cenários de inferência de alto desempenho."
|
||
},
|
||
"deepseek-v3.1:671b": {
|
||
"description": "DeepSeek V3.1: modelo de inferência de próxima geração, aprimorado para raciocínio complexo e pensamento em cadeia, ideal para tarefas que exigem análise profunda."
|
||
},
|
||
"deepseek-v3.2-exp": {
|
||
"description": "deepseek-v3.2-exp introduz um mecanismo de atenção esparsa, visando melhorar a eficiência de treinamento e inferência no processamento de textos longos, com preço inferior ao do deepseek-v3.1."
|
||
},
|
||
"deepseek-v3.2-think": {
|
||
"description": "DeepSeek V3.2 Think, versão completa do modelo de pensamento profundo, com capacidade reforçada de raciocínio em cadeia longa."
|
||
},
|
||
"deepseek-vl2": {
|
||
"description": "DeepSeek VL2, modelo multimodal com suporte para compreensão de imagem e texto e perguntas visuais de alta granularidade."
|
||
},
|
||
"deepseek-vl2-small": {
|
||
"description": "DeepSeek VL2 Small, versão multimodal leve, ideal para cenários com recursos limitados e alta concorrência."
|
||
},
|
||
"deepseek/deepseek-chat": {
|
||
"description": "DeepSeek-V3 é um modelo de raciocínio híbrido de alto desempenho da equipe DeepSeek, adequado para tarefas complexas e integração com ferramentas."
|
||
},
|
||
"deepseek/deepseek-chat-v3-0324": {
|
||
"description": "O DeepSeek V3 é um modelo misto especializado com 685B de parâmetros, sendo a mais recente iteração da série de modelos de chat da equipe DeepSeek.\n\nEle herda o modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) e se destaca em várias tarefas."
|
||
},
|
||
"deepseek/deepseek-chat-v3-0324:free": {
|
||
"description": "O DeepSeek V3 é um modelo misto especializado com 685B de parâmetros, sendo a mais recente iteração da série de modelos de chat da equipe DeepSeek.\n\nEle herda o modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) e se destaca em várias tarefas."
|
||
},
|
||
"deepseek/deepseek-chat-v3.1": {
|
||
"description": "DeepSeek-V3.1 é um modelo de raciocínio híbrido com contexto longo da DeepSeek, compatível com modos de pensamento e execução direta, além de integração com ferramentas."
|
||
},
|
||
"deepseek/deepseek-r1": {
|
||
"description": "O modelo DeepSeek R1 recebeu uma atualização menor, atualmente na versão DeepSeek-R1-0528. Na atualização mais recente, o DeepSeek R1 melhorou significativamente a profundidade e capacidade de raciocínio ao aproveitar recursos computacionais aumentados e introduzir mecanismos de otimização algorítmica pós-treinamento. O modelo apresenta desempenho excelente em benchmarks de matemática, programação e lógica geral, aproximando-se do desempenho de modelos líderes como O3 e Gemini 2.5 Pro."
|
||
},
|
||
"deepseek/deepseek-r1-0528": {
|
||
"description": "DeepSeek R1 0528 é uma variante atualizada da DeepSeek, com foco em disponibilidade open-source e profundidade de raciocínio."
|
||
},
|
||
"deepseek/deepseek-r1-0528:free": {
|
||
"description": "DeepSeek-R1 melhora significativamente a capacidade de raciocínio do modelo mesmo com poucos dados anotados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta."
|
||
},
|
||
"deepseek/deepseek-r1-distill-llama-70b": {
|
||
"description": "O DeepSeek R1 Distill Llama 70B é um modelo de linguagem de grande porte baseado no Llama3.3 70B. Utilizando o ajuste fino derivado da saída do DeepSeek R1, ele alcança um desempenho competitivo comparável aos modelos de ponta de grande escala."
|
||
},
|
||
"deepseek/deepseek-r1-distill-llama-8b": {
|
||
"description": "DeepSeek R1 Distill Llama 8B é um modelo de linguagem grande destilado baseado no Llama-3.1-8B-Instruct, treinado usando a saída do DeepSeek R1."
|
||
},
|
||
"deepseek/deepseek-r1-distill-qwen-14b": {
|
||
"description": "DeepSeek R1 Distill Qwen 14B é um modelo de linguagem grande destilado baseado no Qwen 2.5 14B, treinado usando a saída do DeepSeek R1. Este modelo superou o o1-mini da OpenAI em vários benchmarks, alcançando os mais recentes avanços tecnológicos em modelos densos (state-of-the-art). Aqui estão alguns resultados de benchmarks:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nClassificação CodeForces: 1481\nEste modelo, ajustado a partir da saída do DeepSeek R1, demonstrou desempenho competitivo comparável a modelos de ponta de maior escala."
|
||
},
|
||
"deepseek/deepseek-r1-distill-qwen-32b": {
|
||
"description": "DeepSeek R1 Distill Qwen 32B é um modelo de linguagem grande destilado baseado no Qwen 2.5 32B, treinado usando a saída do DeepSeek R1. Este modelo superou o o1-mini da OpenAI em vários benchmarks, alcançando os mais recentes avanços tecnológicos em modelos densos (state-of-the-art). Aqui estão alguns resultados de benchmarks:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nClassificação CodeForces: 1691\nEste modelo, ajustado a partir da saída do DeepSeek R1, demonstrou desempenho competitivo comparável a modelos de ponta de maior escala."
|
||
},
|
||
"deepseek/deepseek-r1/community": {
|
||
"description": "DeepSeek R1 é o mais recente modelo de código aberto lançado pela equipe DeepSeek, com desempenho de inferência extremamente robusto, especialmente em tarefas de matemática, programação e raciocínio, alcançando níveis comparáveis ao modelo o1 da OpenAI."
|
||
},
|
||
"deepseek/deepseek-r1:free": {
|
||
"description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
|
||
},
|
||
"deepseek/deepseek-reasoner": {
|
||
"description": "DeepSeek-V3 Thinking (reasoner) é um modelo experimental de raciocínio da DeepSeek, ideal para tarefas de alta complexidade."
|
||
},
|
||
"deepseek/deepseek-v3": {
|
||
"description": "Modelo grande de linguagem universal rápido com capacidades de raciocínio aprimoradas."
|
||
},
|
||
"deepseek/deepseek-v3.1-base": {
|
||
"description": "DeepSeek V3.1 Base é uma versão aprimorada do modelo DeepSeek V3."
|
||
},
|
||
"deepseek/deepseek-v3/community": {
|
||
"description": "DeepSeek-V3 alcançou um avanço significativo na velocidade de inferência em comparação com os modelos anteriores. Classificado como o número um entre os modelos de código aberto, pode competir com os modelos fechados mais avançados do mundo. DeepSeek-V3 utiliza a arquitetura de Atenção Multi-Cabeça (MLA) e DeepSeekMoE, que foram amplamente validadas no DeepSeek-V2. Além disso, DeepSeek-V3 introduziu uma estratégia auxiliar sem perdas para balanceamento de carga e definiu objetivos de treinamento de previsão de múltiplos rótulos para obter um desempenho mais forte."
|
||
},
|
||
"deepseek_r1": {
|
||
"description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho de inferência. Ele se compara ao OpenAI-o1 em tarefas de matemática, código e raciocínio, e, através de métodos de treinamento cuidadosamente projetados, melhorou o desempenho geral."
|
||
},
|
||
"deepseek_r1_distill_llama_70b": {
|
||
"description": "DeepSeek-R1-Distill-Llama-70B é um modelo obtido através do treinamento de destilação do Llama-3.3-70B-Instruct. Este modelo é parte da série DeepSeek-R1 e, através do uso de amostras geradas pelo DeepSeek-R1, demonstrou desempenho excepcional em matemática, programação e raciocínio."
|
||
},
|
||
"deepseek_r1_distill_qwen_14b": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-14B é um modelo obtido através da destilação de conhecimento do Qwen2.5-14B. Este modelo foi ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando excelente capacidade de inferência."
|
||
},
|
||
"deepseek_r1_distill_qwen_32b": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-32B é um modelo obtido através da destilação de conhecimento do Qwen2.5-32B. Este modelo foi ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando desempenho excepcional em várias áreas, incluindo matemática, programação e raciocínio."
|
||
},
|
||
"doubao-1.5-lite-32k": {
|
||
"description": "Doubao-1.5-lite é a nova geração de modelo leve, com velocidade de resposta extrema, alcançando níveis de desempenho e latência de classe mundial."
|
||
},
|
||
"doubao-1.5-pro-256k": {
|
||
"description": "Doubao-1.5-pro-256k é uma versão totalmente aprimorada do Doubao-1.5-Pro, com um aumento significativo de 10% no desempenho geral. Suporta raciocínio com janelas de contexto de 256k e um comprimento de saída de até 12k tokens. Maior desempenho, janelas maiores e excelente custo-benefício, adequado para uma ampla gama de cenários de aplicação."
|
||
},
|
||
"doubao-1.5-pro-32k": {
|
||
"description": "Doubao-1.5-pro é a nova geração de modelo principal, com desempenho totalmente aprimorado, destacando-se em conhecimento, código, raciocínio, entre outros aspectos."
|
||
},
|
||
"doubao-1.5-thinking-pro": {
|
||
"description": "O modelo de pensamento profundo Doubao-1.5 apresenta um desempenho excepcional em áreas especializadas como matemática, programação e raciocínio científico, além de tarefas gerais como escrita criativa. Ele alcançou ou se aproximou do nível de elite da indústria em várias referências respeitáveis, como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e uma saída de 16k."
|
||
},
|
||
"doubao-1.5-thinking-pro-m": {
|
||
"description": "Doubao-1.5 é um novo modelo de pensamento profundo (versão m com capacidade nativa de inferência multimodal profunda), destacando-se em matemática, programação, raciocínio científico e tarefas gerais como escrita criativa. Alcança ou se aproxima do topo da indústria em benchmarks como AIME 2024, Codeforces e GPQA. Suporta janela de contexto de 128k e saída de 16k."
|
||
},
|
||
"doubao-1.5-thinking-vision-pro": {
|
||
"description": "Novo modelo de pensamento profundo visual, com capacidades avançadas de compreensão e inferência multimodal geral, alcançando desempenho SOTA em 37 dos 59 benchmarks públicos."
|
||
},
|
||
"doubao-1.5-ui-tars": {
|
||
"description": "Doubao-1.5-UI-TARS é um modelo Agent nativo para interação com interfaces gráficas (GUI). Possui habilidades humanas de percepção, raciocínio e ação para interação fluida com GUIs."
|
||
},
|
||
"doubao-1.5-vision-lite": {
|
||
"description": "Doubao-1.5-vision-lite é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções. Suporta uma janela de contexto de 128k, com comprimento de saída de até 16k tokens."
|
||
},
|
||
"doubao-1.5-vision-pro": {
|
||
"description": "Doubao-1.5-vision-pro é um modelo multimodal avançado, suportando reconhecimento de imagens em qualquer resolução e proporção extrema, com capacidades aprimoradas de raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções."
|
||
},
|
||
"doubao-1.5-vision-pro-32k": {
|
||
"description": "Doubao-1.5-vision-pro é um modelo multimodal avançado, suportando reconhecimento de imagens em qualquer resolução e proporção extrema, com capacidades aprimoradas de raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções."
|
||
},
|
||
"doubao-lite-128k": {
|
||
"description": "Oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 128k."
|
||
},
|
||
"doubao-lite-32k": {
|
||
"description": "Oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 32k."
|
||
},
|
||
"doubao-lite-4k": {
|
||
"description": "Oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 4k."
|
||
},
|
||
"doubao-pro-256k": {
|
||
"description": "Modelo principal com melhor desempenho, adequado para tarefas complexas, apresentando ótimos resultados em perguntas de referência, resumos, criação, classificação de texto, interpretação de papéis e outros cenários. Suporta inferência e fine-tuning com janela de contexto de 256k."
|
||
},
|
||
"doubao-pro-32k": {
|
||
"description": "Modelo principal com melhor desempenho, adequado para tarefas complexas, apresentando ótimos resultados em perguntas de referência, resumos, criação, classificação de texto, interpretação de papéis e outros cenários. Suporta inferência e fine-tuning com janela de contexto de 32k."
|
||
},
|
||
"doubao-seed-1.6": {
|
||
"description": "Doubao-Seed-1.6 é um novo modelo multimodal de pensamento profundo, suportando três modos de pensamento: auto, thinking e non-thinking. No modo non-thinking, o desempenho supera significativamente o Doubao-1.5-pro/250115. Suporta janela de contexto de 256k e saída de até 16k tokens."
|
||
},
|
||
"doubao-seed-1.6-flash": {
|
||
"description": "Doubao-Seed-1.6-flash é um modelo multimodal de pensamento profundo com velocidade de inferência extrema, TPOT de apenas 10ms; suporta compreensão textual e visual, com capacidade textual superior à geração lite anterior e compreensão visual comparável à série pro dos concorrentes. Suporta janela de contexto de 256k e saída de até 16k tokens."
|
||
},
|
||
"doubao-seed-1.6-lite": {
|
||
"description": "Doubao-Seed-1.6-lite é um novo modelo multimodal de pensamento profundo, com suporte para níveis ajustáveis de esforço de raciocínio (Minimal, Low, Medium, High). Oferece excelente custo-benefício e é a melhor escolha para tarefas comuns, com janela de contexto de até 256k."
|
||
},
|
||
"doubao-seed-1.6-thinking": {
|
||
"description": "Doubao-Seed-1.6-thinking tem capacidade de pensamento significativamente reforçada, melhorando ainda mais habilidades básicas como codificação, matemática e raciocínio lógico em comparação com Doubao-1.5-thinking-pro, além de suportar compreensão visual. Suporta janela de contexto de 256k e saída de até 16k tokens."
|
||
},
|
||
"doubao-seed-1.6-vision": {
|
||
"description": "Doubao-Seed-1.6-vision é um modelo de pensamento profundo visual que demonstra capacidades multimodais gerais mais fortes em cenários como educação, revisão de imagens, inspeção e segurança, e busca e resposta por IA. Suporta janela de contexto de 256k e comprimento máximo de saída de até 64k tokens."
|
||
},
|
||
"doubao-seed-code": {
|
||
"description": "Doubao-Seed-Code é profundamente otimizado para tarefas de programação com agentes, com suporte multimodal (texto/imagem/vídeo) e contexto longo de 256K, compatível com a API da Anthropic, ideal para programação, compreensão visual e cenários com agentes."
|
||
},
|
||
"doubao-seededit-3-0-i2i-250628": {
|
||
"description": "O modelo de geração de imagens Doubao foi desenvolvido pela equipe Seed da ByteDance, suporta entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Suporta edição de imagens por comandos de texto, gerando imagens com lados entre 512 e 1536 pixels."
|
||
},
|
||
"doubao-seedream-3-0-t2i-250415": {
|
||
"description": "O modelo de geração de imagens Seedream 3.0 foi desenvolvido pela equipe Seed da ByteDance, suporta entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Gera imagens baseadas em prompts de texto."
|
||
},
|
||
"doubao-seedream-4-0-250828": {
|
||
"description": "O modelo de geração de imagens Seedream 4.0 foi desenvolvido pela equipe Seed da ByteDance, suporta entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Gera imagens baseadas em prompts de texto."
|
||
},
|
||
"doubao-vision-lite-32k": {
|
||
"description": "O modelo Doubao-vision é um grande modelo multimodal lançado pela Doubao, com forte capacidade de compreensão e inferência de imagens, além de compreensão precisa de instruções. O modelo demonstra desempenho robusto em extração de informações de texto em imagens e tarefas de inferência baseadas em imagens, podendo ser aplicado a tarefas visuais de perguntas e respostas mais complexas e amplas."
|
||
},
|
||
"doubao-vision-pro-32k": {
|
||
"description": "O modelo Doubao-vision é um grande modelo multimodal lançado pela Doubao, com forte capacidade de compreensão e inferência de imagens, além de compreensão precisa de instruções. O modelo demonstra desempenho robusto em extração de informações de texto em imagens e tarefas de inferência baseadas em imagens, podendo ser aplicado a tarefas visuais de perguntas e respostas mais complexas e amplas."
|
||
},
|
||
"emohaa": {
|
||
"description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais."
|
||
},
|
||
"ernie-4.5-0.3b": {
|
||
"description": "ERNIE 4.5 0.3B, modelo leve e de código aberto, ideal para implantação local e personalizada."
|
||
},
|
||
"ernie-4.5-21b-a3b": {
|
||
"description": "ERNIE 4.5 21B A3B, modelo de grande porte de código aberto, com desempenho superior em tarefas de compreensão e geração."
|
||
},
|
||
"ernie-4.5-300b-a47b": {
|
||
"description": "ERNIE 4.5 300B A47B é um modelo especialista híbrido em larga escala lançado pela Wenxin da Baidu, com desempenho excepcional em raciocínio."
|
||
},
|
||
"ernie-4.5-8k-preview": {
|
||
"description": "ERNIE 4.5 8K Preview, modelo de pré-visualização com contexto de 8K, para testes e experimentação das capacidades do Wenxin 4.5."
|
||
},
|
||
"ernie-4.5-turbo-128k": {
|
||
"description": "ERNIE 4.5 Turbo 128K, modelo universal de alto desempenho com suporte para busca aprimorada e uso de ferramentas, ideal para perguntas e respostas, código, agentes inteligentes e outros cenários."
|
||
},
|
||
"ernie-4.5-turbo-128k-preview": {
|
||
"description": "ERNIE 4.5 Turbo 128K Preview, versão de pré-visualização com capacidades equivalentes à versão oficial, ideal para testes e integração."
|
||
},
|
||
"ernie-4.5-turbo-32k": {
|
||
"description": "ERNIE 4.5 Turbo 32K, versão com contexto médio-longo, ideal para perguntas e respostas, recuperação de conhecimento e diálogos em múltiplas rodadas."
|
||
},
|
||
"ernie-4.5-turbo-latest": {
|
||
"description": "ERNIE 4.5 Turbo Latest, versão mais recente com desempenho otimizado, ideal como modelo principal em ambientes de produção."
|
||
},
|
||
"ernie-4.5-turbo-vl": {
|
||
"description": "ERNIE 4.5 Turbo VL, modelo multimodal maduro, ideal para tarefas de compreensão e reconhecimento de imagem e texto em produção."
|
||
},
|
||
"ernie-4.5-turbo-vl-32k": {
|
||
"description": "ERNIE 4.5 Turbo VL 32K, versão multimodal com contexto médio-longo, ideal para compreensão conjunta de documentos longos e imagens."
|
||
},
|
||
"ernie-4.5-turbo-vl-32k-preview": {
|
||
"description": "ERNIE 4.5 Turbo VL 32K Preview, versão de pré-visualização multimodal 32K, ideal para avaliação de capacidades visuais em contexto longo."
|
||
},
|
||
"ernie-4.5-turbo-vl-latest": {
|
||
"description": "ERNIE 4.5 Turbo VL Latest, versão multimodal mais recente, com melhor desempenho em compreensão e raciocínio de imagem e texto."
|
||
},
|
||
"ernie-4.5-turbo-vl-preview": {
|
||
"description": "ERNIE 4.5 Turbo VL Preview, modelo multimodal de pré-visualização com suporte para compreensão e geração de imagem e texto, ideal para perguntas visuais e experiências de entendimento de conteúdo."
|
||
},
|
||
"ernie-4.5-vl-28b-a3b": {
|
||
"description": "ERNIE 4.5 VL 28B A3B, modelo multimodal de código aberto com suporte para tarefas de compreensão e raciocínio de imagem e texto."
|
||
},
|
||
"ernie-5.0-thinking-latest": {
|
||
"description": "Wenxin 5.0 Thinking é um modelo principal multimodal nativo, com suporte unificado para texto, imagem, áudio e vídeo. Com capacidades amplamente aprimoradas, é adequado para perguntas complexas, criação de conteúdo e cenários com agentes inteligentes."
|
||
},
|
||
"ernie-5.0-thinking-preview": {
|
||
"description": "Wenxin 5.0 Thinking Preview, modelo nativo multimodal de última geração com suporte unificado para texto, imagem, áudio e vídeo, com capacidades amplamente aprimoradas, ideal para perguntas complexas, criação e agentes inteligentes."
|
||
},
|
||
"ernie-char-8k": {
|
||
"description": "ERNIE Character 8K, modelo de diálogo com personalidade, ideal para construção de personagens e conversas de longo prazo."
|
||
},
|
||
"ernie-char-fiction-8k": {
|
||
"description": "ERNIE Character Fiction 8K, modelo de personalidade voltado para criação de histórias e ficção, ideal para geração de narrativas longas."
|
||
},
|
||
"ernie-char-fiction-8k-preview": {
|
||
"description": "ERNIE Character Fiction 8K Preview, versão de pré-visualização do modelo de criação de personagens e enredos, para testes e experimentação."
|
||
},
|
||
"ernie-irag-edit": {
|
||
"description": "ERNIE iRAG Edit, modelo de edição de imagem com suporte para remoção, repintura e geração de variantes."
|
||
},
|
||
"ernie-lite-8k": {
|
||
"description": "ERNIE Lite 8K, modelo universal leve, ideal para perguntas e respostas cotidianas e geração de conteúdo com baixo custo."
|
||
},
|
||
"ernie-lite-pro-128k": {
|
||
"description": "ERNIE Lite Pro 128K, modelo leve de alto desempenho, ideal para cenários sensíveis a latência e custo."
|
||
},
|
||
"ernie-novel-8k": {
|
||
"description": "ERNIE Novel 8K, modelo para criação de romances longos e roteiros de IP, especializado em múltiplos personagens e narrativas paralelas."
|
||
},
|
||
"ernie-speed-128k": {
|
||
"description": "ERNIE Speed 128K, modelo grande sem custo de entrada/saída, ideal para compreensão de textos longos e testes em larga escala."
|
||
},
|
||
"ernie-speed-8k": {
|
||
"description": "ERNIE Speed 8K, modelo gratuito e rápido, ideal para diálogos cotidianos e tarefas leves de texto."
|
||
},
|
||
"ernie-speed-pro-128k": {
|
||
"description": "ERNIE Speed Pro 128K, modelo de alta concorrência e excelente custo-benefício, ideal para serviços online em larga escala e aplicações corporativas."
|
||
},
|
||
"ernie-tiny-8k": {
|
||
"description": "ERNIE Tiny 8K, modelo ultraleve, ideal para perguntas simples, classificação e inferência de baixo custo."
|
||
},
|
||
"ernie-x1-turbo-32k": {
|
||
"description": "ERNIE X1 Turbo 32K, modelo de raciocínio rápido com contexto longo de 32K, ideal para inferência complexa e diálogos em múltiplas rodadas."
|
||
},
|
||
"ernie-x1.1-preview": {
|
||
"description": "ERNIE X1.1 Preview, versão de pré-visualização do modelo de raciocínio ERNIE X1.1, ideal para testes e validação de capacidades."
|
||
},
|
||
"fal-ai/bytedance/seedream/v4": {
|
||
"description": "O modelo de geração de imagens Seedream 4.0 foi desenvolvido pela equipe Seed da ByteDance, suporta entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Gera imagens baseadas em prompts de texto."
|
||
},
|
||
"fal-ai/flux-kontext/dev": {
|
||
"description": "Modelo FLUX.1 focado em tarefas de edição de imagens, suporta entrada de texto e imagem."
|
||
},
|
||
"fal-ai/flux-pro/kontext": {
|
||
"description": "FLUX.1 Kontext [pro] pode processar texto e imagens de referência como entrada, realizando edições locais direcionadas e transformações complexas de cenas inteiras de forma fluida."
|
||
},
|
||
"fal-ai/flux/krea": {
|
||
"description": "Flux Krea [dev] é um modelo de geração de imagens com preferência estética, visando criar imagens mais realistas e naturais."
|
||
},
|
||
"fal-ai/flux/schnell": {
|
||
"description": "FLUX.1 [schnell] é um modelo de geração de imagens com 12 bilhões de parâmetros, focado em gerar imagens de alta qualidade rapidamente."
|
||
},
|
||
"fal-ai/hunyuan-image/v3": {
|
||
"description": "Um poderoso modelo nativo de geração de imagens multimodais"
|
||
},
|
||
"fal-ai/imagen4/preview": {
|
||
"description": "Modelo de geração de imagens de alta qualidade fornecido pelo Google."
|
||
},
|
||
"fal-ai/nano-banana": {
|
||
"description": "Nano Banana é o mais recente, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
|
||
},
|
||
"fal-ai/qwen-image": {
|
||
"description": "Modelo poderoso de imagens brutas da equipe Qwen, com impressionante capacidade de geração de texto em chinês e diversos estilos visuais de imagens."
|
||
},
|
||
"fal-ai/qwen-image-edit": {
|
||
"description": "Modelo profissional de edição de imagens lançado pela equipe Qwen, suporta edição semântica e visual, podendo editar com precisão textos em chinês e inglês, realizar transformação de estilo, rotação de objetos e outras edições de alta qualidade."
|
||
},
|
||
"flux-1-schnell": {
|
||
"description": "Modelo de geração de imagens a partir de texto com 12 bilhões de parâmetros desenvolvido pela Black Forest Labs, utilizando técnica de destilação de difusão adversarial latente, capaz de gerar imagens de alta qualidade em 1 a 4 passos. Seu desempenho é comparável a alternativas proprietárias e é lançado sob licença Apache-2.0, adequado para uso pessoal, acadêmico e comercial."
|
||
},
|
||
"flux-dev": {
|
||
"description": "FLUX.1 [dev] é um modelo open source refinado e com pesos voltado para aplicações não comerciais. Mantém qualidade de imagem e capacidade de seguir instruções próximas à versão profissional FLUX, com maior eficiência operacional. Em comparação com modelos padrão de tamanho similar, é mais eficiente no uso de recursos."
|
||
},
|
||
"flux-kontext-max": {
|
||
"description": "Geração e edição de imagens contextuais de ponta — combinando texto e imagens para obter resultados precisos e coerentes."
|
||
},
|
||
"flux-kontext-pro": {
|
||
"description": "Geração e edição de imagens contextuais de ponta — combinando texto e imagens para obter resultados precisos e coerentes."
|
||
},
|
||
"flux-merged": {
|
||
"description": "O modelo FLUX.1-merged combina as características profundas exploradas na fase de desenvolvimento \"DEV\" com as vantagens de execução rápida representadas por \"Schnell\". Essa combinação não só eleva os limites de desempenho do modelo, como também amplia seu campo de aplicação."
|
||
},
|
||
"flux-pro": {
|
||
"description": "Modelo de geração de imagens por IA de primeira linha para uso comercial — qualidade de imagem incomparável e resultados altamente diversificados."
|
||
},
|
||
"flux-pro-1.1": {
|
||
"description": "Modelo profissional aprimorado de geração de imagens por IA — oferece qualidade de imagem excepcional e precisão no atendimento às instruções de prompt."
|
||
},
|
||
"flux-pro-1.1-ultra": {
|
||
"description": "Geração de imagens por IA em altíssima resolução — suporta saída de 4 megapixels e gera imagens em alta definição em até 10 segundos."
|
||
},
|
||
"flux-schnell": {
|
||
"description": "FLUX.1 [schnell] é atualmente o modelo open source mais avançado de poucos passos, superando concorrentes e até modelos não destilados poderosos como Midjourney v6.0 e DALL·E 3 (HD). Ajustado para preservar toda a diversidade de saída do pré-treinamento, oferece melhorias significativas em qualidade visual, conformidade com instruções, variações de tamanho/proporção, tratamento de fontes e diversidade de saída, proporcionando uma experiência criativa mais rica e variada."
|
||
},
|
||
"flux.1-schnell": {
|
||
"description": "FLUX.1-schnell, modelo de geração de imagem de alto desempenho, ideal para criação rápida de imagens em diversos estilos."
|
||
},
|
||
"gemini-1.0-pro-001": {
|
||
"description": "Gemini 1.0 Pro 001 (Ajuste) oferece desempenho estável e ajustável, sendo a escolha ideal para soluções de tarefas complexas."
|
||
},
|
||
"gemini-1.0-pro-002": {
|
||
"description": "Gemini 1.0 Pro 002 (Ajuste) oferece excelente suporte multimodal, focando na resolução eficaz de tarefas complexas."
|
||
},
|
||
"gemini-1.0-pro-latest": {
|
||
"description": "Gemini 1.0 Pro é o modelo de IA de alto desempenho do Google, projetado para expansão em uma ampla gama de tarefas."
|
||
},
|
||
"gemini-1.5-flash-001": {
|
||
"description": "Gemini 1.5 Flash 001 é um modelo multimodal eficiente, suportando a expansão de aplicações amplas."
|
||
},
|
||
"gemini-1.5-flash-002": {
|
||
"description": "O Gemini 1.5 Flash 002 é um modelo multimodal eficiente, que suporta uma ampla gama de aplicações."
|
||
},
|
||
"gemini-1.5-flash-8b": {
|
||
"description": "O Gemini 1.5 Flash 8B é um modelo multimodal eficiente, com suporte para uma ampla gama de aplicações."
|
||
},
|
||
"gemini-1.5-flash-8b-exp-0924": {
|
||
"description": "O Gemini 1.5 Flash 8B 0924 é o mais recente modelo experimental, com melhorias significativas de desempenho em casos de uso de texto e multimídia."
|
||
},
|
||
"gemini-1.5-flash-8b-latest": {
|
||
"description": "O Gemini 1.5 Flash 8B é um modelo multimodal eficiente que suporta uma ampla gama de aplicações em expansão."
|
||
},
|
||
"gemini-1.5-flash-exp-0827": {
|
||
"description": "Gemini 1.5 Flash 0827 oferece capacidade de processamento multimodal otimizada, adequada para diversos cenários de tarefas complexas."
|
||
},
|
||
"gemini-1.5-flash-latest": {
|
||
"description": "Gemini 1.5 Flash é o mais recente modelo de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para uma variedade de tarefas de expansão eficiente."
|
||
},
|
||
"gemini-1.5-pro-001": {
|
||
"description": "Gemini 1.5 Pro 001 é uma solução de IA multimodal escalável, suportando uma ampla gama de tarefas complexas."
|
||
},
|
||
"gemini-1.5-pro-002": {
|
||
"description": "O Gemini 1.5 Pro 002 é o mais recente modelo pronto para produção, oferecendo saídas de maior qualidade, com melhorias significativas em tarefas matemáticas, contextos longos e tarefas visuais."
|
||
},
|
||
"gemini-1.5-pro-exp-0801": {
|
||
"description": "Gemini 1.5 Pro 0801 oferece excelente capacidade de processamento multimodal, proporcionando maior flexibilidade para o desenvolvimento de aplicações."
|
||
},
|
||
"gemini-1.5-pro-exp-0827": {
|
||
"description": "Gemini 1.5 Pro 0827 combina as mais recentes técnicas de otimização, proporcionando uma capacidade de processamento de dados multimodal mais eficiente."
|
||
},
|
||
"gemini-1.5-pro-latest": {
|
||
"description": "Gemini 1.5 Pro suporta até 2 milhões de tokens, sendo a escolha ideal para modelos multimodais de médio porte, adequados para suporte multifacetado em tarefas complexas."
|
||
},
|
||
"gemini-2.0-flash": {
|
||
"description": "Gemini 2.0 Flash oferece funcionalidades e melhorias de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e uma janela de contexto de 1M tokens."
|
||
},
|
||
"gemini-2.0-flash-001": {
|
||
"description": "Gemini 2.0 Flash oferece funcionalidades e melhorias de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e uma janela de contexto de 1M tokens."
|
||
},
|
||
"gemini-2.0-flash-exp": {
|
||
"description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
|
||
},
|
||
"gemini-2.0-flash-exp-image-generation": {
|
||
"description": "Modelo experimental Gemini 2.0 Flash, suporta geração de imagens"
|
||
},
|
||
"gemini-2.0-flash-lite": {
|
||
"description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
|
||
},
|
||
"gemini-2.0-flash-lite-001": {
|
||
"description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
|
||
},
|
||
"gemini-2.5-flash": {
|
||
"description": "Gemini 2.5 Flash é o modelo com melhor custo-benefício do Google, oferecendo funcionalidades abrangentes."
|
||
},
|
||
"gemini-2.5-flash-image": {
|
||
"description": "Nano Banana é o mais novo, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
|
||
},
|
||
"gemini-2.5-flash-image-preview": {
|
||
"description": "Nano Banana é o mais recente, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
|
||
},
|
||
"gemini-2.5-flash-image-preview:image": {
|
||
"description": "Nano Banana é o mais recente, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
|
||
},
|
||
"gemini-2.5-flash-image:image": {
|
||
"description": "Nano Banana é o mais novo, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
|
||
},
|
||
"gemini-2.5-flash-lite": {
|
||
"description": "Gemini 2.5 Flash-Lite é o modelo mais compacto e com melhor custo-benefício do Google, projetado para uso em larga escala."
|
||
},
|
||
"gemini-2.5-flash-lite-preview-06-17": {
|
||
"description": "Gemini 2.5 Flash-Lite Preview é o modelo mais compacto e com melhor custo-benefício do Google, projetado para uso em larga escala."
|
||
},
|
||
"gemini-2.5-flash-lite-preview-09-2025": {
|
||
"description": "Versão prévia (25 de setembro de 2025) do Gemini 2.5 Flash-Lite"
|
||
},
|
||
"gemini-2.5-flash-preview-04-17": {
|
||
"description": "O Gemini 2.5 Flash Preview é o modelo mais acessível do Google, oferecendo uma gama completa de funcionalidades."
|
||
},
|
||
"gemini-2.5-flash-preview-09-2025": {
|
||
"description": "Versão prévia (25 de setembro de 2025) do Gemini 2.5 Flash"
|
||
},
|
||
"gemini-2.5-pro": {
|
||
"description": "Gemini 2.5 Pro é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas complexos nas áreas de STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contextos longos."
|
||
},
|
||
"gemini-2.5-pro-preview-03-25": {
|
||
"description": "O Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bibliotecas de código e documentos usando longos contextos."
|
||
},
|
||
"gemini-2.5-pro-preview-05-06": {
|
||
"description": "O Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bibliotecas de código e documentos usando longos contextos."
|
||
},
|
||
"gemini-2.5-pro-preview-06-05": {
|
||
"description": "Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bibliotecas de código e documentos usando contexto extenso."
|
||
},
|
||
"gemini-3-pro-image-preview": {
|
||
"description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a diálogos multimodais."
|
||
},
|
||
"gemini-3-pro-image-preview:image": {
|
||
"description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a diálogos multimodais."
|
||
},
|
||
"gemini-3-pro-preview": {
|
||
"description": "Gemini 3 Pro é o modelo de compreensão multimodal mais avançado do mundo, sendo o agente e modelo de programação contextual mais poderoso do Google até hoje, com visualizações ricas e interações profundas baseadas em raciocínio de ponta."
|
||
},
|
||
"gemini-flash-latest": {
|
||
"description": "Última versão do Gemini Flash"
|
||
},
|
||
"gemini-flash-lite-latest": {
|
||
"description": "Última versão do Gemini Flash-Lite"
|
||
},
|
||
"gemini-pro-latest": {
|
||
"description": "Última versão do Gemini Pro"
|
||
},
|
||
"gemma-7b-it": {
|
||
"description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
|
||
},
|
||
"gemma2": {
|
||
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos."
|
||
},
|
||
"gemma2-9b-it": {
|
||
"description": "Gemma 2 9B é um modelo otimizado para integração de tarefas e ferramentas específicas."
|
||
},
|
||
"gemma2:27b": {
|
||
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos."
|
||
},
|
||
"gemma2:2b": {
|
||
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos."
|
||
},
|
||
"generalv3": {
|
||
"description": "Spark Pro é um modelo de linguagem de alto desempenho otimizado para áreas profissionais, focando em matemática, programação, medicina, educação e outros campos, e suportando busca online e plugins integrados como clima e data. Seu modelo otimizado apresenta desempenho excepcional e eficiência em perguntas e respostas complexas, compreensão de linguagem e criação de texto de alto nível, sendo a escolha ideal para cenários de aplicação profissional."
|
||
},
|
||
"generalv3.5": {
|
||
"description": "Spark3.5 Max é a versão mais completa, suportando busca online e muitos plugins integrados. Suas capacidades centrais totalmente otimizadas, juntamente com a definição de papéis do sistema e a funcionalidade de chamada de funções, fazem com que seu desempenho em vários cenários de aplicação complexos seja extremamente excepcional."
|
||
},
|
||
"glm-4": {
|
||
"description": "O GLM-4 é a versão antiga lançada em janeiro de 2024, atualmente substituída pelo mais poderoso GLM-4-0520."
|
||
},
|
||
"glm-4-0520": {
|
||
"description": "O GLM-4-0520 é a versão mais recente do modelo, projetada para tarefas altamente complexas e diversificadas, com desempenho excepcional."
|
||
},
|
||
"glm-4-32b-0414": {
|
||
"description": "GLM-4 32B 0414, versão do modelo universal da série GLM, com suporte para geração e compreensão de texto em múltiplas tarefas."
|
||
},
|
||
"glm-4-9b-chat": {
|
||
"description": "GLM-4-9B-Chat apresenta alto desempenho em semântica, matemática, raciocínio, programação e conhecimento. Também oferece suporte a navegação na web, execução de código, uso de ferramentas personalizadas e raciocínio com textos longos. Suporta 26 idiomas, incluindo japonês, coreano e alemão."
|
||
},
|
||
"glm-4-air": {
|
||
"description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível."
|
||
},
|
||
"glm-4-air-250414": {
|
||
"description": "GLM-4-Air é uma versão de bom custo-benefício, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível."
|
||
},
|
||
"glm-4-airx": {
|
||
"description": "O GLM-4-AirX oferece uma versão eficiente do GLM-4-Air, com velocidade de inferência até 2,6 vezes mais rápida."
|
||
},
|
||
"glm-4-alltools": {
|
||
"description": "O GLM-4-AllTools é um modelo de agente multifuncional, otimizado para suportar planejamento de instruções complexas e chamadas de ferramentas, como navegação na web, interpretação de código e geração de texto, adequado para execução de múltiplas tarefas."
|
||
},
|
||
"glm-4-flash": {
|
||
"description": "O GLM-4-Flash é a escolha ideal para tarefas simples, com a maior velocidade e o preço mais acessível."
|
||
},
|
||
"glm-4-flash-250414": {
|
||
"description": "GLM-4-Flash é a escolha ideal para tarefas simples, sendo a mais rápida e gratuita."
|
||
},
|
||
"glm-4-flashx": {
|
||
"description": "GLM-4-FlashX é uma versão aprimorada do Flash, com velocidade de inferência super rápida."
|
||
},
|
||
"glm-4-long": {
|
||
"description": "O GLM-4-Long suporta entradas de texto superlongas, adequado para tarefas de memória e processamento de documentos em larga escala."
|
||
},
|
||
"glm-4-plus": {
|
||
"description": "O GLM-4-Plus, como um modelo de alta inteligência, possui uma forte capacidade de lidar com textos longos e tarefas complexas, com desempenho amplamente aprimorado."
|
||
},
|
||
"glm-4.1v-thinking-flash": {
|
||
"description": "A série GLM-4.1V-Thinking é atualmente o modelo visual mais potente conhecido na categoria de VLMs de 10 bilhões de parâmetros, integrando tarefas de linguagem visual de ponta no mesmo nível, incluindo compreensão de vídeo, perguntas e respostas sobre imagens, resolução de problemas acadêmicos, reconhecimento óptico de caracteres (OCR), interpretação de documentos e gráficos, agentes GUI, codificação front-end para web, grounding, entre outros. Suas capacidades em várias tarefas superam até modelos com 8 vezes mais parâmetros, como o Qwen2.5-VL-72B. Por meio de técnicas avançadas de aprendizado por reforço, o modelo domina o raciocínio em cadeia para melhorar a precisão e riqueza das respostas, superando significativamente modelos tradicionais sem o mecanismo thinking em termos de resultados finais e interpretabilidade."
|
||
},
|
||
"glm-4.1v-thinking-flashx": {
|
||
"description": "A série GLM-4.1V-Thinking é atualmente o modelo visual mais potente conhecido na categoria de VLMs de 10 bilhões de parâmetros, integrando tarefas de linguagem visual de ponta no mesmo nível, incluindo compreensão de vídeo, perguntas e respostas sobre imagens, resolução de problemas acadêmicos, reconhecimento óptico de caracteres (OCR), interpretação de documentos e gráficos, agentes GUI, codificação front-end para web, grounding, entre outros. Suas capacidades em várias tarefas superam até modelos com 8 vezes mais parâmetros, como o Qwen2.5-VL-72B. Por meio de técnicas avançadas de aprendizado por reforço, o modelo domina o raciocínio em cadeia para melhorar a precisão e riqueza das respostas, superando significativamente modelos tradicionais sem o mecanismo thinking em termos de resultados finais e interpretabilidade."
|
||
},
|
||
"glm-4.5": {
|
||
"description": "Modelo principal da Zhipu, suporta alternância de modos de raciocínio, com capacidade abrangente alcançando o nível SOTA dos modelos open source, e comprimento de contexto de até 128K."
|
||
},
|
||
"glm-4.5-air": {
|
||
"description": "Versão leve do GLM-4.5, equilibrando desempenho e custo-benefício, com capacidade flexível de alternar entre modos híbridos de pensamento."
|
||
},
|
||
"glm-4.5-airx": {
|
||
"description": "Versão ultrarrápida do GLM-4.5-Air, com resposta mais rápida, projetada para demandas de alta velocidade e grande escala."
|
||
},
|
||
"glm-4.5-flash": {
|
||
"description": "Versão gratuita do GLM-4.5, com desempenho destacado em inferência, codificação e agentes inteligentes."
|
||
},
|
||
"glm-4.5-x": {
|
||
"description": "Versão ultrarrápida do GLM-4.5, combinando alto desempenho com velocidade de geração de até 100 tokens por segundo."
|
||
},
|
||
"glm-4.5v": {
|
||
"description": "A nova geração do modelo de raciocínio visual da Zhipu, baseada na arquitetura MOE, com 106B de parâmetros totais e 12B de parâmetros de ativação, alcança o estado da arte (SOTA) entre modelos multimodais de código aberto de nível semelhante em diversos benchmarks, abrangendo tarefas comuns como compreensão de imagens, vídeos, documentos e de interfaces gráficas (GUI)."
|
||
},
|
||
"glm-4.6": {
|
||
"description": "O mais recente modelo principal da Zhipu, GLM-4.6 (355B), supera amplamente a geração anterior em codificação avançada, processamento de textos longos, inferência e capacidades de agentes inteligentes, especialmente alinhado com Claude Sonnet 4 em habilidades de programação, tornando-se o modelo de codificação de ponta nacional."
|
||
},
|
||
"glm-4v": {
|
||
"description": "O GLM-4V oferece uma forte capacidade de compreensão e raciocínio de imagens, suportando várias tarefas visuais."
|
||
},
|
||
"glm-4v-flash": {
|
||
"description": "GLM-4V-Flash é focado na compreensão eficiente de uma única imagem, adequado para cenários de análise de imagem rápida, como análise de imagem em tempo real ou processamento em lote de imagens."
|
||
},
|
||
"glm-4v-plus": {
|
||
"description": "O GLM-4V-Plus possui a capacidade de entender conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais."
|
||
},
|
||
"glm-4v-plus-0111": {
|
||
"description": "GLM-4V-Plus possui capacidade de compreensão de conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais."
|
||
},
|
||
"glm-z1-air": {
|
||
"description": "Modelo de inferência: possui forte capacidade de inferência, adequado para tarefas que exigem raciocínio profundo."
|
||
},
|
||
"glm-z1-airx": {
|
||
"description": "Inferência ultrarrápida: com velocidade de inferência super rápida e forte efeito de raciocínio."
|
||
},
|
||
"glm-z1-flash": {
|
||
"description": "Série GLM-Z1 com forte capacidade de raciocínio complexo, destacando-se em lógica, matemática e programação."
|
||
},
|
||
"glm-z1-flashx": {
|
||
"description": "Alta velocidade e baixo custo: versão aprimorada Flash, com inferência ultrarrápida e garantia de concorrência mais rápida."
|
||
},
|
||
"glm-zero-preview": {
|
||
"description": "O GLM-Zero-Preview possui uma poderosa capacidade de raciocínio complexo, destacando-se em áreas como raciocínio lógico, matemática e programação."
|
||
},
|
||
"global.anthropic.claude-opus-4-5-20251101-v1:0": {
|
||
"description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas de altíssima qualidade e grande capacidade de raciocínio."
|
||
},
|
||
"google/gemini-2.0-flash": {
|
||
"description": "Gemini 2.0 Flash é o modelo de raciocínio de alto desempenho do Google, ideal para tarefas multimodais expandidas."
|
||
},
|
||
"google/gemini-2.0-flash-001": {
|
||
"description": "Gemini 2.0 Flash oferece funcionalidades e melhorias de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e uma janela de contexto de 1M tokens."
|
||
},
|
||
"google/gemini-2.0-flash-exp:free": {
|
||
"description": "O Gemini 2.0 Flash Experimental é o mais recente modelo de IA multimodal experimental do Google, com melhorias de qualidade em comparação com versões anteriores, especialmente em conhecimento do mundo, código e longos contextos."
|
||
},
|
||
"google/gemini-2.0-flash-lite": {
|
||
"description": "Gemini 2.0 Flash Lite oferece funcionalidades de próxima geração e melhorias, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens."
|
||
},
|
||
"google/gemini-2.0-flash-lite-001": {
|
||
"description": "Gemini 2.0 Flash Lite é a versão leve da família Gemini, com raciocínio desativado por padrão para melhorar latência e custo, podendo ser ativado por parâmetro."
|
||
},
|
||
"google/gemini-2.5-flash": {
|
||
"description": "A série Gemini 2.5 Flash (Lite/Pro/Flash) é composta por modelos de raciocínio do Google com latência de média a baixa e alto desempenho."
|
||
},
|
||
"google/gemini-2.5-flash-image": {
|
||
"description": "Gemini 2.5 Flash Image (Nano Banana) é o modelo de geração de imagens do Google, com suporte a diálogos multimodais."
|
||
},
|
||
"google/gemini-2.5-flash-image-free": {
|
||
"description": "Versão gratuita do Gemini 2.5 Flash Image, com suporte limitado para geração multimodal."
|
||
},
|
||
"google/gemini-2.5-flash-image-preview": {
|
||
"description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
|
||
},
|
||
"google/gemini-2.5-flash-lite": {
|
||
"description": "Gemini 2.5 Flash Lite é a versão leve do Gemini 2.5, otimizada para latência e custo, ideal para cenários de alto volume."
|
||
},
|
||
"google/gemini-2.5-flash-preview": {
|
||
"description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
||
},
|
||
"google/gemini-2.5-flash-preview:thinking": {
|
||
"description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
||
},
|
||
"google/gemini-2.5-pro": {
|
||
"description": "Gemini 2.5 Pro é o modelo de raciocínio carro-chefe do Google, com suporte a contexto longo e tarefas complexas."
|
||
},
|
||
"google/gemini-2.5-pro-free": {
|
||
"description": "Versão gratuita do Gemini 2.5 Pro, com suporte limitado a contexto longo multimodal, ideal para testes e fluxos de trabalho leves."
|
||
},
|
||
"google/gemini-2.5-pro-preview": {
|
||
"description": "Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto extenso."
|
||
},
|
||
"google/gemini-3-pro-image-preview": {
|
||
"description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a diálogos multimodais."
|
||
},
|
||
"google/gemini-3-pro-image-preview-free": {
|
||
"description": "Versão gratuita do Gemini 3 Pro Image, com suporte limitado para geração multimodal."
|
||
},
|
||
"google/gemini-3-pro-preview": {
|
||
"description": "Gemini 3 Pro é a próxima geração de modelo de raciocínio multimodal da série Gemini, capaz de compreender texto, áudio, imagem, vídeo e lidar com tarefas complexas e grandes bases de código."
|
||
},
|
||
"google/gemini-3-pro-preview-free": {
|
||
"description": "Versão gratuita de pré-visualização do Gemini 3 Pro, com as mesmas capacidades de compreensão e raciocínio multimodal da versão padrão, mas com limites de uso e taxa, ideal para testes e uso ocasional."
|
||
},
|
||
"google/gemini-embedding-001": {
|
||
"description": "Modelo de embeddings de última geração com desempenho excelente em tarefas de inglês, multilíngue e código."
|
||
},
|
||
"google/gemini-flash-1.5": {
|
||
"description": "Gemini 1.5 Flash oferece capacidades de processamento multimodal otimizadas, adequadas para uma variedade de cenários de tarefas complexas."
|
||
},
|
||
"google/gemini-pro-1.5": {
|
||
"description": "Gemini 1.5 Pro combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodais mais eficiente."
|
||
},
|
||
"google/gemma-2-27b": {
|
||
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde pequenos aplicativos até processamento de dados complexos."
|
||
},
|
||
"google/gemma-2-27b-it": {
|
||
"description": "Gemma 2 continua a filosofia de design leve e eficiente."
|
||
},
|
||
"google/gemma-2-2b-it": {
|
||
"description": "Modelo leve de ajuste de instruções do Google."
|
||
},
|
||
"google/gemma-2-9b": {
|
||
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde pequenos aplicativos até processamento de dados complexos."
|
||
},
|
||
"google/gemma-2-9b-it": {
|
||
"description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google."
|
||
},
|
||
"google/gemma-2-9b-it:free": {
|
||
"description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google."
|
||
},
|
||
"google/gemma-2b-it": {
|
||
"description": "Gemma Instruct (2B) oferece capacidade básica de processamento de instruções, adequada para aplicações leves."
|
||
},
|
||
"google/gemma-3-12b-it": {
|
||
"description": "Gemma 3 12B é um modelo de linguagem open source do Google que estabelece novos padrões em eficiência e desempenho."
|
||
},
|
||
"google/gemma-3-27b-it": {
|
||
"description": "Gemma 3 27B é um modelo de linguagem de código aberto do Google, que estabelece novos padrões em eficiência e desempenho."
|
||
},
|
||
"google/text-embedding-005": {
|
||
"description": "Modelo de embeddings de texto focado em inglês, otimizado para tarefas de código e linguagem inglesa."
|
||
},
|
||
"google/text-multilingual-embedding-002": {
|
||
"description": "Modelo de embeddings de texto multilíngue otimizado para tarefas cross-linguísticas, suportando múltiplos idiomas."
|
||
},
|
||
"gpt-3.5-turbo": {
|
||
"description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
|
||
},
|
||
"gpt-3.5-turbo-0125": {
|
||
"description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
|
||
},
|
||
"gpt-3.5-turbo-1106": {
|
||
"description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
|
||
},
|
||
"gpt-3.5-turbo-instruct": {
|
||
"description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
|
||
},
|
||
"gpt-35-turbo": {
|
||
"description": "GPT 3.5 Turbo, um modelo eficiente fornecido pela OpenAI, adequado para tarefas de chat e geração de texto, suportando chamadas de função paralelas."
|
||
},
|
||
"gpt-35-turbo-16k": {
|
||
"description": "GPT 3.5 Turbo 16k, um modelo de geração de texto de alta capacidade, adequado para tarefas complexas."
|
||
},
|
||
"gpt-4": {
|
||
"description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados."
|
||
},
|
||
"gpt-4-0125-preview": {
|
||
"description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
|
||
},
|
||
"gpt-4-0613": {
|
||
"description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados."
|
||
},
|
||
"gpt-4-1106-preview": {
|
||
"description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
|
||
},
|
||
"gpt-4-32k": {
|
||
"description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados."
|
||
},
|
||
"gpt-4-32k-0613": {
|
||
"description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados."
|
||
},
|
||
"gpt-4-turbo": {
|
||
"description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
|
||
},
|
||
"gpt-4-turbo-2024-04-09": {
|
||
"description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
|
||
},
|
||
"gpt-4-turbo-preview": {
|
||
"description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
|
||
},
|
||
"gpt-4-vision-preview": {
|
||
"description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
|
||
},
|
||
"gpt-4.1": {
|
||
"description": "GPT-4.1 é nosso modelo principal para tarefas complexas. Ele é muito adequado para resolver problemas interdisciplinares."
|
||
},
|
||
"gpt-4.1-mini": {
|
||
"description": "GPT-4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, tornando-se um modelo atraente para muitos casos de uso."
|
||
},
|
||
"gpt-4.1-nano": {
|
||
"description": "GPT-4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, tornando-se um modelo atraente para muitos casos de uso."
|
||
},
|
||
"gpt-4.5-preview": {
|
||
"description": "GPT-4.5-preview é o modelo de uso geral mais recente, com amplo conhecimento do mundo e uma compreensão aprimorada das intenções dos usuários, sendo proficiente em tarefas criativas e no planejamento de agentes. A data de corte do conhecimento deste modelo é outubro de 2023."
|
||
},
|
||
"gpt-4o": {
|
||
"description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
|
||
},
|
||
"gpt-4o-2024-05-13": {
|
||
"description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
|
||
},
|
||
"gpt-4o-2024-08-06": {
|
||
"description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
|
||
},
|
||
"gpt-4o-2024-11-20": {
|
||
"description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atualizada. Combina uma poderosa compreensão e capacidade de geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
|
||
},
|
||
"gpt-4o-audio-preview": {
|
||
"description": "Modelo GPT-4o Audio Preview, com suporte para entrada e saída de áudio."
|
||
},
|
||
"gpt-4o-mini": {
|
||
"description": "O GPT-4o mini é o mais recente modelo lançado pela OpenAI após o GPT-4 Omni, suportando entrada de texto e imagem e gerando texto como saída. Como seu modelo compacto mais avançado, ele é muito mais acessível do que outros modelos de ponta recentes, custando mais de 60% menos que o GPT-3.5 Turbo. Ele mantém uma inteligência de ponta, ao mesmo tempo que oferece um custo-benefício significativo. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
|
||
},
|
||
"gpt-4o-mini-audio-preview": {
|
||
"description": "Modelo GPT-4o mini Audio, suporta entrada e saída de áudio."
|
||
},
|
||
"gpt-4o-mini-realtime-preview": {
|
||
"description": "Versão em tempo real do GPT-4o-mini, suporta entrada e saída de áudio e texto em tempo real."
|
||
},
|
||
"gpt-4o-mini-search-preview": {
|
||
"description": "A versão prévia do GPT-4o mini para busca é um modelo treinado especificamente para compreender e executar consultas de busca na web, utilizando a API Chat Completions. Além dos custos por token, as consultas de busca na web são cobradas por chamada da ferramenta."
|
||
},
|
||
"gpt-4o-mini-transcribe": {
|
||
"description": "GPT-4o Mini Transcribe é um modelo de transcrição de áudio para texto que utiliza GPT-4o. Em comparação com o modelo Whisper original, melhora a taxa de erro de palavras, além do reconhecimento e precisão linguística. Use-o para obter transcrições mais precisas."
|
||
},
|
||
"gpt-4o-mini-tts": {
|
||
"description": "GPT-4o mini TTS é um modelo de texto para fala baseado em GPT-4o mini, oferecendo uma geração de voz de alta qualidade a um custo mais baixo."
|
||
},
|
||
"gpt-4o-realtime-preview": {
|
||
"description": "Versão em tempo real do GPT-4o, suporta entrada e saída de áudio e texto em tempo real."
|
||
},
|
||
"gpt-4o-realtime-preview-2024-10-01": {
|
||
"description": "Versão em tempo real do GPT-4o, suporta entrada e saída de áudio e texto em tempo real."
|
||
},
|
||
"gpt-4o-realtime-preview-2025-06-03": {
|
||
"description": "Versão em tempo real do GPT-4o, suportando entrada e saída de áudio e texto em tempo real."
|
||
},
|
||
"gpt-4o-search-preview": {
|
||
"description": "A versão prévia do GPT-4o para busca é um modelo treinado especificamente para compreender e executar consultas de busca na web, utilizando a API Chat Completions. Além dos custos por token, as consultas de busca na web são cobradas por chamada da ferramenta."
|
||
},
|
||
"gpt-4o-transcribe": {
|
||
"description": "GPT-4o Transcribe é um modelo de transcrição de áudio para texto que utiliza GPT-4o. Em comparação com o modelo Whisper original, melhora a taxa de erro de palavras, além do reconhecimento e precisão linguística. Use-o para obter transcrições mais precisas."
|
||
},
|
||
"gpt-5": {
|
||
"description": "O melhor modelo para tarefas de codificação e agentes interdisciplinares. GPT-5 alcança avanços em precisão, velocidade, raciocínio, reconhecimento de contexto, pensamento estruturado e resolução de problemas."
|
||
},
|
||
"gpt-5-chat": {
|
||
"description": "GPT-5 Chat é uma versão prévia otimizada para cenários de conversação. Suporta entrada de texto e imagem, com saída apenas em texto, ideal para chatbots e aplicações de IA conversacional."
|
||
},
|
||
"gpt-5-chat-latest": {
|
||
"description": "Modelo GPT-5 usado no ChatGPT. Combina forte compreensão e geração de linguagem, ideal para aplicações de interação conversacional."
|
||
},
|
||
"gpt-5-codex": {
|
||
"description": "GPT-5 Codex é uma versão do GPT-5 otimizada para tarefas de codificação de agentes em ambientes Codex ou similares."
|
||
},
|
||
"gpt-5-mini": {
|
||
"description": "Versão mais rápida e econômica do GPT-5, adequada para tarefas bem definidas. Oferece respostas mais rápidas mantendo alta qualidade de saída."
|
||
},
|
||
"gpt-5-nano": {
|
||
"description": "Versão mais rápida e econômica do GPT-5. Muito adequada para cenários que exigem respostas rápidas e sensibilidade a custos."
|
||
},
|
||
"gpt-5-pro": {
|
||
"description": "O GPT-5 Pro utiliza mais poder computacional para pensar de forma mais profunda e fornecer respostas consistentemente melhores."
|
||
},
|
||
"gpt-5.1": {
|
||
"description": "GPT-5.1 — Modelo principal otimizado para tarefas de codificação e agentes, com suporte para intensidade de inferência configurável e contexto mais longo."
|
||
},
|
||
"gpt-5.1-chat-latest": {
|
||
"description": "GPT-5.1 Chat: Variante do GPT-5.1 para o ChatGPT, ideal para cenários de conversa."
|
||
},
|
||
"gpt-5.1-codex": {
|
||
"description": "GPT-5.1 Codex: Versão do GPT-5.1 otimizada para tarefas de codificação com agentes, utilizável na API de Respostas para fluxos de trabalho mais complexos envolvendo código e agentes."
|
||
},
|
||
"gpt-5.1-codex-mini": {
|
||
"description": "GPT-5.1 Codex mini: Variante do Codex com menor tamanho e custo reduzido, otimizada para tarefas de codificação com agentes."
|
||
},
|
||
"gpt-audio": {
|
||
"description": "GPT Audio é um modelo de chat universal voltado para entrada e saída de áudio, suportando uso de áudio I/O na API de Chat Completions."
|
||
},
|
||
"gpt-image-1": {
|
||
"description": "Modelo nativo multimodal de geração de imagens do ChatGPT"
|
||
},
|
||
"gpt-image-1-mini": {
|
||
"description": "Uma versão mais econômica do GPT Image 1, com suporte nativo para entrada de texto e imagem, além de geração de saída em imagem."
|
||
},
|
||
"gpt-oss-120b": {
|
||
"description": "Este modelo requer solicitação para uso. GPT-OSS-120B é um modelo de linguagem de código aberto em larga escala lançado pela OpenAI, com poderosa capacidade de geração de texto."
|
||
},
|
||
"gpt-oss-20b": {
|
||
"description": "Este modelo requer solicitação para uso. GPT-OSS-20B é um modelo de linguagem de código aberto de porte médio lançado pela OpenAI, com geração de texto eficiente."
|
||
},
|
||
"gpt-oss:120b": {
|
||
"description": "GPT-OSS 120B é um modelo de linguagem grande de código aberto lançado pela OpenAI, utilizando a tecnologia de quantização MXFP4, sendo um modelo de ponta. Requer múltiplas GPUs ou estações de trabalho de alto desempenho para execução, oferecendo desempenho excepcional em raciocínio complexo, geração de código e processamento multilíngue, com suporte a chamadas avançadas de funções e integração de ferramentas."
|
||
},
|
||
"gpt-oss:20b": {
|
||
"description": "GPT-OSS 20B é um modelo de linguagem grande open source lançado pela OpenAI, utilizando quantização MXFP4, adequado para execução em GPUs de consumo avançado ou Macs com Apple Silicon. O modelo apresenta excelente desempenho em geração de diálogo, codificação e tarefas de inferência, suportando chamadas de função e uso de ferramentas."
|
||
},
|
||
"gpt-realtime": {
|
||
"description": "Modelo universal em tempo real, suportando entrada e saída de texto e áudio, além de entrada de imagem."
|
||
},
|
||
"grok-2-image-1212": {
|
||
"description": "Nosso mais recente modelo de geração de imagens pode criar imagens vívidas e realistas a partir de prompts textuais. Apresenta excelente desempenho em marketing, mídias sociais e entretenimento."
|
||
},
|
||
"grok-2-vision-1212": {
|
||
"description": "Este modelo apresenta melhorias em precisão, conformidade com instruções e capacidade multilíngue."
|
||
},
|
||
"grok-3": {
|
||
"description": "Modelo de nível flagship, especializado em extração de dados, programação e resumo de texto para aplicações empresariais, com profundo conhecimento em finanças, saúde, direito e ciências."
|
||
},
|
||
"grok-3-mini": {
|
||
"description": "Modelo leve que pensa antes de responder. Rápido e inteligente, adequado para tarefas lógicas que não exigem conhecimento profundo de domínio, e capaz de fornecer o rastro original do pensamento."
|
||
},
|
||
"grok-4": {
|
||
"description": "Nosso mais recente e poderoso modelo principal, com desempenho excepcional em processamento de linguagem natural, cálculo matemático e raciocínio — um competidor versátil perfeito."
|
||
},
|
||
"grok-4-0709": {
|
||
"description": "Grok 4 da xAI, com forte capacidade de raciocínio."
|
||
},
|
||
"grok-4-1-fast-non-reasoning": {
|
||
"description": "Modelo multimodal de ponta, otimizado especialmente para chamadas de ferramentas de agente de alto desempenho."
|
||
},
|
||
"grok-4-1-fast-reasoning": {
|
||
"description": "Modelo multimodal de ponta, otimizado especialmente para chamadas de ferramentas de agente de alto desempenho."
|
||
},
|
||
"grok-4-fast-non-reasoning": {
|
||
"description": "Temos o prazer de lançar o Grok 4 Fast, nosso avanço mais recente em modelos de inferência com custo-benefício."
|
||
},
|
||
"grok-4-fast-reasoning": {
|
||
"description": "Temos o prazer de lançar o Grok 4 Fast, nosso avanço mais recente em modelos de inferência com custo-benefício."
|
||
},
|
||
"grok-code-fast-1": {
|
||
"description": "Temos o prazer de apresentar o grok-code-fast-1, um modelo de inferência rápido e econômico, que se destaca na codificação de agentes."
|
||
},
|
||
"groq/compound": {
|
||
"description": "Compound é um sistema de IA composto, suportado por vários modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder às consultas dos usuários."
|
||
},
|
||
"groq/compound-mini": {
|
||
"description": "Compound-mini é um sistema de IA composto, suportado por modelos públicos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder às consultas dos usuários."
|
||
},
|
||
"gryphe/mythomax-l2-13b": {
|
||
"description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
|
||
},
|
||
"hunyuan-a13b": {
|
||
"description": "O primeiro modelo de raciocínio híbrido da Hunyuan, uma versão aprimorada do hunyuan-standard-256K, com 80 bilhões de parâmetros totais e 13 bilhões ativados. O modo padrão é o modo de pensamento lento, com suporte para alternância entre modos rápido e lento via parâmetros ou instruções, usando prefixos query / no_think para alternar. A capacidade geral foi amplamente melhorada em relação à geração anterior, especialmente em matemática, ciências, compreensão de textos longos e habilidades de agente."
|
||
},
|
||
"hunyuan-code": {
|
||
"description": "O mais recente modelo de geração de código Hunyuan, treinado com 200B de dados de código de alta qualidade, com seis meses de treinamento de dados SFT de alta qualidade, aumentando o comprimento da janela de contexto para 8K, destacando-se em métricas automáticas de geração de código em cinco linguagens; em avaliações de qualidade de código em dez aspectos em cinco linguagens, o desempenho está na primeira divisão."
|
||
},
|
||
"hunyuan-functioncall": {
|
||
"description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação."
|
||
},
|
||
"hunyuan-large": {
|
||
"description": "O modelo Hunyuan-large possui um total de aproximadamente 389B de parâmetros, com cerca de 52B de parâmetros ativados, sendo o modelo MoE de código aberto com a maior escala de parâmetros e melhor desempenho na arquitetura Transformer atualmente disponível no mercado."
|
||
},
|
||
"hunyuan-large-longcontext": {
|
||
"description": "Especializado em tarefas de texto longo, como resumo de documentos e perguntas e respostas de documentos, também possui a capacidade de lidar com tarefas gerais de geração de texto. Apresenta desempenho excepcional na análise e geração de textos longos, conseguindo atender efetivamente às demandas complexas e detalhadas de processamento de conteúdo longo."
|
||
},
|
||
"hunyuan-large-vision": {
|
||
"description": "Este modelo é adequado para cenários de compreensão de imagens e texto, baseado no modelo visual-linguístico Hunyuan Large. Suporta entrada de múltiplas imagens em qualquer resolução junto com texto, gerando conteúdo textual, com foco em tarefas relacionadas à compreensão de imagens e texto, apresentando melhorias significativas em capacidades multilíngues."
|
||
},
|
||
"hunyuan-lite": {
|
||
"description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto."
|
||
},
|
||
"hunyuan-lite-vision": {
|
||
"description": "Modelo multimodal mais recente de 7B da Hunyuan, com janela de contexto de 32K, suporta diálogos multimodais em cenários em chinês e português, reconhecimento de objetos em imagens, compreensão de documentos e tabelas, matemática multimodal, entre outros, superando modelos concorrentes de 7B em várias métricas de avaliação."
|
||
},
|
||
"hunyuan-pro": {
|
||
"description": "Modelo de texto longo MOE-32K com trilhões de parâmetros. Alcança níveis de liderança absoluta em vários benchmarks, com capacidades complexas de instrução e raciocínio, habilidades matemáticas complexas, suporte a chamadas de função, otimizado para áreas como tradução multilíngue, finanças, direito e saúde."
|
||
},
|
||
"hunyuan-role": {
|
||
"description": "O mais recente modelo de interpretação de papéis Hunyuan, um modelo de interpretação de papéis ajustado e treinado oficialmente pela Hunyuan, que combina o modelo Hunyuan com um conjunto de dados de cenários de interpretação de papéis, apresentando um desempenho básico melhor em cenários de interpretação de papéis."
|
||
},
|
||
"hunyuan-standard": {
|
||
"description": "Adota uma estratégia de roteamento superior, ao mesmo tempo que mitiga problemas de balanceamento de carga e convergência de especialistas. Em termos de textos longos, o índice de precisão atinge 99,9%. O MOE-32K oferece uma relação custo-benefício relativamente melhor, equilibrando desempenho e preço, permitindo o processamento de entradas de texto longo."
|
||
},
|
||
"hunyuan-standard-256K": {
|
||
"description": "Adota uma estratégia de roteamento superior, ao mesmo tempo que mitiga problemas de balanceamento de carga e convergência de especialistas. Em termos de textos longos, o índice de precisão atinge 99,9%. O MOE-256K rompe ainda mais em comprimento e desempenho, expandindo significativamente o comprimento de entrada permitido."
|
||
},
|
||
"hunyuan-standard-vision": {
|
||
"description": "Modelo multimodal mais recente da Hunyuan, suporta respostas em múltiplas línguas, com habilidades equilibradas em chinês e português."
|
||
},
|
||
"hunyuan-t1-20250321": {
|
||
"description": "Modelo abrangente que constrói habilidades em ciências exatas e humanas, com forte capacidade de captura de informações em textos longos. Suporta raciocínio para responder a problemas científicos de diversas dificuldades, incluindo matemática, lógica, ciências e código."
|
||
},
|
||
"hunyuan-t1-20250403": {
|
||
"description": "Melhore a capacidade de geração de código em nível de projeto; aumente a qualidade da escrita gerada em texto; aprimore a compreensão de tópicos em múltiplas rodadas, a conformidade com instruções do tipo tob e a compreensão de palavras; otimize problemas de saída com mistura de caracteres tradicionais e simplificados, bem como misturas de chinês e inglês."
|
||
},
|
||
"hunyuan-t1-20250529": {
|
||
"description": "Otimizado para criação de textos, redação de ensaios, aprimoramento em front-end de código, matemática, raciocínio lógico e outras habilidades científicas, além de melhorar a capacidade de seguir instruções."
|
||
},
|
||
"hunyuan-t1-20250711": {
|
||
"description": "Melhora significativa em matemática avançada, lógica e habilidades de codificação, otimiza a estabilidade da saída do modelo e aprimora a capacidade de lidar com textos longos."
|
||
},
|
||
"hunyuan-t1-latest": {
|
||
"description": "Melhora significativamente as capacidades do modelo principal de pensamento lento em matemática avançada, raciocínio complexo, código difícil, conformidade com instruções e qualidade de criação de texto."
|
||
},
|
||
"hunyuan-t1-vision-20250619": {
|
||
"description": "A versão mais recente do modelo de pensamento profundo multimodal t1-vision da Hunyuan, que suporta cadeias de pensamento nativas multimodais, com melhorias abrangentes em relação à versão padrão anterior."
|
||
},
|
||
"hunyuan-t1-vision-20250916": {
|
||
"description": "A versão mais recente do modelo de visão com raciocínio profundo Hunyuan t1-vision apresenta melhorias abrangentes em tarefas como perguntas e respostas visuais, localização visual, OCR, gráficos, resolução de problemas a partir de fotos e criação baseada em imagens. Houve também uma otimização significativa nas capacidades em inglês e em idiomas menos comuns."
|
||
},
|
||
"hunyuan-turbo": {
|
||
"description": "Versão de pré-visualização do novo modelo de linguagem de próxima geração Hunyuan, utilizando uma nova estrutura de modelo de especialistas mistos (MoE), com eficiência de inferência mais rápida e desempenho superior em comparação ao Hunyuan-Pro."
|
||
},
|
||
"hunyuan-turbo-20241223": {
|
||
"description": "Esta versão otimiza: escalonamento de instruções de dados, aumentando significativamente a capacidade de generalização do modelo; melhoria substancial nas habilidades matemáticas, de codificação e de raciocínio lógico; otimização das capacidades de compreensão de texto e palavras; melhoria na qualidade da geração de conteúdo de criação de texto."
|
||
},
|
||
"hunyuan-turbo-latest": {
|
||
"description": "Otimização da experiência geral, incluindo compreensão de NLP, criação de texto, conversas informais, perguntas e respostas de conhecimento, tradução, entre outros; aumento da humanização, otimização da inteligência emocional do modelo; melhoria na capacidade do modelo de esclarecer ativamente em casos de intenção ambígua; aprimoramento na capacidade de lidar com questões de análise de palavras; melhoria na qualidade e interatividade da criação; aprimoramento da experiência em múltiplas interações."
|
||
},
|
||
"hunyuan-turbo-vision": {
|
||
"description": "Novo modelo de linguagem visual de próxima geração da Hunyuan, adotando uma nova estrutura de modelo de especialistas mistos (MoE), com melhorias abrangentes em relação ao modelo anterior nas capacidades de reconhecimento básico, criação de conteúdo, perguntas e respostas de conhecimento, e análise e raciocínio relacionados à compreensão de texto e imagem."
|
||
},
|
||
"hunyuan-turbos-20250313": {
|
||
"description": "Uniformização do estilo dos passos para resolução de problemas matemáticos, reforçando perguntas e respostas em múltiplas rodadas na matemática. Otimização do estilo de resposta na criação de textos, eliminando traços de IA e aumentando a expressividade literária."
|
||
},
|
||
"hunyuan-turbos-20250416": {
|
||
"description": "Atualização da base pré-treinada para fortalecer a compreensão e conformidade com instruções; aprimoramento das habilidades em matemática, código, lógica e ciências exatas na fase de alinhamento; melhoria da qualidade da escrita criativa, compreensão textual, precisão na tradução e respostas a perguntas em ciências humanas; fortalecimento das capacidades de agentes em diversas áreas, com foco especial na compreensão de diálogos em múltiplas rodadas."
|
||
},
|
||
"hunyuan-turbos-20250604": {
|
||
"description": "Atualização da base pré-treinada, com melhorias em escrita e compreensão de leitura, aumento significativo nas habilidades de código e ciências, e aprimoramento contínuo no seguimento de instruções complexas."
|
||
},
|
||
"hunyuan-turbos-20250926": {
|
||
"description": "Atualização na qualidade dos dados da base de pré-treinamento. Otimização da estratégia de treinamento na fase pós-treinamento, com melhorias contínuas nas capacidades de agentes, idiomas menores em inglês, conformidade com instruções, código e ciências exatas."
|
||
},
|
||
"hunyuan-turbos-latest": {
|
||
"description": "A versão mais recente do hunyuan-TurboS, o modelo de grande porte da Hunyuan, possui uma capacidade de raciocínio mais forte e uma experiência aprimorada."
|
||
},
|
||
"hunyuan-turbos-longtext-128k-20250325": {
|
||
"description": "Especializado em tarefas de texto longo, como resumos de documentos e perguntas sobre documentos, também possui a capacidade de lidar com tarefas gerais de geração de texto. Destaca-se na análise e geração de textos longos, atendendo efetivamente a demandas complexas e detalhadas."
|
||
},
|
||
"hunyuan-turbos-role-plus": {
|
||
"description": "Modelo de interpretação de papéis da versão mais recente do Hunyuan, ajustado finamente pela equipe oficial Hunyuan. Baseado no modelo Hunyuan e treinado adicionalmente com conjuntos de dados de cenários de interpretação de papéis, oferecendo melhores resultados básicos nesses contextos."
|
||
},
|
||
"hunyuan-turbos-vision": {
|
||
"description": "Este modelo é adequado para cenários de compreensão de imagens e texto, baseado na mais recente geração turbos da Hunyuan, um modelo de linguagem visual flagship focado em tarefas relacionadas à compreensão de imagens e texto, incluindo reconhecimento de entidades em imagens, perguntas e respostas baseadas em conhecimento, criação de textos e resolução de problemas por foto, com melhorias abrangentes em relação à geração anterior."
|
||
},
|
||
"hunyuan-turbos-vision-20250619": {
|
||
"description": "A versão mais recente do modelo flagship de linguagem visual turbos-vision da Hunyuan, com melhorias abrangentes em tarefas relacionadas à compreensão de imagens e texto, incluindo reconhecimento de entidades em imagens, perguntas e respostas baseadas em conhecimento, criação de textos e resolução de problemas por foto, em comparação com a versão padrão anterior."
|
||
},
|
||
"hunyuan-vision": {
|
||
"description": "O mais recente modelo multimodal Hunyuan, que suporta a entrada de imagens e texto para gerar conteúdo textual."
|
||
},
|
||
"image-01": {
|
||
"description": "Novo modelo de geração de imagens com detalhes refinados, suportando geração de imagens a partir de texto e de outras imagens."
|
||
},
|
||
"image-01-live": {
|
||
"description": "Modelo de geração de imagens com detalhes refinados, suportando geração a partir de texto e configuração de estilo visual."
|
||
},
|
||
"imagen-4.0-fast-generate-001": {
|
||
"description": "Imagen, série de modelos texto para imagem de 4ª geração — versão Fast"
|
||
},
|
||
"imagen-4.0-generate-001": {
|
||
"description": "Série de modelos Imagen de 4ª geração para gerar imagens a partir de texto"
|
||
},
|
||
"imagen-4.0-generate-preview-06-06": {
|
||
"description": "Série de modelos de geração de imagens da quarta geração do Imagen."
|
||
},
|
||
"imagen-4.0-ultra-generate-001": {
|
||
"description": "Imagen: modelo de geração de imagens a partir de texto de 4ª geração — versão Ultra"
|
||
},
|
||
"imagen-4.0-ultra-generate-preview-06-06": {
|
||
"description": "Versão Ultra da série de modelos de geração de imagens da quarta geração do Imagen."
|
||
},
|
||
"inception/mercury-coder-small": {
|
||
"description": "Mercury Coder Small é a escolha ideal para tarefas de geração, depuração e refatoração de código, com latência mínima."
|
||
},
|
||
"inclusionAI/Ling-flash-2.0": {
|
||
"description": "Ling-flash-2.0 é o terceiro modelo da série Ling 2.0, lançado pela equipe Bailing do Ant Group. É um modelo de especialistas mistos (MoE) com 100 bilhões de parâmetros totais, mas ativa apenas 6,1 bilhões por token (4,8 bilhões excluindo embeddings). Como uma configuração leve, Ling-flash-2.0 demonstra desempenho comparável ou superior a modelos densos de 40 bilhões e modelos MoE de maior escala em várias avaliações autoritativas. O modelo busca explorar caminhos eficientes sob o consenso de que “modelos grandes equivalem a muitos parâmetros” por meio de design arquitetônico e estratégias de treinamento extremas."
|
||
},
|
||
"inclusionAI/Ling-mini-2.0": {
|
||
"description": "Ling-mini-2.0 é um modelo de linguagem grande de alto desempenho e pequeno porte baseado na arquitetura MoE. Possui 16 bilhões de parâmetros totais, mas ativa apenas 1,4 bilhão por token (789 milhões excluindo embeddings), alcançando alta velocidade de geração. Graças ao design eficiente do MoE e a grandes volumes de dados de treinamento de alta qualidade, Ling-mini-2.0 apresenta desempenho de ponta em tarefas downstream, comparável a modelos densos abaixo de 10 bilhões e modelos MoE de maior escala."
|
||
},
|
||
"inclusionAI/Ring-flash-2.0": {
|
||
"description": "Ring-flash-2.0 é um modelo de pensamento de alto desempenho profundamente otimizado a partir do Ling-flash-2.0-base. Utiliza arquitetura de especialistas mistos (MoE) com 100 bilhões de parâmetros totais, mas ativa apenas 6,1 bilhões por inferência. O modelo resolve a instabilidade do treinamento por reforço (RL) em grandes modelos MoE com o algoritmo inovador icepop, permitindo melhoria contínua do raciocínio complexo em treinamentos longos. Ring-flash-2.0 alcançou avanços significativos em competições matemáticas, geração de código e raciocínio lógico, superando modelos densos de até 40 bilhões de parâmetros e rivalizando com modelos MoE open source maiores e modelos de pensamento proprietários de alto desempenho. Embora focado em raciocínio complexo, também se destaca em tarefas criativas. Além disso, graças ao design eficiente, oferece alta velocidade de inferência e reduz significativamente o custo de implantação em cenários de alta concorrência."
|
||
},
|
||
"inclusionai/ling-1t": {
|
||
"description": "Ling-1T é o modelo MoE de 1 trilhão de parâmetros da inclusionAI, otimizado para tarefas intensivas de raciocínio e contexto em larga escala."
|
||
},
|
||
"inclusionai/ling-flash-2.0": {
|
||
"description": "Ling-flash-2.0 é o modelo MoE da inclusionAI, otimizado para eficiência e desempenho de raciocínio, ideal para tarefas de médio a grande porte."
|
||
},
|
||
"inclusionai/ling-mini-2.0": {
|
||
"description": "Ling-mini-2.0 é o modelo MoE leve da inclusionAI, que reduz significativamente os custos mantendo a capacidade de raciocínio."
|
||
},
|
||
"inclusionai/ming-flash-omini-preview": {
|
||
"description": "Ming-flash-omni Preview é o modelo multimodal da inclusionAI, com suporte a entrada de voz, imagem e vídeo, otimizado para renderização de imagem e reconhecimento de fala."
|
||
},
|
||
"inclusionai/ring-1t": {
|
||
"description": "Ring-1T é o modelo de raciocínio MoE com trilhões de parâmetros da inclusionAI, ideal para raciocínio em larga escala e tarefas de pesquisa."
|
||
},
|
||
"inclusionai/ring-flash-2.0": {
|
||
"description": "Ring-flash-2.0 é uma variante do modelo Ring da inclusionAI voltada para cenários de alto volume, com foco em velocidade e eficiência de custo."
|
||
},
|
||
"inclusionai/ring-mini-2.0": {
|
||
"description": "Ring-mini-2.0 é a versão leve e de alto volume do modelo MoE da inclusionAI, projetada para cenários com alta concorrência."
|
||
},
|
||
"internlm/internlm2_5-7b-chat": {
|
||
"description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários."
|
||
},
|
||
"internlm2.5-latest": {
|
||
"description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas."
|
||
},
|
||
"internlm3-latest": {
|
||
"description": "Nossa mais recente série de modelos, com desempenho de inferência excepcional, liderando entre modelos de código aberto de mesma escala. Aponta por padrão para nossa mais recente série de modelos InternLM3."
|
||
},
|
||
"internvl2.5-38b-mpo": {
|
||
"description": "InternVL2.5 38B MPO, modelo multimodal pré-treinado com suporte para tarefas complexas de raciocínio de imagem e texto."
|
||
},
|
||
"internvl2.5-latest": {
|
||
"description": "Versão InternVL2.5 que ainda estamos mantendo, com desempenho excelente e estável. Aponta por padrão para nossa mais recente série de modelos InternVL2.5, atualmente direcionando para internvl2.5-78b."
|
||
},
|
||
"internvl3-14b": {
|
||
"description": "InternVL3 14B, modelo multimodal de porte médio, equilibrando desempenho e custo."
|
||
},
|
||
"internvl3-1b": {
|
||
"description": "InternVL3 1B, modelo multimodal leve, ideal para implantação em ambientes com recursos limitados."
|
||
},
|
||
"internvl3-38b": {
|
||
"description": "InternVL3 38B, modelo multimodal de código aberto em larga escala, ideal para tarefas de compreensão de imagem e texto de alta precisão."
|
||
},
|
||
"internvl3-latest": {
|
||
"description": "Lançamos nosso mais recente modelo multimodal, com habilidades aprimoradas de compreensão de texto e imagem, e capacidade de entender imagens em longas sequências, com desempenho comparável aos melhores modelos fechados. Aponta por padrão para nossa mais recente série de modelos InternVL, atualmente direcionando para internvl3-78b."
|
||
},
|
||
"irag-1.0": {
|
||
"description": "ERNIE iRAG, modelo de geração aprimorada por recuperação de imagem, com suporte para busca por imagem, recuperação de imagem e texto e geração de conteúdo."
|
||
},
|
||
"jamba-large": {
|
||
"description": "Nosso modelo mais poderoso e avançado, projetado para lidar com tarefas complexas em nível empresarial, com desempenho excepcional."
|
||
},
|
||
"jamba-mini": {
|
||
"description": "O modelo mais eficiente da sua categoria, equilibrando velocidade e qualidade, com um tamanho menor."
|
||
},
|
||
"jina-deepsearch-v1": {
|
||
"description": "A busca profunda combina pesquisa na web, leitura e raciocínio para realizar investigações abrangentes. Você pode vê-la como um agente que aceita suas tarefas de pesquisa - ela realizará uma busca extensa e passará por várias iterações antes de fornecer uma resposta. Esse processo envolve pesquisa contínua, raciocínio e resolução de problemas sob diferentes ângulos. Isso é fundamentalmente diferente de gerar respostas diretamente a partir de dados pré-treinados de grandes modelos padrão e de sistemas RAG tradicionais que dependem de buscas superficiais únicas."
|
||
},
|
||
"kimi-k2": {
|
||
"description": "Kimi-K2 é um modelo base com arquitetura MoE lançado pela Moonshot AI, com capacidades avançadas de código e agente, totalizando 1 trilhão de parâmetros e 32 bilhões ativados. Em testes de desempenho em raciocínio geral, programação, matemática e agentes, supera outros modelos open source populares."
|
||
},
|
||
"kimi-k2-0711-preview": {
|
||
"description": "kimi-k2 é um modelo base com arquitetura MoE, com capacidades excepcionais em código e agentes, totalizando 1T de parâmetros e 32B de parâmetros ativados. Nos principais benchmarks de raciocínio de conhecimento geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
|
||
},
|
||
"kimi-k2-0905-preview": {
|
||
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
|
||
},
|
||
"kimi-k2-instruct": {
|
||
"description": "Kimi K2 Instruct, modelo oficial de inferência da Kimi, com suporte para contexto longo, código, perguntas e respostas e outros cenários."
|
||
},
|
||
"kimi-k2-thinking": {
|
||
"description": "O modelo kimi-k2-thinking, fornecido pela Moonshot AI, é um modelo de raciocínio com capacidades agenticas gerais. Ele se destaca em raciocínios profundos e pode utilizar ferramentas em múltiplas etapas para ajudar a resolver diversos tipos de problemas."
|
||
},
|
||
"kimi-k2-thinking-turbo": {
|
||
"description": "Versão acelerada do modelo de pensamento K2, com suporte a 256k de contexto, raciocínio profundo e velocidade de saída de 60-100 tokens por segundo."
|
||
},
|
||
"kimi-k2-turbo-preview": {
|
||
"description": "kimi-k2 é um modelo base com arquitetura MoE que oferece capacidades avançadas para programação e agentes, com 1T de parâmetros totais e 32B de parâmetros ativados. Em testes de benchmark nas principais categorias — raciocínio de conhecimento geral, programação, matemática e agentes — o desempenho do modelo K2 supera outros modelos de código aberto mais populares."
|
||
},
|
||
"kimi-k2:1t": {
|
||
"description": "Kimi K2 é um modelo de linguagem de especialistas híbridos em larga escala (MoE) desenvolvido pela AI do Lado Escuro da Lua, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados por passagem. Ele é otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código."
|
||
},
|
||
"kimi-latest": {
|
||
"description": "O produto assistente inteligente Kimi utiliza o mais recente modelo Kimi, que pode conter recursos ainda não estáveis. Suporta compreensão de imagens e seleciona automaticamente o modelo de cobrança de 8k/32k/128k com base no comprimento do contexto da solicitação."
|
||
},
|
||
"kuaishou/kat-coder-pro-v1": {
|
||
"description": "KAT-Coder-Pro-V1 (gratuito por tempo limitado) é focado em compreensão de código e programação automatizada, ideal para tarefas de agente de codificação eficiente."
|
||
},
|
||
"learnlm-1.5-pro-experimental": {
|
||
"description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
|
||
},
|
||
"learnlm-2.0-flash-experimental": {
|
||
"description": "LearnLM é um modelo de linguagem experimental, específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, capaz de seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
|
||
},
|
||
"lite": {
|
||
"description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
|
||
},
|
||
"llama-3.1-70b-versatile": {
|
||
"description": "Llama 3.1 70B oferece capacidade de raciocínio AI mais poderosa, adequada para aplicações complexas, suportando um processamento computacional extenso e garantindo eficiência e precisão."
|
||
},
|
||
"llama-3.1-8b-instant": {
|
||
"description": "Llama 3.1 8B é um modelo de alto desempenho, oferecendo capacidade de geração de texto rápida, ideal para cenários de aplicação que exigem eficiência em larga escala e custo-benefício."
|
||
},
|
||
"llama-3.1-instruct": {
|
||
"description": "O modelo Llama 3.1 com ajuste fino de instruções foi otimizado para cenários de diálogo, superando muitos modelos de chat de código aberto existentes em benchmarks comuns do setor."
|
||
},
|
||
"llama-3.2-11b-vision-instruct": {
|
||
"description": "Capacidade excepcional de raciocínio visual em imagens de alta resolução, adequada para aplicações de compreensão visual."
|
||
},
|
||
"llama-3.2-11b-vision-preview": {
|
||
"description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"llama-3.2-90b-vision-instruct": {
|
||
"description": "Capacidade avançada de raciocínio visual para aplicações de agentes de compreensão visual."
|
||
},
|
||
"llama-3.2-90b-vision-preview": {
|
||
"description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"llama-3.2-vision-instruct": {
|
||
"description": "O modelo Llama 3.2-Vision com ajuste fino de instruções foi otimizado para reconhecimento visual, raciocínio com imagens, descrição de imagens e respostas a perguntas gerais relacionadas a imagens."
|
||
},
|
||
"llama-3.3-70b": {
|
||
"description": "Llama 3.3 70B: modelo Llama de médio a grande porte, equilibrando capacidade de raciocínio e desempenho de processamento."
|
||
},
|
||
"llama-3.3-70b-versatile": {
|
||
"description": "O modelo de linguagem multilíngue Meta Llama 3.3 (LLM) é um modelo gerador pré-treinado e ajustado para instruções, com 70B (entrada/saída de texto). O modelo de texto puro ajustado para instruções do Llama 3.3 é otimizado para casos de uso de diálogo multilíngue e supera muitos modelos de chat open source e fechados disponíveis em benchmarks comuns da indústria."
|
||
},
|
||
"llama-3.3-instruct": {
|
||
"description": "O modelo Llama 3.3 com ajuste fino de instruções foi otimizado para cenários de diálogo, superando muitos modelos de chat open-source existentes em benchmarks comuns do setor."
|
||
},
|
||
"llama3-70b-8192": {
|
||
"description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
|
||
},
|
||
"llama3-8b-8192": {
|
||
"description": "Meta Llama 3 8B oferece desempenho de raciocínio de alta qualidade, adequado para uma variedade de necessidades de aplicação."
|
||
},
|
||
"llama3-groq-70b-8192-tool-use-preview": {
|
||
"description": "Llama 3 Groq 70B Tool Use oferece poderosa capacidade de chamada de ferramentas, suportando o processamento eficiente de tarefas complexas."
|
||
},
|
||
"llama3-groq-8b-8192-tool-use-preview": {
|
||
"description": "Llama 3 Groq 8B Tool Use é um modelo otimizado para uso eficiente de ferramentas, suportando cálculos paralelos rápidos."
|
||
},
|
||
"llama3.1": {
|
||
"description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
|
||
},
|
||
"llama3.1-8b": {
|
||
"description": "Llama 3.1 8B: variante compacta e de baixa latência do Llama, ideal para inferência leve e interações em tempo real."
|
||
},
|
||
"llama3.1:405b": {
|
||
"description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
|
||
},
|
||
"llama3.1:70b": {
|
||
"description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
|
||
},
|
||
"llava": {
|
||
"description": "LLaVA é um modelo multimodal que combina um codificador visual e Vicuna, projetado para forte compreensão visual e linguística."
|
||
},
|
||
"llava-v1.5-7b-4096-preview": {
|
||
"description": "LLaVA 1.5 7B oferece capacidade de processamento visual integrada, gerando saídas complexas a partir de informações visuais."
|
||
},
|
||
"llava:13b": {
|
||
"description": "LLaVA é um modelo multimodal que combina um codificador visual e Vicuna, projetado para forte compreensão visual e linguística."
|
||
},
|
||
"llava:34b": {
|
||
"description": "LLaVA é um modelo multimodal que combina um codificador visual e Vicuna, projetado para forte compreensão visual e linguística."
|
||
},
|
||
"magistral-medium-latest": {
|
||
"description": "Magistral Medium 1.2 é um modelo de inferência de ponta com suporte visual, lançado pela Mistral AI em setembro de 2025."
|
||
},
|
||
"magistral-small-2509": {
|
||
"description": "Magistral Small 1.2 é um modelo de inferência pequeno e open source com suporte visual, lançado pela Mistral AI em setembro de 2025."
|
||
},
|
||
"mathstral": {
|
||
"description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados."
|
||
},
|
||
"max-32k": {
|
||
"description": "Spark Max 32K possui uma capacidade de processamento de contexto grande, com melhor compreensão de contexto e capacidade de raciocínio lógico, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas de conhecimento privado e outros cenários."
|
||
},
|
||
"megrez-3b-instruct": {
|
||
"description": "Megrez 3B Instruct é um modelo eficiente com poucos parâmetros desenvolvido pela Wuwen Xinqiong."
|
||
},
|
||
"meituan/longcat-flash-chat": {
|
||
"description": "Modelo base não reflexivo de código aberto da Meituan, otimizado para interações em diálogos e tarefas de agentes inteligentes, com desempenho excepcional em chamadas de ferramentas e cenários complexos de múltiplas rodadas."
|
||
},
|
||
"meta-llama-3-70b-instruct": {
|
||
"description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
|
||
},
|
||
"meta-llama-3-8b-instruct": {
|
||
"description": "Um modelo versátil com 8 bilhões de parâmetros, otimizado para tarefas de diálogo e geração de texto."
|
||
},
|
||
"meta-llama-3.1-405b-instruct": {
|
||
"description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
|
||
},
|
||
"meta-llama-3.1-70b-instruct": {
|
||
"description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
|
||
},
|
||
"meta-llama-3.1-8b-instruct": {
|
||
"description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
|
||
},
|
||
"meta-llama/Llama-2-13b-chat-hf": {
|
||
"description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável."
|
||
},
|
||
"meta-llama/Llama-2-70b-hf": {
|
||
"description": "LLaMA-2 oferece excelente capacidade de processamento de linguagem e uma experiência interativa excepcional."
|
||
},
|
||
"meta-llama/Llama-3-70b-chat-hf": {
|
||
"description": "LLaMA-3 Chat (70B) é um modelo de chat poderoso, suportando necessidades de diálogo complexas."
|
||
},
|
||
"meta-llama/Llama-3-8b-chat-hf": {
|
||
"description": "LLaMA-3 Chat (8B) oferece suporte multilíngue, abrangendo um rico conhecimento em diversas áreas."
|
||
},
|
||
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
|
||
"description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
|
||
"description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
|
||
"description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
|
||
"description": "O Meta Llama 3.3 é um modelo de linguagem de grande escala multilíngue (LLM) com 70B (entrada/saída de texto) que é um modelo gerado por pré-treinamento e ajuste de instruções. O modelo de texto puro ajustado por instruções do Llama 3.3 foi otimizado para casos de uso de diálogo multilíngue e supera muitos modelos de chat de código aberto e fechados disponíveis em benchmarks de indústria comuns."
|
||
},
|
||
"meta-llama/Llama-Vision-Free": {
|
||
"description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
||
"description": "Llama 3 70B Instruct Lite é ideal para ambientes que exigem alta eficiência e baixa latência."
|
||
},
|
||
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
|
||
"description": "Llama 3 70B Instruct Turbo oferece uma capacidade excepcional de compreensão e geração de linguagem, adequado para as tarefas computacionais mais exigentes."
|
||
},
|
||
"meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
|
||
"description": "Llama 3 8B Instruct Lite é adequado para ambientes com recursos limitados, oferecendo um excelente equilíbrio de desempenho."
|
||
},
|
||
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
|
||
"description": "Llama 3 8B Instruct Turbo é um modelo de linguagem de alto desempenho, suportando uma ampla gama de cenários de aplicação."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-405B-Instruct": {
|
||
"description": "LLaMA 3.1 405B é um modelo poderoso para pré-treinamento e ajuste de instruções."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
||
"description": "O modelo Llama 3.1 Turbo 405B oferece suporte a um contexto de capacidade extremamente grande para processamento de grandes volumes de dados, destacando-se em aplicações de inteligência artificial em larga escala."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-70B": {
|
||
"description": "Llama 3.1 é o modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
|
||
"description": "O modelo Llama 3.1 70B é ajustado para aplicações de alta carga, quantizado para FP8, oferecendo maior eficiência computacional e precisão, garantindo desempenho excepcional em cenários complexos."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
|
||
"description": "O modelo Llama 3.1 8B utiliza quantização FP8, suportando até 131.072 tokens de contexto, destacando-se entre os modelos de código aberto, ideal para tarefas complexas e superando muitos benchmarks do setor."
|
||
},
|
||
"meta-llama/llama-3-70b-instruct": {
|
||
"description": "Llama 3 70B Instruct é otimizado para cenários de diálogo de alta qualidade, apresentando desempenho excepcional em várias avaliações humanas."
|
||
},
|
||
"meta-llama/llama-3-8b-instruct": {
|
||
"description": "Llama 3 8B Instruct otimiza cenários de diálogo de alta qualidade, com desempenho superior a muitos modelos fechados."
|
||
},
|
||
"meta-llama/llama-3.1-70b-instruct": {
|
||
"description": "Llama 3.1 70B Instruct é projetado para diálogos de alta qualidade, destacando-se em avaliações humanas, especialmente em cenários de alta interação."
|
||
},
|
||
"meta-llama/llama-3.1-8b-instruct": {
|
||
"description": "Llama 3.1 8B Instruct é a versão mais recente lançada pela Meta, otimizada para cenários de diálogo de alta qualidade, superando muitos modelos fechados de ponta."
|
||
},
|
||
"meta-llama/llama-3.1-8b-instruct:free": {
|
||
"description": "LLaMA 3.1 oferece suporte multilíngue e é um dos modelos geradores líderes do setor."
|
||
},
|
||
"meta-llama/llama-3.2-11b-vision-instruct": {
|
||
"description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"meta-llama/llama-3.2-3b-instruct": {
|
||
"description": "meta-llama/llama-3.2-3b-instruct"
|
||
},
|
||
"meta-llama/llama-3.2-90b-vision-instruct": {
|
||
"description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
|
||
},
|
||
"meta-llama/llama-3.3-70b-instruct": {
|
||
"description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechado em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
|
||
},
|
||
"meta-llama/llama-3.3-70b-instruct:free": {
|
||
"description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechado em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
|
||
},
|
||
"meta.llama3-1-405b-instruct-v1:0": {
|
||
"description": "Meta Llama 3.1 405B Instruct é o maior e mais poderoso modelo da série Llama 3.1 Instruct, sendo um modelo altamente avançado para raciocínio conversacional e geração de dados sintéticos, que também pode ser usado como base para pré-treinamento ou ajuste fino em domínios específicos. Os modelos de linguagem de grande escala (LLMs) multilíngues oferecidos pelo Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks comuns da indústria. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de sua saída para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo que utiliza uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas em relação à utilidade e segurança."
|
||
},
|
||
"meta.llama3-1-70b-instruct-v1:0": {
|
||
"description": "A versão atualizada do Meta Llama 3.1 70B Instruct, incluindo um comprimento de contexto expandido de 128K, multilinguismo e capacidades de raciocínio aprimoradas. Os modelos de linguagem de grande porte (LLMs) do Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks de indústria comuns. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de suas saídas para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo usando uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas por ajuda e segurança."
|
||
},
|
||
"meta.llama3-1-8b-instruct-v1:0": {
|
||
"description": "A versão atualizada do Meta Llama 3.1 8B Instruct, incluindo um comprimento de contexto expandido de 128K, multilinguismo e capacidades de raciocínio aprimoradas. Os modelos de linguagem de grande porte (LLMs) do Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks de indústria comuns. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de suas saídas para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo usando uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas por ajuda e segurança."
|
||
},
|
||
"meta.llama3-70b-instruct-v1:0": {
|
||
"description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para criação de conteúdo, IA de diálogo, compreensão de linguagem, P&D e aplicações empresariais."
|
||
},
|
||
"meta.llama3-8b-instruct-v1:0": {
|
||
"description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos."
|
||
},
|
||
"meta/Llama-3.2-11B-Vision-Instruct": {
|
||
"description": "Capacidades avançadas de raciocínio visual em imagens de alta resolução, adequado para aplicações de compreensão visual."
|
||
},
|
||
"meta/Llama-3.2-90B-Vision-Instruct": {
|
||
"description": "Capacidades avançadas de raciocínio visual para aplicações de agentes de compreensão visual."
|
||
},
|
||
"meta/Llama-3.3-70B-Instruct": {
|
||
"description": "Llama 3.3 é o modelo de linguagem grande multilíngue open source mais avançado da série Llama, oferecendo desempenho comparável a modelos de 405B a um custo muito baixo. Baseado na arquitetura Transformer, aprimorado por fine-tuning supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para melhorar utilidade e segurança. A versão ajustada para instruções é otimizada para diálogos multilíngues e supera muitos modelos de chat open source e proprietários em vários benchmarks do setor. Data de corte do conhecimento: dezembro de 2023."
|
||
},
|
||
"meta/Meta-Llama-3-70B-Instruct": {
|
||
"description": "Um poderoso modelo de 70 bilhões de parâmetros, com desempenho excelente em raciocínio, codificação e ampla gama de aplicações linguísticas."
|
||
},
|
||
"meta/Meta-Llama-3-8B-Instruct": {
|
||
"description": "Um modelo versátil de 8 bilhões de parâmetros, otimizado para tarefas de diálogo e geração de texto."
|
||
},
|
||
"meta/Meta-Llama-3.1-405B-Instruct": {
|
||
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
|
||
},
|
||
"meta/Meta-Llama-3.1-70B-Instruct": {
|
||
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
|
||
},
|
||
"meta/Meta-Llama-3.1-8B-Instruct": {
|
||
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
|
||
},
|
||
"meta/llama-3-70b": {
|
||
"description": "Modelo open source de 70 bilhões de parâmetros ajustado pela Meta para conformidade com instruções. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
|
||
},
|
||
"meta/llama-3-8b": {
|
||
"description": "Modelo open source de 8 bilhões de parâmetros ajustado pela Meta para conformidade com instruções. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
|
||
},
|
||
"meta/llama-3.1-405b-instruct": {
|
||
"description": "LLM avançado, suporta geração de dados sintéticos, destilação de conhecimento e raciocínio, adequado para chatbots, programação e tarefas de domínio específico."
|
||
},
|
||
"meta/llama-3.1-70b": {
|
||
"description": "Versão atualizada do Meta Llama 3 70B Instruct, incluindo extensão do comprimento de contexto para 128K, multilíngue e capacidades de raciocínio aprimoradas."
|
||
},
|
||
"meta/llama-3.1-70b-instruct": {
|
||
"description": "Capacita diálogos complexos, com excelente compreensão de contexto, capacidade de raciocínio e geração de texto."
|
||
},
|
||
"meta/llama-3.1-8b": {
|
||
"description": "Llama 3.1 8B suporta janela de contexto de 128K, tornando-o ideal para interfaces de diálogo em tempo real e análise de dados, oferecendo economia significativa de custos em comparação com modelos maiores. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
|
||
},
|
||
"meta/llama-3.1-8b-instruct": {
|
||
"description": "Modelo de ponta avançado, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
||
},
|
||
"meta/llama-3.2-11b": {
|
||
"description": "Modelo de geração de raciocínio visual ajustado por instrução (entrada de texto + imagem / saída de texto), otimizado para reconhecimento visual, raciocínio sobre imagens, geração de legendas e respostas a perguntas gerais sobre imagens."
|
||
},
|
||
"meta/llama-3.2-11b-vision-instruct": {
|
||
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
|
||
},
|
||
"meta/llama-3.2-1b": {
|
||
"description": "Modelo apenas de texto, suportando casos de uso em dispositivos, como recuperação de conhecimento local multilíngue, resumo e reescrita."
|
||
},
|
||
"meta/llama-3.2-1b-instruct": {
|
||
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
||
},
|
||
"meta/llama-3.2-3b": {
|
||
"description": "Modelo apenas de texto, cuidadosamente ajustado para suportar casos de uso em dispositivos, como recuperação de conhecimento local multilíngue, resumo e reescrita."
|
||
},
|
||
"meta/llama-3.2-3b-instruct": {
|
||
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
||
},
|
||
"meta/llama-3.2-90b": {
|
||
"description": "Modelo de geração de raciocínio visual ajustado por instrução (entrada de texto + imagem / saída de texto), otimizado para reconhecimento visual, raciocínio sobre imagens, geração de legendas e respostas a perguntas gerais sobre imagens."
|
||
},
|
||
"meta/llama-3.2-90b-vision-instruct": {
|
||
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
|
||
},
|
||
"meta/llama-3.3-70b": {
|
||
"description": "Combinação perfeita de desempenho e eficiência. Este modelo suporta IA de diálogo de alto desempenho, projetado para criação de conteúdo, aplicações empresariais e pesquisa, oferecendo capacidades avançadas de compreensão de linguagem, incluindo resumo de texto, classificação, análise de sentimento e geração de código."
|
||
},
|
||
"meta/llama-3.3-70b-instruct": {
|
||
"description": "Modelo LLM avançado, especializado em raciocínio, matemática, conhecimento geral e chamadas de função."
|
||
},
|
||
"meta/llama-4-maverick": {
|
||
"description": "A coleção de modelos Llama 4 é uma IA multimodal nativa, suportando experiências de texto e multimodais. Esses modelos utilizam arquitetura de especialistas mistos para oferecer desempenho líder do setor em compreensão de texto e imagem. Llama 4 Maverick, um modelo de 17 bilhões de parâmetros com 128 especialistas. Atendido pela DeepInfra."
|
||
},
|
||
"meta/llama-4-scout": {
|
||
"description": "A coleção de modelos Llama 4 é uma IA multimodal nativa, suportando experiências de texto e multimodais. Esses modelos utilizam arquitetura de especialistas mistos para oferecer desempenho líder do setor em compreensão de texto e imagem. Llama 4 Scout, um modelo de 17 bilhões de parâmetros com 16 especialistas. Atendido pela DeepInfra."
|
||
},
|
||
"microsoft/Phi-3-medium-128k-instruct": {
|
||
"description": "O mesmo modelo Phi-3-medium, mas com contexto maior, adequado para RAG ou poucos prompts."
|
||
},
|
||
"microsoft/Phi-3-medium-4k-instruct": {
|
||
"description": "Um modelo de 14 bilhões de parâmetros, com qualidade superior ao Phi-3-mini, focado em dados de alta qualidade e raciocínio intensivo."
|
||
},
|
||
"microsoft/Phi-3-mini-128k-instruct": {
|
||
"description": "O mesmo modelo Phi-3-mini, mas com contexto maior, adequado para RAG ou poucos prompts."
|
||
},
|
||
"microsoft/Phi-3-mini-4k-instruct": {
|
||
"description": "O menor membro da família Phi-3, otimizado para qualidade e baixa latência."
|
||
},
|
||
"microsoft/Phi-3-small-128k-instruct": {
|
||
"description": "O mesmo modelo Phi-3-small, mas com contexto maior, adequado para RAG ou poucos prompts."
|
||
},
|
||
"microsoft/Phi-3-small-8k-instruct": {
|
||
"description": "Um modelo de 7 bilhões de parâmetros, com qualidade superior ao Phi-3-mini, focado em dados de alta qualidade e raciocínio intensivo."
|
||
},
|
||
"microsoft/Phi-3.5-mini-instruct": {
|
||
"description": "Versão atualizada do modelo Phi-3-mini."
|
||
},
|
||
"microsoft/Phi-3.5-vision-instruct": {
|
||
"description": "Versão atualizada do modelo Phi-3-vision."
|
||
},
|
||
"microsoft/WizardLM-2-8x22B": {
|
||
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
||
},
|
||
"microsoft/wizardlm-2-8x22b": {
|
||
"description": "WizardLM-2 8x22B é o modelo Wizard mais avançado da Microsoft, demonstrando um desempenho extremamente competitivo."
|
||
},
|
||
"minicpm-v": {
|
||
"description": "MiniCPM-V é a nova geração de grandes modelos multimodais lançada pela OpenBMB, com excelente capacidade de reconhecimento de OCR e compreensão multimodal, suportando uma ampla gama de cenários de aplicação."
|
||
},
|
||
"minimax-m2": {
|
||
"description": "MiniMax M2 é um modelo de linguagem de grande escala, eficiente e desenvolvido para fluxos de trabalho de codificação e agentes."
|
||
},
|
||
"minimax/minimax-m2": {
|
||
"description": "MiniMax-M2 é um modelo de alto custo-benefício com excelente desempenho em codificação e tarefas de agente, adequado para diversos cenários de engenharia."
|
||
},
|
||
"minimaxai/minimax-m2": {
|
||
"description": "O MiniMax-M2 é um modelo de especialistas mistos (MoE) compacto, rápido e econômico, com 230 bilhões de parâmetros totais e 10 bilhões de parâmetros ativos, projetado para oferecer desempenho de alto nível em tarefas de codificação e agentes, mantendo uma inteligência geral poderosa. O modelo se destaca em edição de múltiplos arquivos, ciclos de codificação-execução-correção, verificação e correção de testes, bem como em cadeias de ferramentas complexas e de longo alcance, sendo a escolha ideal para fluxos de trabalho de desenvolvedores."
|
||
},
|
||
"ministral-3b-latest": {
|
||
"description": "Ministral 3B é o modelo de ponta da Mistral para aplicações de edge computing."
|
||
},
|
||
"ministral-8b-latest": {
|
||
"description": "Ministral 8B é o modelo de edge computing altamente custo-efetivo da Mistral."
|
||
},
|
||
"mistral": {
|
||
"description": "Mistral é um modelo de 7B lançado pela Mistral AI, adequado para demandas de processamento de linguagem variáveis."
|
||
},
|
||
"mistral-ai/Mistral-Large-2411": {
|
||
"description": "O modelo principal da Mistral, ideal para tarefas complexas que requerem raciocínio em grande escala ou alta especialização (geração de texto sintético, geração de código, RAG ou agentes)."
|
||
},
|
||
"mistral-ai/Mistral-Nemo": {
|
||
"description": "Mistral Nemo é um modelo de linguagem avançado (LLM) que oferece capacidades de raciocínio, conhecimento mundial e codificação líderes em sua categoria de tamanho."
|
||
},
|
||
"mistral-ai/mistral-small-2503": {
|
||
"description": "Mistral Small é adequado para qualquer tarefa baseada em linguagem que exija alta eficiência e baixa latência."
|
||
},
|
||
"mistral-large": {
|
||
"description": "Mixtral Large é o modelo de destaque da Mistral, combinando capacidades de geração de código, matemática e raciocínio, suportando uma janela de contexto de 128k."
|
||
},
|
||
"mistral-large-instruct": {
|
||
"description": "Mistral-Large-Instruct-2407 é um modelo avançado de linguagem densa (LLM) com 123 bilhões de parâmetros, oferecendo capacidades de raciocínio, conhecimento e codificação de última geração."
|
||
},
|
||
"mistral-large-latest": {
|
||
"description": "Mistral Large é o modelo de destaque, especializado em tarefas multilíngues, raciocínio complexo e geração de código, sendo a escolha ideal para aplicações de alto nível."
|
||
},
|
||
"mistral-medium-latest": {
|
||
"description": "O Mistral Medium 3 oferece desempenho de ponta a um custo 8 vezes menor e simplifica fundamentalmente a implantação empresarial."
|
||
},
|
||
"mistral-nemo": {
|
||
"description": "Mistral Nemo é um modelo de 12B desenvolvido em colaboração entre a Mistral AI e a NVIDIA, oferecendo desempenho eficiente."
|
||
},
|
||
"mistral-nemo-instruct": {
|
||
"description": "Mistral-Nemo-Instruct-2407 é um modelo de linguagem grande (LLM) ajustado para instruções, baseado no Mistral-Nemo-Base-2407."
|
||
},
|
||
"mistral-small": {
|
||
"description": "Mistral Small pode ser usado em qualquer tarefa baseada em linguagem que exija alta eficiência e baixa latência."
|
||
},
|
||
"mistral-small-latest": {
|
||
"description": "Mistral Small é uma opção de alto custo-benefício, rápida e confiável, adequada para casos de uso como tradução, resumo e análise de sentimentos."
|
||
},
|
||
"mistral/codestral": {
|
||
"description": "Mistral Codestral 25.01 é um modelo de codificação de ponta, otimizado para casos de uso de baixa latência e alta frequência. Fluente em mais de 80 linguagens de programação, destaca-se em tarefas como preenchimento intermediário (FIM), correção de código e geração de testes."
|
||
},
|
||
"mistral/codestral-embed": {
|
||
"description": "Modelo de embeddings de código que pode ser incorporado em bancos de dados e repositórios de código para suportar assistentes de codificação."
|
||
},
|
||
"mistral/devstral-small": {
|
||
"description": "Devstral é um grande modelo de linguagem agente para tarefas de engenharia de software, tornando-o uma excelente escolha para agentes de engenharia de software."
|
||
},
|
||
"mistral/magistral-medium": {
|
||
"description": "Pensamento complexo suportado por compreensão profunda, com raciocínio transparente que você pode seguir e verificar. O modelo mantém raciocínio de alta fidelidade em múltiplos idiomas, mesmo ao alternar idiomas no meio da tarefa."
|
||
},
|
||
"mistral/magistral-small": {
|
||
"description": "Pensamento complexo suportado por compreensão profunda, com raciocínio transparente que você pode seguir e verificar. O modelo mantém raciocínio de alta fidelidade em múltiplos idiomas, mesmo ao alternar idiomas no meio da tarefa."
|
||
},
|
||
"mistral/ministral-3b": {
|
||
"description": "Um modelo compacto e eficiente para tarefas em dispositivos, como assistentes inteligentes e análises locais, oferecendo desempenho de baixa latência."
|
||
},
|
||
"mistral/ministral-8b": {
|
||
"description": "Um modelo mais poderoso, com inferência mais rápida e eficiente em memória, ideal para fluxos de trabalho complexos e aplicações de borda exigentes."
|
||
},
|
||
"mistral/mistral-embed": {
|
||
"description": "Modelo universal de embeddings de texto para busca semântica, similaridade, agrupamento e fluxos de trabalho RAG."
|
||
},
|
||
"mistral/mistral-large": {
|
||
"description": "Mistral Large é ideal para tarefas complexas que exigem grandes capacidades de raciocínio ou alta especialização — como geração de texto sintético, geração de código, RAG ou agentes."
|
||
},
|
||
"mistral/mistral-small": {
|
||
"description": "Mistral Small é ideal para tarefas simples que podem ser processadas em lote — como classificação, suporte ao cliente ou geração de texto. Oferece excelente desempenho a um preço acessível."
|
||
},
|
||
"mistral/mixtral-8x22b-instruct": {
|
||
"description": "Modelo 8x22b Instruct. 8x22b é um modelo open source de especialistas mistos atendido pela Mistral."
|
||
},
|
||
"mistral/pixtral-12b": {
|
||
"description": "Um modelo de 12 bilhões com capacidades de compreensão de imagem, além de texto."
|
||
},
|
||
"mistral/pixtral-large": {
|
||
"description": "Pixtral Large é o segundo modelo da nossa família multimodal, demonstrando compreensão de imagem em nível de ponta. Especificamente, o modelo pode entender documentos, gráficos e imagens naturais, mantendo a liderança em compreensão de texto do Mistral Large 2."
|
||
},
|
||
"mistralai/Mistral-7B-Instruct-v0.1": {
|
||
"description": "Mistral (7B) Instruct é conhecido por seu alto desempenho, adequado para diversas tarefas de linguagem."
|
||
},
|
||
"mistralai/Mistral-7B-Instruct-v0.2": {
|
||
"description": "Mistral 7B é um modelo ajustado sob demanda, oferecendo respostas otimizadas para tarefas."
|
||
},
|
||
"mistralai/Mistral-7B-Instruct-v0.3": {
|
||
"description": "Mistral (7B) Instruct v0.3 oferece capacidade computacional eficiente e compreensão de linguagem natural, adequada para uma ampla gama de aplicações."
|
||
},
|
||
"mistralai/Mistral-7B-v0.1": {
|
||
"description": "Mistral 7B é um modelo compacto, mas de alto desempenho, especializado em processamento em lote e tarefas simples, como classificação e geração de texto, com boa capacidade de raciocínio."
|
||
},
|
||
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
|
||
"description": "Mixtral-8x22B Instruct (141B) é um super modelo de linguagem, suportando demandas de processamento extremamente altas."
|
||
},
|
||
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
|
||
"description": "Mixtral 8x7B é um modelo de especialistas esparsos pré-treinados, utilizado para tarefas de texto de uso geral."
|
||
},
|
||
"mistralai/Mixtral-8x7B-v0.1": {
|
||
"description": "Mixtral 8x7B é um modelo de especialistas esparsos, que utiliza múltiplos parâmetros para aumentar a velocidade de raciocínio, ideal para tarefas de geração de código e multilíngues."
|
||
},
|
||
"mistralai/mistral-nemo": {
|
||
"description": "Mistral Nemo é um modelo de 7.3B parâmetros com suporte multilíngue e programação de alto desempenho."
|
||
},
|
||
"mixtral": {
|
||
"description": "Mixtral é o modelo de especialistas da Mistral AI, com pesos de código aberto, oferecendo suporte em geração de código e compreensão de linguagem."
|
||
},
|
||
"mixtral-8x7b-32768": {
|
||
"description": "Mixtral 8x7B oferece alta capacidade de computação paralela com tolerância a falhas, adequado para tarefas complexas."
|
||
},
|
||
"mixtral:8x22b": {
|
||
"description": "Mixtral é o modelo de especialistas da Mistral AI, com pesos de código aberto, oferecendo suporte em geração de código e compreensão de linguagem."
|
||
},
|
||
"moonshot-v1-128k": {
|
||
"description": "Moonshot V1 128K é um modelo com capacidade de processamento de contexto ultra longo, adequado para gerar textos muito longos, atendendo a demandas complexas de geração, capaz de lidar com até 128.000 tokens, ideal para pesquisa, acadêmicos e geração de documentos extensos."
|
||
},
|
||
"moonshot-v1-128k-vision-preview": {
|
||
"description": "O modelo visual Kimi (incluindo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) é capaz de entender o conteúdo das imagens, incluindo texto, cores e formas dos objetos."
|
||
},
|
||
"moonshot-v1-32k": {
|
||
"description": "Moonshot V1 32K oferece capacidade de processamento de contexto de comprimento médio, capaz de lidar com 32.768 tokens, especialmente adequado para gerar vários documentos longos e diálogos complexos, aplicável em criação de conteúdo, geração de relatórios e sistemas de diálogo."
|
||
},
|
||
"moonshot-v1-32k-vision-preview": {
|
||
"description": "O modelo visual Kimi (incluindo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) é capaz de entender o conteúdo das imagens, incluindo texto, cores e formas dos objetos."
|
||
},
|
||
"moonshot-v1-8k": {
|
||
"description": "Moonshot V1 8K é projetado para tarefas de geração de texto curto, com desempenho de processamento eficiente, capaz de lidar com 8.192 tokens, ideal para diálogos curtos, anotações e geração rápida de conteúdo."
|
||
},
|
||
"moonshot-v1-8k-vision-preview": {
|
||
"description": "O modelo visual Kimi (incluindo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) é capaz de entender o conteúdo das imagens, incluindo texto, cores e formas dos objetos."
|
||
},
|
||
"moonshot-v1-auto": {
|
||
"description": "O Moonshot V1 Auto pode escolher o modelo adequado com base na quantidade de Tokens ocupados pelo contexto atual."
|
||
},
|
||
"moonshotai/Kimi-Dev-72B": {
|
||
"description": "Kimi-Dev-72B é um modelo de código aberto de grande porte, otimizado por meio de aprendizado reforçado em larga escala, capaz de gerar patches robustos e prontos para produção. Este modelo alcançou uma nova pontuação máxima de 60,4% no SWE-bench Verified, estabelecendo um recorde entre modelos de código aberto em tarefas automatizadas de engenharia de software, como correção de defeitos e revisão de código."
|
||
},
|
||
"moonshotai/Kimi-K2-Instruct-0905": {
|
||
"description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
|
||
},
|
||
"moonshotai/Kimi-K2-Thinking": {
|
||
"description": "Kimi K2 Thinking é o mais recente e poderoso modelo de raciocínio de código aberto. Ele amplia significativamente a profundidade do raciocínio em múltiplas etapas e mantém o uso estável de ferramentas em 200–300 chamadas consecutivas. Estabeleceu novos padrões em benchmarks como Humanity's Last Exam (HLE), BrowseComp e outros. Também se destaca em programação, matemática, raciocínio lógico e cenários com agentes. Baseado em arquitetura de especialistas mistos (MoE), possui cerca de 1 trilhão de parâmetros, suporta janelas de contexto de 256K e chamadas de ferramentas."
|
||
},
|
||
"moonshotai/kimi-k2": {
|
||
"description": "Kimi K2 é um modelo de linguagem de especialistas mistos (MoE) em grande escala desenvolvido pela Moonshot AI, com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos por passagem. Otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código."
|
||
},
|
||
"moonshotai/kimi-k2-0711": {
|
||
"description": "Kimi K2 0711 é a versão Instruct da série Kimi, ideal para cenários de código de alta qualidade e chamadas de ferramentas."
|
||
},
|
||
"moonshotai/kimi-k2-0905": {
|
||
"description": "Kimi K2 0905 é a atualização da série Kimi, com melhorias em contexto e raciocínio, otimizado para codificação."
|
||
},
|
||
"moonshotai/kimi-k2-instruct-0905": {
|
||
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
|
||
},
|
||
"moonshotai/kimi-k2-thinking": {
|
||
"description": "Kimi K2 Thinking é o modelo de raciocínio da Moonshot otimizado para tarefas de raciocínio profundo, com capacidades de agente geral."
|
||
},
|
||
"moonshotai/kimi-k2-thinking-turbo": {
|
||
"description": "Kimi K2 Thinking Turbo é a versão acelerada do Kimi K2 Thinking, mantendo o raciocínio profundo com latência significativamente reduzida."
|
||
},
|
||
"morph/morph-v3-fast": {
|
||
"description": "Morph oferece um modelo de IA especializado que aplica rapidamente as alterações de código sugeridas por modelos de ponta como Claude ou GPT-4o aos seus arquivos de código existentes — RÁPIDO - mais de 4500 tokens/segundo. Atua como a etapa final no fluxo de trabalho de codificação de IA. Suporta 16k tokens de entrada e 16k tokens de saída."
|
||
},
|
||
"morph/morph-v3-large": {
|
||
"description": "Morph oferece um modelo de IA especializado que aplica as alterações de código sugeridas por modelos de ponta como Claude ou GPT-4o aos seus arquivos de código existentes — RÁPIDO - mais de 2500 tokens/segundo. Atua como a etapa final no fluxo de trabalho de codificação de IA. Suporta 16k tokens de entrada e 16k tokens de saída."
|
||
},
|
||
"nousresearch/hermes-2-pro-llama-3-8b": {
|
||
"description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
|
||
},
|
||
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
||
"description": "Llama 3.1 Nemotron 70B é um modelo de linguagem em larga escala personalizado pela NVIDIA, projetado para aumentar a utilidade das respostas geradas pelo LLM em relação às consultas dos usuários. Este modelo se destacou em benchmarks como Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, ocupando o primeiro lugar em todos os três benchmarks de alinhamento automático até 1º de outubro de 2024. O modelo foi treinado usando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference prompts, com base no modelo Llama-3.1-70B-Instruct."
|
||
},
|
||
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
||
"description": "Modelo de linguagem único, oferecendo precisão e eficiência incomparáveis."
|
||
},
|
||
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
||
"description": "Llama-3.1-Nemotron-70B-Instruct é um modelo de linguagem de grande porte personalizado pela NVIDIA, projetado para melhorar a utilidade das respostas geradas pelo LLM."
|
||
},
|
||
"o1": {
|
||
"description": "Focado em raciocínio avançado e resolução de problemas complexos, incluindo tarefas matemáticas e científicas. Muito adequado para aplicativos que exigem compreensão profunda do contexto e gerenciamento de fluxos de trabalho."
|
||
},
|
||
"o1-mini": {
|
||
"description": "Menor e mais rápido que o o1-preview, com 80% de redução de custo, apresenta bom desempenho em geração de código e operações com contexto reduzido."
|
||
},
|
||
"o1-preview": {
|
||
"description": "Focado em raciocínio avançado e na resolução de problemas complexos, incluindo tarefas de matemática e ciências. Muito adequado para aplicações que exigem compreensão profunda do contexto e fluxos de trabalho autônomos."
|
||
},
|
||
"o1-pro": {
|
||
"description": "A série o1 é treinada com aprendizado por reforço, capaz de pensar antes de responder e executar tarefas complexas de raciocínio. O modelo o1-pro utiliza mais recursos computacionais para um pensamento mais profundo, oferecendo respostas de qualidade superior continuamente."
|
||
},
|
||
"o3": {
|
||
"description": "o3 é um modelo versátil e poderoso, com excelente desempenho em várias áreas. Ele estabelece novos padrões para tarefas de matemática, ciência, programação e raciocínio visual. Também é bom em redação técnica e seguimento de instruções. Os usuários podem utilizá-lo para analisar textos, códigos e imagens, resolvendo problemas complexos em múltiplas etapas."
|
||
},
|
||
"o3-2025-04-16": {
|
||
"description": "o3 é o novo modelo de raciocínio da OpenAI, suporta entrada de texto e imagem e gera texto, adequado para tarefas complexas que exigem amplo conhecimento geral."
|
||
},
|
||
"o3-deep-research": {
|
||
"description": "o3-deep-research é o nosso modelo avançado de pesquisa profunda, projetado para lidar com tarefas complexas de pesquisa em múltiplas etapas. Ele pode buscar e sintetizar informações da internet, além de acessar e utilizar seus dados próprios por meio do conector MCP."
|
||
},
|
||
"o3-mini": {
|
||
"description": "o3-mini é nosso mais recente modelo de inferência em miniatura, oferecendo alta inteligência com os mesmos custos e metas de latência que o o1-mini."
|
||
},
|
||
"o3-pro": {
|
||
"description": "O modelo o3-pro utiliza mais computação para pensar mais profundamente e sempre fornecer respostas melhores, suportado apenas via API Responses."
|
||
},
|
||
"o3-pro-2025-06-10": {
|
||
"description": "o3 Pro é o novo modelo de raciocínio da OpenAI, suporta entrada de texto e imagem e gera texto, adequado para tarefas complexas que exigem amplo conhecimento geral."
|
||
},
|
||
"o4-mini": {
|
||
"description": "o4-mini é nosso mais recente modelo compacto da série o. Ele é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
|
||
},
|
||
"o4-mini-2025-04-16": {
|
||
"description": "o4-mini é um modelo de raciocínio da OpenAI, suporta entrada de texto e imagem e gera texto, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui contexto de 200K."
|
||
},
|
||
"o4-mini-deep-research": {
|
||
"description": "o4-mini-deep-research é o nosso modelo de pesquisa profunda mais rápido e acessível — ideal para lidar com tarefas complexas de pesquisa em múltiplas etapas. Ele pode buscar e sintetizar informações da internet, além de acessar e utilizar seus dados próprios por meio do conector MCP."
|
||
},
|
||
"open-codestral-mamba": {
|
||
"description": "Codestral Mamba é um modelo de linguagem Mamba 2 focado em geração de código, oferecendo forte suporte para tarefas avançadas de codificação e raciocínio."
|
||
},
|
||
"open-mistral-7b": {
|
||
"description": "Mistral 7B é um modelo compacto, mas de alto desempenho, especializado em processamento em lote e tarefas simples, como classificação e geração de texto, com boa capacidade de raciocínio."
|
||
},
|
||
"open-mistral-nemo": {
|
||
"description": "Mistral Nemo é um modelo de 12B desenvolvido em colaboração com a Nvidia, oferecendo excelente desempenho em raciocínio e codificação, fácil de integrar e substituir."
|
||
},
|
||
"open-mixtral-8x22b": {
|
||
"description": "Mixtral 8x22B é um modelo de especialistas maior, focado em tarefas complexas, oferecendo excelente capacidade de raciocínio e maior taxa de transferência."
|
||
},
|
||
"open-mixtral-8x7b": {
|
||
"description": "Mixtral 8x7B é um modelo de especialistas esparsos, utilizando múltiplos parâmetros para aumentar a velocidade de raciocínio, adequado para tarefas de geração de linguagem e código."
|
||
},
|
||
"openai/gpt-3.5-turbo": {
|
||
"description": "O modelo mais capaz e econômico da série GPT-3.5 da OpenAI, otimizado para fins de chat, mas também com bom desempenho em tarefas tradicionais de completamento."
|
||
},
|
||
"openai/gpt-3.5-turbo-instruct": {
|
||
"description": "Capacidades semelhantes aos modelos da era GPT-3. Compatível com endpoints tradicionais de completamento, em vez de endpoints de completamento de chat."
|
||
},
|
||
"openai/gpt-4-turbo": {
|
||
"description": "O gpt-4-turbo da OpenAI possui amplo conhecimento geral e especialização em domínios, permitindo seguir instruções complexas em linguagem natural e resolver problemas difíceis com precisão. Sua data de corte de conhecimento é abril de 2023, com janela de contexto de 128.000 tokens."
|
||
},
|
||
"openai/gpt-4.1": {
|
||
"description": "A série GPT-4.1 oferece contexto expandido e capacidades aprimoradas de engenharia e raciocínio."
|
||
},
|
||
"openai/gpt-4.1-mini": {
|
||
"description": "GPT-4.1 Mini oferece menor latência e melhor custo-benefício, ideal para contextos de média complexidade."
|
||
},
|
||
"openai/gpt-4.1-nano": {
|
||
"description": "GPT-4.1 Nano é a opção de custo e latência extremamente baixos, ideal para diálogos curtos e frequentes ou tarefas de classificação."
|
||
},
|
||
"openai/gpt-4o": {
|
||
"description": "A série GPT-4o é o modelo Omni da OpenAI, com suporte a entrada de texto + imagem e saída em texto."
|
||
},
|
||
"openai/gpt-4o-mini": {
|
||
"description": "GPT-4o-mini é a versão rápida e compacta do GPT-4o, ideal para cenários multimodais com baixa latência."
|
||
},
|
||
"openai/gpt-5": {
|
||
"description": "GPT-5 é o modelo de alto desempenho da OpenAI, adequado para uma ampla gama de tarefas de produção e pesquisa."
|
||
},
|
||
"openai/gpt-5-chat": {
|
||
"description": "GPT-5 Chat é uma subversão do GPT-5 otimizada para diálogos, com menor latência e melhor experiência interativa."
|
||
},
|
||
"openai/gpt-5-codex": {
|
||
"description": "GPT-5-Codex é uma variante do GPT-5 otimizada para codificação, ideal para fluxos de trabalho com grandes volumes de código."
|
||
},
|
||
"openai/gpt-5-mini": {
|
||
"description": "GPT-5 Mini é a versão compacta da família GPT-5, ideal para cenários com baixa latência e custo reduzido."
|
||
},
|
||
"openai/gpt-5-nano": {
|
||
"description": "GPT-5 Nano é a versão ultracompacta da família, ideal para cenários com exigências extremas de custo e latência."
|
||
},
|
||
"openai/gpt-5-pro": {
|
||
"description": "GPT-5 Pro é o modelo carro-chefe da OpenAI, com capacidades avançadas de raciocínio, geração de código e funcionalidades empresariais, incluindo roteamento de teste e políticas de segurança rigorosas."
|
||
},
|
||
"openai/gpt-5.1": {
|
||
"description": "GPT-5.1 é o mais novo modelo carro-chefe da série GPT-5, com melhorias significativas em raciocínio geral, seguimento de instruções e naturalidade de diálogo, ideal para uma ampla gama de tarefas."
|
||
},
|
||
"openai/gpt-5.1-chat": {
|
||
"description": "GPT-5.1 Chat é a versão leve da família GPT-5.1, otimizada para diálogos de baixa latência, mantendo forte capacidade de raciocínio e execução de instruções."
|
||
},
|
||
"openai/gpt-5.1-codex": {
|
||
"description": "GPT-5.1-Codex é uma variante do GPT-5.1 otimizada para engenharia de software e fluxos de trabalho de codificação, ideal para refatorações complexas, depuração e codificação autônoma de longo prazo."
|
||
},
|
||
"openai/gpt-5.1-codex-mini": {
|
||
"description": "GPT-5.1-Codex-Mini é a versão compacta e acelerada do GPT-5.1-Codex, ideal para cenários de codificação sensíveis a latência e custo."
|
||
},
|
||
"openai/gpt-oss-120b": {
|
||
"description": "Modelo grande de linguagem geral extremamente capaz, com forte capacidade de raciocínio controlável."
|
||
},
|
||
"openai/gpt-oss-20b": {
|
||
"description": "Modelo de linguagem compacto com pesos open source, otimizado para baixa latência e ambientes com recursos limitados, incluindo implantação local e na borda."
|
||
},
|
||
"openai/o1": {
|
||
"description": "O o1 da OpenAI é o modelo principal de raciocínio, projetado para problemas complexos que exigem pensamento profundo. Oferece forte capacidade de raciocínio e maior precisão para tarefas complexas de múltiplas etapas."
|
||
},
|
||
"openai/o1-mini": {
|
||
"description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
|
||
},
|
||
"openai/o1-preview": {
|
||
"description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
|
||
},
|
||
"openai/o3": {
|
||
"description": "O o3 da OpenAI é o modelo de raciocínio mais poderoso, estabelecendo novos padrões em codificação, matemática, ciência e percepção visual. É excelente para consultas complexas que exigem análise multifacetada, com vantagens especiais na análise de imagens, gráficos e diagramas."
|
||
},
|
||
"openai/o3-mini": {
|
||
"description": "o3-mini é o mais recente modelo pequeno de raciocínio da OpenAI, oferecendo alta inteligência com os mesmos objetivos de custo e latência do o1-mini."
|
||
},
|
||
"openai/o3-mini-high": {
|
||
"description": "o3-mini de alta capacidade de raciocínio oferece alta inteligência com os mesmos objetivos de custo e latência que o o1-mini."
|
||
},
|
||
"openai/o4-mini": {
|
||
"description": "OpenAI o4-mini é um modelo de raciocínio compacto e eficiente da OpenAI, ideal para cenários de baixa latência."
|
||
},
|
||
"openai/o4-mini-high": {
|
||
"description": "Versão de alto nível de inferência do o4-mini, otimizada para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
|
||
},
|
||
"openai/text-embedding-3-large": {
|
||
"description": "O modelo de embeddings mais capaz da OpenAI, adequado para tarefas em inglês e não inglês."
|
||
},
|
||
"openai/text-embedding-3-small": {
|
||
"description": "Versão aprimorada e de melhor desempenho do modelo ada de embeddings da OpenAI."
|
||
},
|
||
"openai/text-embedding-ada-002": {
|
||
"description": "Modelo tradicional de embeddings de texto da OpenAI."
|
||
},
|
||
"openrouter/auto": {
|
||
"description": "Com base no comprimento do contexto, tema e complexidade, sua solicitação será enviada para Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajustável) ou GPT-4o."
|
||
},
|
||
"perplexity/sonar": {
|
||
"description": "Produto leve da Perplexity com capacidade de pesquisa fundamentada, mais rápido e barato que o Sonar Pro."
|
||
},
|
||
"perplexity/sonar-pro": {
|
||
"description": "Produto principal da Perplexity com capacidade de pesquisa fundamentada, suportando consultas avançadas e operações subsequentes."
|
||
},
|
||
"perplexity/sonar-reasoning": {
|
||
"description": "Modelo focado em raciocínio que gera cadeias de pensamento (CoT) nas respostas, oferecendo explicações detalhadas com pesquisa fundamentada."
|
||
},
|
||
"perplexity/sonar-reasoning-pro": {
|
||
"description": "Modelo avançado focado em raciocínio que gera cadeias de pensamento (CoT) nas respostas, oferecendo explicações abrangentes com capacidade de pesquisa aprimorada e múltiplas consultas de pesquisa por solicitação."
|
||
},
|
||
"phi3": {
|
||
"description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala."
|
||
},
|
||
"phi3:14b": {
|
||
"description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala."
|
||
},
|
||
"pixtral-12b-2409": {
|
||
"description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens."
|
||
},
|
||
"pixtral-large-latest": {
|
||
"description": "Pixtral Large é um modelo multimodal de código aberto com 124 bilhões de parâmetros, baseado no Mistral Large 2. Este é o segundo modelo da nossa família multimodal, demonstrando capacidades de compreensão de imagem de nível avançado."
|
||
},
|
||
"pro-128k": {
|
||
"description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
||
},
|
||
"pro-deepseek-r1": {
|
||
"description": "Modelo exclusivo para serviços empresariais, com suporte a serviços simultâneos."
|
||
},
|
||
"pro-deepseek-v3": {
|
||
"description": "Modelo exclusivo para serviços empresariais, com suporte a serviços simultâneos."
|
||
},
|
||
"qianfan-70b": {
|
||
"description": "Qianfan 70B, modelo em chinês de grande porte, ideal para geração de conteúdo de alta qualidade e tarefas de raciocínio complexas."
|
||
},
|
||
"qianfan-8b": {
|
||
"description": "Qianfan 8B, modelo geral de porte médio, adequado para geração de texto e perguntas e respostas com equilíbrio entre custo e desempenho."
|
||
},
|
||
"qianfan-agent-intent-32k": {
|
||
"description": "Qianfan Agent Intent 32K, modelo voltado para reconhecimento de intenção e orquestração de agentes, com suporte a contextos longos."
|
||
},
|
||
"qianfan-agent-lite-8k": {
|
||
"description": "Qianfan Agent Lite 8K, modelo leve de agente inteligente, ideal para diálogos de múltiplas rodadas e orquestração de negócios com baixo custo."
|
||
},
|
||
"qianfan-agent-speed-32k": {
|
||
"description": "Qianfan Agent Speed 32K, modelo de agente com alto controle de fluxo, ideal para aplicações em larga escala e multitarefa."
|
||
},
|
||
"qianfan-agent-speed-8k": {
|
||
"description": "Qianfan Agent Speed 8K, modelo de agente de alta concorrência, voltado para diálogos curtos e respostas rápidas."
|
||
},
|
||
"qianfan-check-vl": {
|
||
"description": "Qianfan Check VL, modelo multimodal para auditoria e detecção de conteúdo, com suporte a conformidade e reconhecimento de imagem e texto."
|
||
},
|
||
"qianfan-composition": {
|
||
"description": "Qianfan Composition, modelo multimodal de criação, com suporte à compreensão e geração integrada de imagem e texto."
|
||
},
|
||
"qianfan-engcard-vl": {
|
||
"description": "Qianfan EngCard VL, modelo multimodal focado em cenários em inglês."
|
||
},
|
||
"qianfan-lightning-128b-a19b": {
|
||
"description": "Qianfan Lightning 128B A19B, modelo geral de alto desempenho em chinês, ideal para perguntas e respostas complexas e raciocínio em larga escala."
|
||
},
|
||
"qianfan-llama-vl-8b": {
|
||
"description": "Qianfan Llama VL 8B, modelo multimodal baseado no Llama, voltado para tarefas gerais de compreensão de imagem e texto."
|
||
},
|
||
"qianfan-multipicocr": {
|
||
"description": "Qianfan MultiPicOCR, modelo OCR para múltiplas imagens, com suporte à detecção e reconhecimento de texto em várias imagens."
|
||
},
|
||
"qianfan-qi-vl": {
|
||
"description": "Qianfan QI VL, modelo multimodal de perguntas e respostas, com suporte à recuperação e resposta precisa em cenários complexos de imagem e texto."
|
||
},
|
||
"qianfan-singlepicocr": {
|
||
"description": "Qianfan SinglePicOCR, modelo OCR para imagem única, com reconhecimento de caracteres de alta precisão."
|
||
},
|
||
"qianfan-vl-70b": {
|
||
"description": "Qianfan VL 70B, modelo de linguagem visual de grande porte, ideal para cenários complexos de compreensão de imagem e texto."
|
||
},
|
||
"qianfan-vl-8b": {
|
||
"description": "Qianfan VL 8B, modelo leve de linguagem visual, adequado para perguntas e respostas e análises cotidianas de imagem e texto."
|
||
},
|
||
"qvq-72b-preview": {
|
||
"description": "O modelo QVQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em melhorar a capacidade de raciocínio visual, especialmente na área de raciocínio matemático."
|
||
},
|
||
"qvq-max": {
|
||
"description": "Modelo de raciocínio visual QVQ Tongyi Qianwen, que suporta entrada visual e saída de cadeia de pensamento, demonstrando capacidades superiores em matemática, programação, análise visual, criação e tarefas gerais."
|
||
},
|
||
"qvq-plus": {
|
||
"description": "Modelo de raciocínio visual. Suporta entrada visual e saída em cadeia de pensamento. Versão plus lançada após o modelo qvq-max, com velocidade de raciocínio mais rápida e melhor equilíbrio entre desempenho e custo em comparação ao qvq-max."
|
||
},
|
||
"qwen-3-32b": {
|
||
"description": "Qwen 3 32B: modelo da série Qwen com excelente desempenho em tarefas multilíngues e de codificação, adequado para aplicações de produção em escala média."
|
||
},
|
||
"qwen-coder-plus": {
|
||
"description": "Modelo de código Tongyi Qianwen."
|
||
},
|
||
"qwen-coder-turbo": {
|
||
"description": "Modelo de código Tongyi Qianwen."
|
||
},
|
||
"qwen-coder-turbo-latest": {
|
||
"description": "Modelo de código Qwen."
|
||
},
|
||
"qwen-flash": {
|
||
"description": "A série Tongyi Qianwen oferece modelos com a maior velocidade e custo muito baixo, adequados para tarefas simples."
|
||
},
|
||
"qwen-image": {
|
||
"description": "Qwen-Image é um modelo de geração de imagens de uso geral que suporta diversos estilos artísticos. É especialmente eficaz na renderização de textos complexos, em particular na renderização de textos em chinês e inglês. O modelo oferece suporte a layouts de múltiplas linhas, geração de texto em nível de parágrafo e detalhamento de alta precisão, possibilitando a criação de designs complexos com layouts híbridos de imagem e texto."
|
||
},
|
||
"qwen-image-edit": {
|
||
"description": "Qwen Image Edit é um modelo de geração de imagens que suporta edição e modificação de imagens com base em uma imagem de entrada e instruções de texto, capaz de ajustar e transformar a imagem original com precisão e criatividade conforme as necessidades do usuário."
|
||
},
|
||
"qwen-long": {
|
||
"description": "O Qwen é um modelo de linguagem em larga escala que suporta contextos de texto longos e funcionalidades de diálogo baseadas em documentos longos e múltiplos cenários."
|
||
},
|
||
"qwen-math-plus": {
|
||
"description": "Modelo matemático Tongyi Qianwen especializado em resolução de problemas matemáticos."
|
||
},
|
||
"qwen-math-plus-latest": {
|
||
"description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
|
||
},
|
||
"qwen-math-turbo": {
|
||
"description": "Modelo matemático Tongyi Qianwen especializado em resolução de problemas matemáticos."
|
||
},
|
||
"qwen-math-turbo-latest": {
|
||
"description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
|
||
},
|
||
"qwen-max": {
|
||
"description": "Modelo de linguagem em larga escala com trilhões de parâmetros do Qwen, suportando entradas em diferentes idiomas, como português e inglês, atualmente a versão API por trás do produto Qwen 2.5."
|
||
},
|
||
"qwen-omni-turbo": {
|
||
"description": "A série de modelos Qwen-Omni suporta entrada de múltiplas modalidades, incluindo vídeo, áudio, imagem e texto, e gera saída em áudio e texto."
|
||
},
|
||
"qwen-plus": {
|
||
"description": "Versão aprimorada do modelo de linguagem em larga escala Qwen, que suporta entradas em diferentes idiomas, como português e inglês."
|
||
},
|
||
"qwen-turbo": {
|
||
"description": "通义千问 Turbo não receberá mais atualizações; recomendamos substituí-lo pelo 通义千问 Flash. 通义千问 é um modelo de linguagem em larga escala que suporta entradas em chinês, inglês e outros idiomas."
|
||
},
|
||
"qwen-vl-chat-v1": {
|
||
"description": "O Qwen VL suporta uma maneira de interação flexível, incluindo múltiplas imagens, perguntas e respostas em várias rodadas, e capacidades criativas."
|
||
},
|
||
"qwen-vl-max": {
|
||
"description": "Modelo visual-linguístico de escala ultra grande Tongyi Qianwen. Em comparação com a versão aprimorada, ele eleva ainda mais a capacidade de raciocínio visual e conformidade com instruções, oferecendo níveis superiores de percepção e cognição visual."
|
||
},
|
||
"qwen-vl-max-latest": {
|
||
"description": "Modelo de linguagem visual em escala ultra grande Qwen. Em comparação com a versão aprimorada, melhora ainda mais a capacidade de raciocínio visual e de seguir instruções, oferecendo um nível mais alto de percepção e cognição visual."
|
||
},
|
||
"qwen-vl-ocr": {
|
||
"description": "Tongyi Qianwen OCR é um modelo proprietário para extração de texto, focado em imagens de documentos, tabelas, questões e escrita manual. Ele pode reconhecer múltiplos idiomas, incluindo chinês, inglês, francês, japonês, coreano, alemão, russo, italiano, vietnamita e árabe."
|
||
},
|
||
"qwen-vl-plus": {
|
||
"description": "Versão aprimorada do modelo visual-linguístico em larga escala Tongyi Qianwen. Melhora significativamente a capacidade de reconhecimento de detalhes e texto, suportando imagens com resolução superior a um milhão de pixels e proporções de qualquer tamanho."
|
||
},
|
||
"qwen-vl-plus-latest": {
|
||
"description": "Versão aprimorada do modelo de linguagem visual em larga escala Qwen. Aumenta significativamente a capacidade de reconhecimento de detalhes e de texto, suportando resolução de mais de um milhão de pixels e imagens de qualquer proporção."
|
||
},
|
||
"qwen-vl-v1": {
|
||
"description": "Inicializado com o modelo de linguagem Qwen-7B, adicionando um modelo de imagem, um modelo pré-treinado com resolução de entrada de imagem de 448."
|
||
},
|
||
"qwen/qwen-2-7b-instruct": {
|
||
"description": "Qwen2 é uma nova série de modelos de linguagem grande Qwen. Qwen2 7B é um modelo baseado em transformer, com excelente desempenho em compreensão de linguagem, capacidade multilíngue, programação, matemática e raciocínio."
|
||
},
|
||
"qwen/qwen-2-7b-instruct:free": {
|
||
"description": "Qwen2 é uma nova série de grandes modelos de linguagem, com capacidades de compreensão e geração mais robustas."
|
||
},
|
||
"qwen/qwen-2-vl-72b-instruct": {
|
||
"description": "Qwen2-VL é a versão mais recente do modelo Qwen-VL, alcançando desempenho de ponta em benchmarks de compreensão visual, incluindo MathVista, DocVQA, RealWorldQA e MTVQA. Qwen2-VL é capaz de entender vídeos de mais de 20 minutos, permitindo perguntas e respostas, diálogos e criação de conteúdo de alta qualidade baseados em vídeo. Ele também possui capacidades complexas de raciocínio e tomada de decisão, podendo ser integrado a dispositivos móveis, robôs, etc., para operações automáticas baseadas em ambientes visuais e instruções textuais. Além do inglês e do chinês, o Qwen2-VL agora também suporta a compreensão de texto em diferentes idiomas em imagens, incluindo a maioria das línguas europeias, japonês, coreano, árabe e vietnamita."
|
||
},
|
||
"qwen/qwen-2.5-72b-instruct": {
|
||
"description": "Qwen2.5-72B-Instruct é uma das mais recentes séries de modelos de linguagem grande lançadas pela Alibaba Cloud. Este modelo de 72B apresenta capacidades significativamente aprimoradas em áreas como codificação e matemática. O modelo também oferece suporte a múltiplas línguas, cobrindo mais de 29 idiomas, incluindo chinês e inglês. O modelo teve melhorias significativas em seguir instruções, entender dados estruturados e gerar saídas estruturadas (especialmente JSON)."
|
||
},
|
||
"qwen/qwen2.5-32b-instruct": {
|
||
"description": "Qwen2.5-32B-Instruct é uma das mais recentes séries de modelos de linguagem grande lançadas pela Alibaba Cloud. Este modelo de 32B apresenta capacidades significativamente aprimoradas em áreas como codificação e matemática. O modelo oferece suporte a múltiplas línguas, cobrindo mais de 29 idiomas, incluindo chinês e inglês. O modelo teve melhorias significativas em seguir instruções, entender dados estruturados e gerar saídas estruturadas (especialmente JSON)."
|
||
},
|
||
"qwen/qwen2.5-7b-instruct": {
|
||
"description": "LLM voltado para chinês e inglês, focado em linguagem, programação, matemática, raciocínio e outras áreas."
|
||
},
|
||
"qwen/qwen2.5-coder-32b-instruct": {
|
||
"description": "LLM avançado, suporta geração de código, raciocínio e correção, abrangendo linguagens de programação populares."
|
||
},
|
||
"qwen/qwen2.5-coder-7b-instruct": {
|
||
"description": "Modelo de código de médio porte poderoso, suporta comprimento de contexto de 32K, especializado em programação multilíngue."
|
||
},
|
||
"qwen/qwen3-14b": {
|
||
"description": "Qwen3-14B é a versão de 14B da série Qwen, ideal para raciocínio geral e cenários de diálogo."
|
||
},
|
||
"qwen/qwen3-14b:free": {
|
||
"description": "Qwen3-14B é um modelo de linguagem causal denso de 14 bilhões de parâmetros da série Qwen3, projetado para raciocínio complexo e diálogos eficientes. Ele suporta a alternância sem costura entre o modo de 'pensamento' para tarefas de matemática, programação e raciocínio lógico e o modo 'não pensante' para diálogos gerais. Este modelo foi ajustado para seguir instruções, usar ferramentas de agentes, escrever criativamente e realizar tarefas multilíngues em mais de 100 idiomas e dialetos. Ele processa nativamente um contexto de 32K tokens e pode ser expandido para 131K tokens usando uma extensão baseada em YaRN."
|
||
},
|
||
"qwen/qwen3-235b-a22b": {
|
||
"description": "Qwen3-235B-A22B é um modelo de mistura especializada (MoE) de 235 bilhões de parâmetros desenvolvido pela Qwen, ativando 22 bilhões de parâmetros a cada passagem para frente. Ele suporta a alternância sem costura entre o modo de 'pensamento' para raciocínio complexo, matemática e tarefas de código e o modo 'não pensante' para eficiência em diálogos gerais. Este modelo demonstra forte capacidade de raciocínio, suporte multilíngue (mais de 100 idiomas e dialetos), alta capacidade de seguir instruções e chamar ferramentas de agentes. Ele processa nativamente uma janela de contexto de 32K tokens e pode ser expandido para 131K tokens usando uma extensão baseada em YaRN."
|
||
},
|
||
"qwen/qwen3-235b-a22b-2507": {
|
||
"description": "Qwen3-235B-A22B-Instruct-2507 é a versão Instruct da série Qwen3, equilibrando instruções multilíngues e contexto longo."
|
||
},
|
||
"qwen/qwen3-235b-a22b-thinking-2507": {
|
||
"description": "Qwen3-235B-A22B-Thinking-2507 é a variante de raciocínio da Qwen3, reforçada para tarefas complexas de matemática e lógica."
|
||
},
|
||
"qwen/qwen3-235b-a22b:free": {
|
||
"description": "Qwen3-235B-A22B é um modelo de mistura especializada (MoE) de 235 bilhões de parâmetros desenvolvido pela Qwen, ativando 22 bilhões de parâmetros a cada passagem para frente. Ele suporta a alternância sem costura entre o modo de 'pensamento' para raciocínio complexo, matemática e tarefas de código e o modo 'não pensante' para eficiência em diálogos gerais. Este modelo demonstra forte capacidade de raciocínio, suporte multilíngue (mais de 100 idiomas e dialetos), alta capacidade de seguir instruções e chamar ferramentas de agentes. Ele processa nativamente uma janela de contexto de 32K tokens e pode ser expandido para 131K tokens usando uma extensão baseada em YaRN."
|
||
},
|
||
"qwen/qwen3-30b-a3b": {
|
||
"description": "Qwen3 é a última geração da série de modelos de linguagem Qwen, com uma arquitetura de mistura densa e especializada (MoE), destacando-se em raciocínio, suporte multilíngue e tarefas avançadas de agente. Sua capacidade única de alternar sem costura entre modos de pensamento para raciocínio complexo e modos não pensantes para diálogos eficientes garante um desempenho multifuncional e de alta qualidade.\n\nQwen3 supera significativamente modelos anteriores, como QwQ e Qwen2.5, oferecendo habilidades excepcionais em matemática, codificação, raciocínio lógico, escrita criativa e diálogos interativos. A variante Qwen3-30B-A3B contém 30,5 bilhões de parâmetros (3,3 bilhões de parâmetros ativados), 48 camadas, 128 especialistas (8 ativados por tarefa) e suporta um contexto de até 131K tokens (usando YaRN), estabelecendo um novo padrão para modelos de código aberto."
|
||
},
|
||
"qwen/qwen3-30b-a3b:free": {
|
||
"description": "Qwen3 é a última geração da série de modelos de linguagem Qwen, com uma arquitetura de mistura densa e especializada (MoE), destacando-se em raciocínio, suporte multilíngue e tarefas avançadas de agente. Sua capacidade única de alternar sem costura entre modos de pensamento para raciocínio complexo e modos não pensantes para diálogos eficientes garante um desempenho multifuncional e de alta qualidade.\n\nQwen3 supera significativamente modelos anteriores, como QwQ e Qwen2.5, oferecendo habilidades excepcionais em matemática, codificação, raciocínio lógico, escrita criativa e diálogos interativos. A variante Qwen3-30B-A3B contém 30,5 bilhões de parâmetros (3,3 bilhões de parâmetros ativados), 48 camadas, 128 especialistas (8 ativados por tarefa) e suporta um contexto de até 131K tokens (usando YaRN), estabelecendo um novo padrão para modelos de código aberto."
|
||
},
|
||
"qwen/qwen3-32b": {
|
||
"description": "Qwen3-32B é um modelo de linguagem causal denso de 32 bilhões de parâmetros da série Qwen3, otimizado para raciocínio complexo e diálogos eficientes. Ele suporta a alternância sem costura entre o modo de 'pensamento' para tarefas de matemática, codificação e raciocínio lógico e o modo 'não pensante' para diálogos mais rápidos e gerais. Este modelo demonstra um desempenho robusto em seguir instruções, usar ferramentas de agentes, escrever criativamente e realizar tarefas multilíngues em mais de 100 idiomas e dialetos. Ele processa nativamente um contexto de 32K tokens e pode ser expandido para 131K tokens usando uma extensão baseada em YaRN."
|
||
},
|
||
"qwen/qwen3-32b:free": {
|
||
"description": "Qwen3-32B é um modelo de linguagem causal denso de 32 bilhões de parâmetros da série Qwen3, otimizado para raciocínio complexo e diálogos eficientes. Ele suporta a alternância sem costura entre o modo de 'pensamento' para tarefas de matemática, codificação e raciocínio lógico e o modo 'não pensante' para diálogos mais rápidos e gerais. Este modelo demonstra um desempenho robusto em seguir instruções, usar ferramentas de agentes, escrever criativamente e realizar tarefas multilíngues em mais de 100 idiomas e dialetos. Ele processa nativamente um contexto de 32K tokens e pode ser expandido para 131K tokens usando uma extensão baseada em YaRN."
|
||
},
|
||
"qwen/qwen3-8b:free": {
|
||
"description": "Qwen3-8B é um modelo de linguagem causal denso de 8 bilhões de parâmetros da série Qwen3, projetado para tarefas intensivas em raciocínio e diálogos eficientes. Ele suporta a alternância sem costura entre o modo de 'pensamento' para matemática, codificação e raciocínio lógico e o modo 'não pensante' para diálogos gerais. Este modelo foi ajustado para seguir instruções, integrar agentes, escrever criativamente e usar em mais de 100 idiomas e dialetos. Ele suporta nativamente uma janela de contexto de 32K tokens e pode ser expandido para 131K tokens através do YaRN."
|
||
},
|
||
"qwen/qwen3-coder": {
|
||
"description": "Qwen3-Coder é a família de geradores de código da Qwen3, especializada em compreensão e geração de código em documentos longos."
|
||
},
|
||
"qwen/qwen3-coder-plus": {
|
||
"description": "Qwen3-Coder-Plus é o modelo de agente de codificação da série Qwen, otimizado para chamadas de ferramentas complexas e sessões prolongadas."
|
||
},
|
||
"qwen/qwen3-max": {
|
||
"description": "Qwen3 Max é o modelo de raciocínio avançado da série Qwen3, ideal para raciocínio multilíngue e integração com ferramentas."
|
||
},
|
||
"qwen/qwen3-max-preview": {
|
||
"description": "Qwen3 Max (preview) é a versão de pré-visualização do modelo Max da série Qwen, voltado para raciocínio avançado e integração com ferramentas."
|
||
},
|
||
"qwen/qwen3-vl-plus": {
|
||
"description": "Qwen3 VL-Plus é a versão com visão aprimorada da Qwen3, com capacidades expandidas de raciocínio multimodal e processamento de vídeo."
|
||
},
|
||
"qwen2": {
|
||
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen2.5": {
|
||
"description": "Qwen2.5 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen2.5-14b-instruct": {
|
||
"description": "Modelo de 14B parâmetros do Qwen 2.5, disponível como código aberto."
|
||
},
|
||
"qwen2.5-14b-instruct-1m": {
|
||
"description": "Modelo de 72B de código aberto do Qwen2.5."
|
||
},
|
||
"qwen2.5-32b-instruct": {
|
||
"description": "Modelo de 32B parâmetros do Qwen 2.5, disponível como código aberto."
|
||
},
|
||
"qwen2.5-72b-instruct": {
|
||
"description": "Modelo de 72B parâmetros do Qwen 2.5, disponível como código aberto."
|
||
},
|
||
"qwen2.5-7b-instruct": {
|
||
"description": "Qwen2.5 7B Instruct, modelo de instrução open-source maduro, adequado para diálogos e geração em múltiplos cenários."
|
||
},
|
||
"qwen2.5-coder-1.5b-instruct": {
|
||
"description": "Versão open source do modelo de código do Qwen."
|
||
},
|
||
"qwen2.5-coder-14b-instruct": {
|
||
"description": "Versão open source do modelo de código Tongyi Qianwen."
|
||
},
|
||
"qwen2.5-coder-32b-instruct": {
|
||
"description": "Versão open source do modelo de código Qwen."
|
||
},
|
||
"qwen2.5-coder-7b-instruct": {
|
||
"description": "Versão de código aberto do modelo de código Qwen."
|
||
},
|
||
"qwen2.5-coder-instruct": {
|
||
"description": "Qwen2.5-Coder é o mais recente modelo de linguagem de grande escala especializado em código da série Qwen (anteriormente conhecido como CodeQwen)."
|
||
},
|
||
"qwen2.5-instruct": {
|
||
"description": "Qwen2.5 é a mais recente série de modelos de linguagem de grande escala Qwen. Para o Qwen2.5, lançamos diversos modelos de linguagem base e modelos de linguagem ajustados por instrução, com parâmetros variando de 500 milhões a 7,2 bilhões."
|
||
},
|
||
"qwen2.5-math-1.5b-instruct": {
|
||
"description": "O modelo Qwen-Math possui poderosas capacidades de resolução de problemas matemáticos."
|
||
},
|
||
"qwen2.5-math-72b-instruct": {
|
||
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
||
},
|
||
"qwen2.5-math-7b-instruct": {
|
||
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
||
},
|
||
"qwen2.5-omni-7b": {
|
||
"description": "O modelo da série Qwen-Omni suporta a entrada de múltiplos tipos de dados, incluindo vídeo, áudio, imagens e texto, e produz saídas em áudio e texto."
|
||
},
|
||
"qwen2.5-vl-32b-instruct": {
|
||
"description": "Qwen2.5 VL 32B Instruct, modelo multimodal open-source, ideal para implantação privada e aplicações em diversos cenários."
|
||
},
|
||
"qwen2.5-vl-72b-instruct": {
|
||
"description": "Aprimoramento geral em seguimento de instruções, matemática, resolução de problemas e código, com capacidade de reconhecimento de objetos aprimorada, suporte a formatos diversos para localização precisa de elementos visuais, compreensão de arquivos de vídeo longos (até 10 minutos) e localização de eventos em segundos, capaz de entender a sequência e a velocidade do tempo, suportando controle de agentes em OS ou Mobile com forte capacidade de extração de informações e saída em formato Json. Esta versão é a de 72B, a mais poderosa da série."
|
||
},
|
||
"qwen2.5-vl-7b-instruct": {
|
||
"description": "Qwen2.5 VL 7B Instruct, modelo multimodal leve, equilibrando custo de implantação e capacidade de reconhecimento."
|
||
},
|
||
"qwen2.5-vl-instruct": {
|
||
"description": "Qwen2.5-VL é a versão mais recente do modelo de linguagem visual da família de modelos Qwen."
|
||
},
|
||
"qwen2.5:0.5b": {
|
||
"description": "Qwen2.5 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen2.5:1.5b": {
|
||
"description": "Qwen2.5 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen2.5:72b": {
|
||
"description": "Qwen2.5 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen2:0.5b": {
|
||
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen2:1.5b": {
|
||
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen2:72b": {
|
||
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen3": {
|
||
"description": "Qwen3 é a nova geração do modelo de linguagem em larga escala da Alibaba, que oferece desempenho excepcional para atender a diversas necessidades de aplicação."
|
||
},
|
||
"qwen3-0.6b": {
|
||
"description": "Qwen3 0.6B, modelo de entrada, ideal para raciocínio simples e ambientes com recursos extremamente limitados."
|
||
},
|
||
"qwen3-1.7b": {
|
||
"description": "Qwen3 1.7B, modelo ultraleve, fácil de implantar em dispositivos de borda e terminais."
|
||
},
|
||
"qwen3-14b": {
|
||
"description": "Qwen3 14B, modelo de porte médio, adequado para perguntas e respostas multilíngues e geração de texto."
|
||
},
|
||
"qwen3-235b-a22b": {
|
||
"description": "Qwen3 235B A22B, modelo geral de grande porte, voltado para diversas tarefas complexas."
|
||
},
|
||
"qwen3-235b-a22b-instruct-2507": {
|
||
"description": "Qwen3 235B A22B Instruct 2507, modelo Instruct de ponta, ideal para geração e raciocínio em múltiplos contextos."
|
||
},
|
||
"qwen3-235b-a22b-thinking-2507": {
|
||
"description": "Qwen3 235B A22B Thinking 2507, modelo de raciocínio em larga escala, ideal para tarefas de alta complexidade."
|
||
},
|
||
"qwen3-30b-a3b": {
|
||
"description": "Qwen3 30B A3B, modelo geral de médio a grande porte, equilibrando custo e desempenho."
|
||
},
|
||
"qwen3-30b-a3b-instruct-2507": {
|
||
"description": "Qwen3 30B A3B Instruct 2507, modelo Instruct de médio a grande porte, ideal para geração e perguntas e respostas de alta qualidade."
|
||
},
|
||
"qwen3-30b-a3b-thinking-2507": {
|
||
"description": "Qwen3 30B A3B Thinking 2507, modelo de raciocínio de médio a grande porte, equilibrando precisão e custo."
|
||
},
|
||
"qwen3-32b": {
|
||
"description": "Qwen3 32B, ideal para tarefas gerais que exigem maior capacidade de compreensão."
|
||
},
|
||
"qwen3-4b": {
|
||
"description": "Qwen3 4B, adequado para aplicações de pequeno a médio porte e cenários de raciocínio local."
|
||
},
|
||
"qwen3-8b": {
|
||
"description": "Qwen3 8B, modelo leve com implantação flexível, ideal para serviços de alta concorrência."
|
||
},
|
||
"qwen3-coder-30b-a3b-instruct": {
|
||
"description": "Versão open-source do modelo de código Tongyi Qianwen. O mais recente qwen3-coder-30b-a3b-instruct é um modelo de geração de código baseado no Qwen3, com poderosas capacidades de agente de codificação, especializado em chamadas de ferramentas e interação com ambientes, capaz de programação autônoma com excelência em código e habilidades gerais."
|
||
},
|
||
"qwen3-coder-480b-a35b-instruct": {
|
||
"description": "Qwen3 Coder 480B A35B Instruct, modelo de código de nível flagship, com suporte a programação multilíngue e compreensão de código complexa."
|
||
},
|
||
"qwen3-coder-flash": {
|
||
"description": "Modelo de código Tongyi Qianwen. A mais recente série de modelos Qwen3-Coder é baseada no Qwen3 para geração de código, com forte capacidade de agente de codificação, especializada em chamadas de ferramentas e interação com o ambiente, capaz de programação autônoma, combinando excelente habilidade de codificação com capacidades gerais."
|
||
},
|
||
"qwen3-coder-plus": {
|
||
"description": "Modelo de código Tongyi Qianwen. A mais recente série de modelos Qwen3-Coder é baseada no Qwen3 para geração de código, com forte capacidade de agente de codificação, especializada em chamadas de ferramentas e interação com o ambiente, capaz de programação autônoma, combinando excelente habilidade de codificação com capacidades gerais."
|
||
},
|
||
"qwen3-coder:480b": {
|
||
"description": "Modelo de contexto longo de alto desempenho da Alibaba, voltado para tarefas de agentes e codificação."
|
||
},
|
||
"qwen3-max": {
|
||
"description": "A série Max do Tongyi Qianwen 3 apresenta melhorias significativas em relação à série 2.5 na capacidade geral, compreensão de texto em chinês e inglês, seguimento de instruções complexas, tarefas abertas subjetivas, multilinguismo e chamadas de ferramentas; o modelo apresenta menos alucinações de conhecimento. A versão mais recente do qwen3-max, em comparação com a prévia, recebeu atualizações específicas para programação de agentes e chamadas de ferramentas. O modelo oficial lançado atinge o estado da arte no domínio, adaptando-se a demandas mais complexas de agentes."
|
||
},
|
||
"qwen3-max-preview": {
|
||
"description": "O modelo mais avançado da série Qwen, ideal para tarefas complexas e de múltiplas etapas. A versão de prévia já suporta raciocínio."
|
||
},
|
||
"qwen3-next-80b-a3b-instruct": {
|
||
"description": "Modelo open source de nova geração no modo não reflexivo baseado no Qwen3, que apresenta melhor compreensão de texto em chinês, capacidades aprimoradas de raciocínio lógico e desempenho superior em tarefas de geração de texto em comparação com a versão anterior (Tongyi Qianwen 3-235B-A22B-Instruct-2507)."
|
||
},
|
||
"qwen3-next-80b-a3b-thinking": {
|
||
"description": "Qwen3 Next 80B A3B Thinking, versão de raciocínio flagship voltada para tarefas complexas."
|
||
},
|
||
"qwen3-omni-flash": {
|
||
"description": "O modelo Qwen-Omni aceita entradas combinadas de texto, imagem, áudio e vídeo, e gera respostas em forma de texto ou voz. Oferece múltiplas vozes humanizadas, com suporte para saída de voz em vários idiomas e dialetos. Pode ser aplicado em criação de texto, reconhecimento visual, assistentes de voz e outros cenários."
|
||
},
|
||
"qwen3-vl-235b-a22b-instruct": {
|
||
"description": "Qwen3 VL 235B A22B Instruct, modelo multimodal de ponta, voltado para cenários exigentes de compreensão e criação."
|
||
},
|
||
"qwen3-vl-235b-a22b-thinking": {
|
||
"description": "Qwen3 VL 235B A22B Thinking, versão de raciocínio de ponta, para tarefas complexas de planejamento e raciocínio multimodal."
|
||
},
|
||
"qwen3-vl-30b-a3b-instruct": {
|
||
"description": "Qwen3 VL 30B A3B Instruct, modelo multimodal de grande porte, equilibrando precisão e desempenho de raciocínio."
|
||
},
|
||
"qwen3-vl-30b-a3b-thinking": {
|
||
"description": "Qwen3 VL 30B A3B Thinking, versão de raciocínio profundo voltada para tarefas multimodais complexas."
|
||
},
|
||
"qwen3-vl-32b-instruct": {
|
||
"description": "Qwen3 VL 32B Instruct, modelo multimodal ajustado por instruções, ideal para perguntas e respostas visuais e criação de alta qualidade."
|
||
},
|
||
"qwen3-vl-32b-thinking": {
|
||
"description": "Qwen3 VL 32B Thinking, versão de raciocínio multimodal profundo, com foco em raciocínio complexo e análise de longo alcance."
|
||
},
|
||
"qwen3-vl-8b-instruct": {
|
||
"description": "Qwen3 VL 8B Instruct, modelo multimodal leve, ideal para perguntas e respostas visuais do dia a dia e integração de aplicações."
|
||
},
|
||
"qwen3-vl-8b-thinking": {
|
||
"description": "Qwen3 VL 8B Thinking, modelo de cadeia de raciocínio multimodal, ideal para raciocínio detalhado sobre informações visuais."
|
||
},
|
||
"qwen3-vl-flash": {
|
||
"description": "Qwen3 VL Flash: versão leve e de inferência rápida, ideal para cenários sensíveis à latência ou com grandes volumes de requisições."
|
||
},
|
||
"qwen3-vl-plus": {
|
||
"description": "Tongyi Qianwen VL é um modelo gerador de texto com capacidade de compreensão visual (imagens), capaz não só de realizar OCR (reconhecimento de texto em imagens), mas também de resumir e inferir, como extrair atributos de fotos de produtos e resolver problemas a partir de imagens de exercícios."
|
||
},
|
||
"qwq": {
|
||
"description": "QwQ é um modelo de pesquisa experimental, focado em melhorar a capacidade de raciocínio da IA."
|
||
},
|
||
"qwq-32b": {
|
||
"description": "Modelo de inferência QwQ treinado com base no modelo Qwen2.5-32B, que melhorou significativamente a capacidade de inferência do modelo através de aprendizado por reforço. Os indicadores principais do modelo, como código matemático (AIME 24/25, LiveCodeBench) e alguns indicadores gerais (IFEval, LiveBench, etc.), alcançaram o nível do DeepSeek-R1 versão completa, com todos os indicadores superando significativamente o DeepSeek-R1-Distill-Qwen-32B, que também é baseado no Qwen2.5-32B."
|
||
},
|
||
"qwq-32b-preview": {
|
||
"description": "O modelo QwQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em aprimorar a capacidade de raciocínio da IA."
|
||
},
|
||
"qwq-plus": {
|
||
"description": "Modelo de raciocínio QwQ treinado com base no modelo Qwen2.5, que aprimora significativamente a capacidade de raciocínio por meio de aprendizado por reforço. Os principais indicadores em matemática e código (AIME 24/25, LiveCodeBench), bem como alguns indicadores gerais (IFEval, LiveBench, etc.), alcançam o nível completo do DeepSeek-R1."
|
||
},
|
||
"qwq_32b": {
|
||
"description": "Modelo de inferência de tamanho médio da série Qwen. Comparado a modelos tradicionais de ajuste de instruções, o QwQ, com suas capacidades de pensamento e raciocínio, pode melhorar significativamente o desempenho em tarefas de downstream, especialmente na resolução de problemas difíceis."
|
||
},
|
||
"r1-1776": {
|
||
"description": "R1-1776 é uma versão do modelo DeepSeek R1, treinada posteriormente para fornecer informações factuais não filtradas e imparciais."
|
||
},
|
||
"solar-mini": {
|
||
"description": "Solar Mini é um LLM compacto, com desempenho superior ao GPT-3.5, possuindo forte capacidade multilíngue, suportando inglês e coreano, oferecendo uma solução eficiente e compacta."
|
||
},
|
||
"solar-mini-ja": {
|
||
"description": "Solar Mini (Ja) expande as capacidades do Solar Mini, focando no japonês, enquanto mantém eficiência e desempenho excepcional no uso de inglês e coreano."
|
||
},
|
||
"solar-pro": {
|
||
"description": "Solar Pro é um LLM de alta inteligência lançado pela Upstage, focado na capacidade de seguir instruções em um único GPU, com pontuação IFEval acima de 80. Atualmente suporta inglês, com uma versão oficial planejada para lançamento em novembro de 2024, que expandirá o suporte a idiomas e comprimento de contexto."
|
||
},
|
||
"sonar": {
|
||
"description": "Produto de busca leve baseado em contexto de busca, mais rápido e mais barato que o Sonar Pro."
|
||
},
|
||
"sonar-deep-research": {
|
||
"description": "A Pesquisa Profunda realiza uma pesquisa abrangente de nível especialista e a sintetiza em relatórios acessíveis e acionáveis."
|
||
},
|
||
"sonar-pro": {
|
||
"description": "Produto de busca avançada que suporta contexto de busca, consultas avançadas e acompanhamento."
|
||
},
|
||
"sonar-reasoning": {
|
||
"description": "Novo produto API suportado pelo modelo de raciocínio da DeepSeek."
|
||
},
|
||
"sonar-reasoning-pro": {
|
||
"description": "Um novo produto de API suportado pelo modelo de raciocínio DeepSeek."
|
||
},
|
||
"spark-x": {
|
||
"description": "Apresentação das capacidades do X1.5: (1) Novo ajuste dinâmico do modo de raciocínio, controlado pelo campo 'thinking'; (2) Comprimento de contexto aumentado: 64K para entrada e saída; (3) Suporte à funcionalidade FunctionCall."
|
||
},
|
||
"stable-diffusion-3-medium": {
|
||
"description": "Modelo de geração de imagens a partir de texto mais recente lançado pela Stability AI. Esta versão mantém as vantagens das anteriores e apresenta melhorias significativas na qualidade da imagem, compreensão textual e diversidade de estilos, capaz de interpretar prompts complexos de linguagem natural com maior precisão e gerar imagens mais precisas e variadas."
|
||
},
|
||
"stable-diffusion-3.5-large": {
|
||
"description": "stable-diffusion-3.5-large é um modelo multimodal de difusão transformadora (MMDiT) para geração de imagens a partir de texto com 800 milhões de parâmetros, oferecendo qualidade de imagem excepcional e alta correspondência com prompts, suportando geração de imagens de alta resolução de até 1 milhão de pixels, e operando eficientemente em hardware de consumo comum."
|
||
},
|
||
"stable-diffusion-3.5-large-turbo": {
|
||
"description": "stable-diffusion-3.5-large-turbo é um modelo baseado no stable-diffusion-3.5-large que utiliza a técnica de destilação de difusão adversarial (ADD), oferecendo maior velocidade."
|
||
},
|
||
"stable-diffusion-v1.5": {
|
||
"description": "stable-diffusion-v1.5 é inicializado com pesos do checkpoint stable-diffusion-v1.2 e ajustado por 595k passos em \"laion-aesthetics v2 5+\" com resolução 512x512, reduzindo em 10% a condicionamento textual para melhorar a amostragem guiada sem classificador."
|
||
},
|
||
"stable-diffusion-xl": {
|
||
"description": "stable-diffusion-xl apresenta melhorias significativas em relação à v1.5, com desempenho comparável ao modelo open source SOTA midjourney. As melhorias incluem: backbone unet três vezes maior; módulo de refinamento para melhorar a qualidade da imagem gerada; técnicas de treinamento mais eficientes, entre outras."
|
||
},
|
||
"stable-diffusion-xl-base-1.0": {
|
||
"description": "Grande modelo de geração de imagens a partir de texto desenvolvido e open source pela Stability AI, com capacidade criativa de ponta na indústria. Possui excelente compreensão de instruções e suporta definição de prompts inversos para geração precisa de conteúdo."
|
||
},
|
||
"step-1-128k": {
|
||
"description": "Equilibra desempenho e custo, adequado para cenários gerais."
|
||
},
|
||
"step-1-256k": {
|
||
"description": "Possui capacidade de processamento de contexto ultra longo, especialmente adequado para análise de documentos longos."
|
||
},
|
||
"step-1-32k": {
|
||
"description": "Suporta diálogos de comprimento médio, adequado para diversas aplicações."
|
||
},
|
||
"step-1-8k": {
|
||
"description": "Modelo pequeno, adequado para tarefas leves."
|
||
},
|
||
"step-1-flash": {
|
||
"description": "Modelo de alta velocidade, adequado para diálogos em tempo real."
|
||
},
|
||
"step-1.5v-mini": {
|
||
"description": "Este modelo possui uma poderosa capacidade de compreensão de vídeo."
|
||
},
|
||
"step-1o-turbo-vision": {
|
||
"description": "Este modelo possui uma poderosa capacidade de compreensão de imagens, superando o 1o em áreas de matemática e programação. O modelo é menor que o 1o e oferece uma velocidade de saída mais rápida."
|
||
},
|
||
"step-1o-vision-32k": {
|
||
"description": "Este modelo possui uma poderosa capacidade de compreensão de imagens. Em comparação com a série de modelos step-1v, apresenta um desempenho visual superior."
|
||
},
|
||
"step-1v-32k": {
|
||
"description": "Suporta entradas visuais, aprimorando a experiência de interação multimodal."
|
||
},
|
||
"step-1v-8k": {
|
||
"description": "Modelo visual compacto, adequado para tarefas básicas de texto e imagem."
|
||
},
|
||
"step-1x-edit": {
|
||
"description": "Modelo focado em tarefas de edição de imagens, capaz de modificar e aprimorar imagens com base em imagens e descrições textuais fornecidas pelo usuário. Suporta múltiplos formatos de entrada, incluindo descrições textuais e imagens de exemplo. O modelo compreende a intenção do usuário e gera resultados de edição de imagem conforme solicitado."
|
||
},
|
||
"step-1x-medium": {
|
||
"description": "Modelo com forte capacidade de geração de imagens, suportando entrada via descrições textuais. Possui suporte nativo ao chinês, compreendendo e processando melhor descrições textuais em chinês, capturando com maior precisão as informações semânticas para convertê-las em características visuais, permitindo geração de imagens mais precisas. Gera imagens de alta resolução e qualidade, com certa capacidade de transferência de estilo."
|
||
},
|
||
"step-2-16k": {
|
||
"description": "Suporta interações de contexto em larga escala, adequado para cenários de diálogo complexos."
|
||
},
|
||
"step-2-16k-exp": {
|
||
"description": "Versão experimental do modelo step-2, contendo os recursos mais recentes, em atualização contínua. Não é recomendado para uso em ambientes de produção formal."
|
||
},
|
||
"step-2-mini": {
|
||
"description": "Um modelo de grande escala de alta velocidade baseado na nova arquitetura de atenção auto-desenvolvida MFA, alcançando resultados semelhantes ao step1 com um custo muito baixo, enquanto mantém uma maior taxa de transferência e um tempo de resposta mais rápido. Capaz de lidar com tarefas gerais, possui especialização em habilidades de codificação."
|
||
},
|
||
"step-2x-large": {
|
||
"description": "Nova geração do modelo Xingchen Step, focado em geração de imagens, capaz de criar imagens de alta qualidade a partir de descrições textuais fornecidas pelo usuário. O novo modelo gera imagens com textura mais realista e melhor capacidade de geração de texto em chinês e inglês."
|
||
},
|
||
"step-3": {
|
||
"description": "Este modelo possui forte percepção visual e capacidade de raciocínio complexo. Pode realizar com precisão a compreensão de conhecimentos complexos entre diferentes áreas, a análise cruzada entre informações matemáticas e visuais, além de resolver diversos tipos de problemas de análise visual do cotidiano."
|
||
},
|
||
"step-r1-v-mini": {
|
||
"description": "Este modelo é um grande modelo de inferência com forte capacidade de compreensão de imagens, capaz de processar informações de imagem e texto, gerando conteúdo textual após um profundo raciocínio. O modelo se destaca no campo do raciocínio visual, além de possuir habilidades de raciocínio matemático, código e texto de primeira linha. O comprimento do contexto é de 100k."
|
||
},
|
||
"stepfun-ai/step3": {
|
||
"description": "Step3 é um modelo avançado de raciocínio multimodal lançado pela StepFun, construído sobre uma arquitetura de mistura de especialistas (Mixture of Experts, MoE) com 321B de parâmetros totais e 38B de parâmetros de ativação. O modelo adota um design ponta a ponta, visando minimizar o custo de decodificação enquanto oferece desempenho de primeira linha em raciocínio visão-linguagem. Por meio do design cooperativo de Atenção por Decomposição em Múltiplas Matrizes (MFA) e do Desacoplamento Atenção-FFN (AFD), o Step3 mantém excelente eficiência tanto em aceleradores de alto desempenho quanto em aceleradores de baixo custo. Na fase de pré-treinamento, o Step3 processou mais de 20T tokens de texto e 4T tokens multimodais de imagem e texto, cobrindo mais de dez idiomas. O modelo alcançou posições de liderança entre modelos open-source em vários benchmarks, incluindo matemática, código e tarefas multimodais."
|
||
},
|
||
"taichu_llm": {
|
||
"description": "O modelo de linguagem Taichu possui uma forte capacidade de compreensão de linguagem, além de habilidades em criação de texto, perguntas e respostas, programação de código, cálculos matemáticos, raciocínio lógico, análise de sentimentos e resumo de texto. Inova ao combinar pré-treinamento com grandes dados e conhecimento rico de múltiplas fontes, aprimorando continuamente a tecnologia de algoritmos e absorvendo novos conhecimentos de vocabulário, estrutura, gramática e semântica de grandes volumes de dados textuais, proporcionando aos usuários informações e serviços mais convenientes e uma experiência mais inteligente."
|
||
},
|
||
"taichu_o1": {
|
||
"description": "taichu_o1 é um novo grande modelo de inferência de próxima geração, que realiza cadeias de pensamento humano por meio de interações multimodais e aprendizado por reforço, suportando deduções de decisões complexas, enquanto exibe caminhos de raciocínio modeláveis com alta precisão de saída, adequado para análise de estratégias e raciocínio profundo."
|
||
},
|
||
"taichu_vl": {
|
||
"description": "Integra capacidades de compreensão de imagens, transferência de conhecimento e atribuição lógica, destacando-se na área de perguntas e respostas baseadas em texto e imagem."
|
||
},
|
||
"tencent/Hunyuan-A13B-Instruct": {
|
||
"description": "Hunyuan-A13B-Instruct possui 80 bilhões de parâmetros, ativando 13 bilhões para competir com modelos maiores, suportando raciocínio híbrido de “pensamento rápido/pensamento lento”; compreensão estável de textos longos; validado pelo BFCL-v3 e τ-Bench, com capacidades de agente líderes; combinando GQA e múltiplos formatos de quantização para inferência eficiente."
|
||
},
|
||
"tencent/Hunyuan-MT-7B": {
|
||
"description": "O modelo de tradução Hunyuan (Hunyuan Translation Model) é composto pelo modelo de tradução Hunyuan-MT-7B e pelo modelo integrado Hunyuan-MT-Chimera. O Hunyuan-MT-7B é um modelo leve com 7 bilhões de parâmetros, projetado para traduzir textos da língua de origem para a língua de destino. Suporta tradução entre 33 idiomas e 5 línguas de minorias étnicas chinesas. No concurso internacional de tradução automática WMT25, o Hunyuan-MT-7B conquistou o primeiro lugar em 30 das 31 categorias linguísticas em que participou, demonstrando sua excelência em tradução. A Tencent propôs um paradigma completo de treinamento para cenários de tradução, que vai do pré-treinamento ao ajuste supervisionado, seguido por reforço de tradução e reforço integrado, alcançando desempenho líder na indústria entre modelos de mesma escala. O modelo é eficiente em termos computacionais, fácil de implantar e adequado para diversos cenários de aplicação."
|
||
},
|
||
"text-embedding-3-large": {
|
||
"description": "O modelo de vetorização mais poderoso, adequado para tarefas em inglês e não inglês."
|
||
},
|
||
"text-embedding-3-small": {
|
||
"description": "Modelo de Embedding de nova geração, eficiente e econômico, adequado para recuperação de conhecimento, aplicações RAG e outros cenários."
|
||
},
|
||
"thudm/glm-4-32b": {
|
||
"description": "O GLM-4-32B-0414 é um modelo de linguagem de pesos abertos bilíngue (chinês-inglês) de 32B, otimizado para geração de código, chamadas de função e tarefas baseadas em agentes. Ele foi pré-treinado em 15T de dados de alta qualidade e re-raciocínio, e aprimorado com alinhamento de preferências humanas, amostragem de rejeição e aprendizado por reforço. Este modelo se destaca em raciocínio complexo, geração de artefatos e tarefas de saída estruturada, alcançando desempenho comparável ao GPT-4o e DeepSeek-V3-0324 em vários testes de referência."
|
||
},
|
||
"thudm/glm-4-32b:free": {
|
||
"description": "O GLM-4-32B-0414 é um modelo de linguagem de pesos abertos bilíngue (chinês-inglês) de 32B, otimizado para geração de código, chamadas de função e tarefas baseadas em agentes. Ele foi pré-treinado em 15T de dados de alta qualidade e re-raciocínio, e aprimorado com alinhamento de preferências humanas, amostragem de rejeição e aprendizado por reforço. Este modelo se destaca em raciocínio complexo, geração de artefatos e tarefas de saída estruturada, alcançando desempenho comparável ao GPT-4o e DeepSeek-V3-0324 em vários testes de referência."
|
||
},
|
||
"thudm/glm-4-9b-chat": {
|
||
"description": "Versão de código aberto da última geração do modelo pré-treinado GLM-4, lançado pela Zhizhu AI."
|
||
},
|
||
"thudm/glm-z1-32b": {
|
||
"description": "O GLM-Z1-32B-0414 é uma variante de raciocínio aprimorada do GLM-4-32B, construída para resolver problemas de matemática profunda, lógica e voltados para código. Ele aplica aprendizado por reforço estendido (tarefa específica e baseado em preferências emparelhadas gerais) para melhorar o desempenho em tarefas complexas de múltiplos passos. Em comparação com o modelo base GLM-4-32B, o Z1 melhora significativamente as capacidades de raciocínio estruturado e formal.\n\nEste modelo suporta a execução forçada de etapas de 'pensamento' por meio de engenharia de prompts e oferece maior coerência para saídas de formato longo. Ele é otimizado para fluxos de trabalho de agentes e suporta longos contextos (via YaRN), chamadas de ferramentas JSON e configurações de amostragem de granularidade fina para raciocínio estável. É ideal para casos de uso que exigem raciocínio cuidadoso, de múltiplos passos ou deduções formais."
|
||
},
|
||
"thudm/glm-z1-rumination-32b": {
|
||
"description": "THUDM: GLM Z1 Rumination 32B é um modelo de raciocínio profundo de 32 bilhões de parâmetros da série GLM-4-Z1, otimizado para tarefas complexas e abertas que exigem longos períodos de reflexão. Ele é construído sobre o glm-4-32b-0414, adicionando uma fase de aprendizado por reforço adicional e estratégias de alinhamento em múltiplas etapas, introduzindo a capacidade de 'reflexão' destinada a simular processamento cognitivo expandido. Isso inclui raciocínio iterativo, análise de múltiplos saltos e fluxos de trabalho aprimorados por ferramentas, como busca, recuperação e síntese consciente de citações.\n\nEste modelo se destaca em escrita de pesquisa, análise comparativa e perguntas complexas. Ele suporta chamadas de função para primitivos de busca e navegação (`search`, `click`, `open`, `finish`), permitindo seu uso em pipelines baseados em agentes. O comportamento reflexivo é moldado por recompensas baseadas em regras e um mecanismo de decisão atrasada controlado por múltiplos ciclos, com referência a estruturas de pesquisa profunda como a pilha de alinhamento interna da OpenAI. Esta variante é adequada para cenários que exigem profundidade em vez de velocidade."
|
||
},
|
||
"tngtech/deepseek-r1t-chimera:free": {
|
||
"description": "DeepSeek-R1T-Chimera é criado pela combinação do DeepSeek-R1 e DeepSeek-V3 (0324), unindo a capacidade de raciocínio do R1 e as melhorias de eficiência de tokens do V3. Ele é baseado na arquitetura DeepSeek-MoE Transformer e otimizado para tarefas gerais de geração de texto.\n\nEste modelo combina os pesos pré-treinados de duas fontes para equilibrar o desempenho em raciocínio, eficiência e tarefas de seguir instruções. Ele é lançado sob a licença MIT, destinado a uso em pesquisa e comercial."
|
||
},
|
||
"togethercomputer/StripedHyena-Nous-7B": {
|
||
"description": "StripedHyena Nous (7B) oferece capacidade de computação aprimorada através de estratégias e arquiteturas de modelo eficientes."
|
||
},
|
||
"tts-1": {
|
||
"description": "O mais recente modelo de texto para fala, otimizado para velocidade em cenários em tempo real."
|
||
},
|
||
"tts-1-hd": {
|
||
"description": "O mais recente modelo de texto para fala, otimizado para qualidade."
|
||
},
|
||
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
||
"description": "Upstage SOLAR Instruct v1 (11B) é adequado para tarefas de instrução refinadas, oferecendo excelente capacidade de processamento de linguagem."
|
||
},
|
||
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
||
"description": "Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e Claude 3 Opus, apresentando um desempenho excepcional em uma ampla gama de avaliações, enquanto mantém a velocidade e o custo de nossos modelos de nível médio."
|
||
},
|
||
"us.anthropic.claude-3-7-sonnet-20250219-v1:0": {
|
||
"description": "Claude 3.7 sonnet é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, o Claude 3.7 Sonnet apresenta melhorias em várias habilidades e supera o maior modelo da geração anterior, o Claude 3 Opus, em muitos testes de referência de inteligência."
|
||
},
|
||
"us.anthropic.claude-haiku-4-5-20251001-v1:0": {
|
||
"description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio expandida."
|
||
},
|
||
"us.anthropic.claude-sonnet-4-5-20250929-v1:0": {
|
||
"description": "Claude Sonnet 4.5 é o modelo mais inteligente já desenvolvido pela Anthropic até o momento."
|
||
},
|
||
"v0-1.0-md": {
|
||
"description": "O modelo v0-1.0-md é uma versão antiga que oferece serviços através da API v0"
|
||
},
|
||
"v0-1.5-lg": {
|
||
"description": "O modelo v0-1.5-lg é adequado para tarefas avançadas de pensamento ou raciocínio"
|
||
},
|
||
"v0-1.5-md": {
|
||
"description": "O modelo v0-1.5-md é adequado para tarefas diárias e geração de interfaces de usuário (UI)"
|
||
},
|
||
"vercel/v0-1.0-md": {
|
||
"description": "Acesso ao modelo por trás do v0 para gerar, corrigir e otimizar aplicações web modernas, com raciocínio específico para frameworks e conhecimento atualizado."
|
||
},
|
||
"vercel/v0-1.5-md": {
|
||
"description": "Acesso ao modelo por trás do v0 para gerar, corrigir e otimizar aplicações web modernas, com raciocínio específico para frameworks e conhecimento atualizado."
|
||
},
|
||
"volcengine/doubao-seed-code": {
|
||
"description": "Doubao-Seed-Code é o modelo da Volcengine otimizado para programação agentica, com excelente desempenho em benchmarks de codificação e agentes, suportando contexto de 256K."
|
||
},
|
||
"wan2.2-t2i-flash": {
|
||
"description": "Versão ultrarrápida Wanxiang 2.2, modelo mais recente. Atualizações abrangentes em criatividade, estabilidade e realismo, com alta velocidade de geração e excelente custo-benefício."
|
||
},
|
||
"wan2.2-t2i-plus": {
|
||
"description": "Versão profissional Wanxiang 2.2, modelo mais recente. Atualizações abrangentes em criatividade, estabilidade e realismo, com geração de detalhes ricos."
|
||
},
|
||
"wanx-v1": {
|
||
"description": "Modelo básico de geração de imagens a partir de texto, correspondente ao modelo geral 1.0 do site oficial Tongyi Wanxiang."
|
||
},
|
||
"wanx2.0-t2i-turbo": {
|
||
"description": "Especializado em retratos com textura, velocidade média e custo baixo. Corresponde ao modelo ultrarrápido 2.0 do site oficial Tongyi Wanxiang."
|
||
},
|
||
"wanx2.1-t2i-plus": {
|
||
"description": "Versão totalmente atualizada. Geração de imagens com detalhes mais ricos, velocidade um pouco mais lenta. Corresponde ao modelo profissional 2.1 do site oficial Tongyi Wanxiang."
|
||
},
|
||
"wanx2.1-t2i-turbo": {
|
||
"description": "Versão totalmente atualizada. Geração rápida, resultados abrangentes e excelente custo-benefício. Corresponde ao modelo ultrarrápido 2.1 do site oficial Tongyi Wanxiang."
|
||
},
|
||
"whisper-1": {
|
||
"description": "Modelo universal de reconhecimento de voz, suportando reconhecimento de voz multilíngue, tradução de voz e identificação de idioma."
|
||
},
|
||
"wizardlm2": {
|
||
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
||
},
|
||
"wizardlm2:8x22b": {
|
||
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
||
},
|
||
"x-ai/grok-4": {
|
||
"description": "Grok 4 é o modelo carro-chefe de raciocínio da xAI, com poderosas capacidades de raciocínio e multimodalidade."
|
||
},
|
||
"x-ai/grok-4-fast": {
|
||
"description": "Grok 4 Fast é o modelo de alto volume e baixo custo da xAI (com suporte a janelas de contexto de 2M), ideal para uso com alta concorrência e contexto longo."
|
||
},
|
||
"x-ai/grok-4-fast-non-reasoning": {
|
||
"description": "Grok 4 Fast (Non-Reasoning) é o modelo multimodal de alto volume e baixo custo da xAI (com suporte a janelas de contexto de 2M), voltado para cenários sensíveis a latência e custo que não exigem raciocínio interno. Pode ser alternado para o modo de raciocínio via parâmetro de API. Prompts e respostas podem ser usados pela xAI ou OpenRouter para melhorar modelos futuros."
|
||
},
|
||
"x-ai/grok-4.1-fast": {
|
||
"description": "Grok 4 Fast é o modelo de alto volume e baixo custo da xAI (com suporte a janelas de contexto de 2M), ideal para uso com alta concorrência e contexto longo."
|
||
},
|
||
"x-ai/grok-4.1-fast-non-reasoning": {
|
||
"description": "Grok 4 Fast (Non-Reasoning) é o modelo multimodal de alto volume e baixo custo da xAI (com suporte a janelas de contexto de 2M), voltado para cenários sensíveis a latência e custo que não exigem raciocínio interno. Pode ser alternado para o modo de raciocínio via parâmetro de API. Prompts e respostas podem ser usados pela xAI ou OpenRouter para melhorar modelos futuros."
|
||
},
|
||
"x-ai/grok-code-fast-1": {
|
||
"description": "Grok Code Fast 1 é o modelo de código rápido da xAI, com saída legível e adaptada à engenharia."
|
||
},
|
||
"xai/grok-2": {
|
||
"description": "Grok 2 é um modelo de linguagem de ponta com capacidades avançadas de raciocínio. Possui habilidades avançadas em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4-Turbo no ranking LMSYS."
|
||
},
|
||
"xai/grok-2-vision": {
|
||
"description": "O modelo visual Grok 2 apresenta desempenho excepcional em tarefas baseadas em visão, oferecendo desempenho de ponta em raciocínio matemático visual (MathVista) e perguntas e respostas baseadas em documentos (DocVQA). Ele pode processar diversos tipos de informações visuais, incluindo documentos, gráficos, tabelas, capturas de tela e fotos."
|
||
},
|
||
"xai/grok-3": {
|
||
"description": "Modelo principal da xAI, com desempenho excelente em casos de uso empresariais como extração de dados, codificação e resumo de texto. Possui profundo conhecimento em finanças, saúde, direito e ciências."
|
||
},
|
||
"xai/grok-3-fast": {
|
||
"description": "Modelo principal da xAI, com desempenho excelente em casos de uso empresariais como extração de dados, codificação e resumo de texto. A variante rápida do modelo é atendida em infraestrutura mais veloz, oferecendo tempos de resposta muito mais rápidos que o padrão. O aumento de velocidade tem custo maior por token de saída."
|
||
},
|
||
"xai/grok-3-mini": {
|
||
"description": "Modelo leve da xAI que pensa antes de responder. Ideal para tarefas simples ou baseadas em lógica que não exigem profundo conhecimento de domínio. A trajetória de pensamento bruta é acessível."
|
||
},
|
||
"xai/grok-3-mini-fast": {
|
||
"description": "Modelo leve da xAI que pensa antes de responder. Ideal para tarefas simples ou baseadas em lógica que não exigem profundo conhecimento de domínio. A trajetória de pensamento bruta é acessível. A variante rápida do modelo é atendida em infraestrutura mais veloz, oferecendo tempos de resposta muito mais rápidos que o padrão. O aumento de velocidade tem custo maior por token de saída."
|
||
},
|
||
"xai/grok-4": {
|
||
"description": "O mais recente e melhor modelo principal da xAI, oferecendo desempenho incomparável em linguagem natural, matemática e raciocínio — o competidor perfeito para todas as tarefas."
|
||
},
|
||
"yi-large": {
|
||
"description": "Modelo de nova geração com trilhões de parâmetros, oferecendo capacidades excepcionais de perguntas e respostas e geração de texto."
|
||
},
|
||
"yi-large-fc": {
|
||
"description": "Baseado no modelo yi-large, suporta e aprimora a capacidade de chamadas de ferramentas, adequado para diversos cenários de negócios que exigem a construção de agentes ou fluxos de trabalho."
|
||
},
|
||
"yi-large-preview": {
|
||
"description": "Versão inicial, recomenda-se o uso do yi-large (nova versão)."
|
||
},
|
||
"yi-large-rag": {
|
||
"description": "Serviço de alto nível baseado no modelo yi-large, combinando técnicas de recuperação e geração para fornecer respostas precisas, com serviços de busca em tempo real na web."
|
||
},
|
||
"yi-large-turbo": {
|
||
"description": "Excelente relação custo-benefício e desempenho excepcional. Ajuste de alta precisão baseado em desempenho, velocidade de raciocínio e custo."
|
||
},
|
||
"yi-lightning": {
|
||
"description": "Modelo de alto desempenho mais recente, garantindo saída de alta qualidade enquanto a velocidade de raciocínio é significativamente aprimorada."
|
||
},
|
||
"yi-lightning-lite": {
|
||
"description": "Versão leve, recomendada para uso com yi-lightning."
|
||
},
|
||
"yi-medium": {
|
||
"description": "Modelo de tamanho médio com ajuste fino, equilibrando capacidades e custo. Otimização profunda da capacidade de seguir instruções."
|
||
},
|
||
"yi-medium-200k": {
|
||
"description": "Janela de contexto ultra longa de 200K, oferecendo compreensão e geração de texto em profundidade."
|
||
},
|
||
"yi-spark": {
|
||
"description": "Modelo leve e ágil. Oferece capacidades aprimoradas de cálculos matemáticos e escrita de código."
|
||
},
|
||
"yi-vision": {
|
||
"description": "Modelo para tarefas visuais complexas, oferecendo alta performance em compreensão e análise de imagens."
|
||
},
|
||
"yi-vision-v2": {
|
||
"description": "Modelo para tarefas visuais complexas, oferecendo alta performance em compreensão e análise baseadas em múltiplas imagens."
|
||
},
|
||
"z-ai/glm-4.5": {
|
||
"description": "GLM 4.5 é o modelo carro-chefe da Z.AI, com suporte a raciocínio híbrido e otimização para engenharia e tarefas com contexto longo."
|
||
},
|
||
"z-ai/glm-4.5-air": {
|
||
"description": "GLM 4.5 Air é a versão leve do GLM 4.5, ideal para cenários sensíveis a custo, mantendo forte capacidade de raciocínio."
|
||
},
|
||
"z-ai/glm-4.6": {
|
||
"description": "GLM 4.6 é o modelo carro-chefe da Z.AI, com contexto expandido e capacidades aprimoradas de codificação."
|
||
},
|
||
"zai-glm-4.6": {
|
||
"description": "Desempenho excelente em tarefas de programação e raciocínio, com suporte a streaming e chamadas de ferramentas, ideal para codificação com agentes e cenários de raciocínio complexo."
|
||
},
|
||
"zai-org/GLM-4.5": {
|
||
"description": "GLM-4.5 é um modelo base projetado para aplicações de agentes inteligentes, utilizando arquitetura Mixture-of-Experts (MoE). Otimizado para chamadas de ferramentas, navegação web, engenharia de software e programação front-end, suporta integração perfeita com agentes de código como Claude Code e Roo Code. Adota modo de raciocínio híbrido, adaptando-se a cenários de raciocínio complexo e uso cotidiano."
|
||
},
|
||
"zai-org/GLM-4.5-Air": {
|
||
"description": "GLM-4.5-Air é um modelo base projetado para aplicações de agentes inteligentes, utilizando arquitetura Mixture-of-Experts (MoE). Otimizado para chamadas de ferramentas, navegação web, engenharia de software e programação front-end, suporta integração perfeita com agentes de código como Claude Code e Roo Code. Adota modo de raciocínio híbrido, adaptando-se a cenários de raciocínio complexo e uso cotidiano."
|
||
},
|
||
"zai-org/GLM-4.5V": {
|
||
"description": "GLM-4.5V é a mais recente geração de modelo de linguagem visual (VLM) lançada pela Zhipu AI (智谱 AI). O modelo é construído sobre o modelo de texto carro‑chefe GLM-4.5-Air, que possui 106 bilhões de parâmetros totais e 12 bilhões de parâmetros de ativação, adotando uma arquitetura de especialistas mistos (MoE) com o objetivo de oferecer desempenho de alto nível a um custo de inferência reduzido. Tecnicamente, o GLM-4.5V dá continuidade à linha do GLM-4.1V-Thinking e introduz inovações como a codificação de posição rotacional 3D (3D-RoPE), que aumentam significativamente a percepção e o raciocínio sobre relações espaciais tridimensionais. Por meio de otimizações nas fases de pré-treinamento, ajuste fino supervisionado e aprendizado por reforço, o modelo é capaz de processar diversos tipos de conteúdo visual — incluindo imagens, vídeos e longos documentos — e alcançou desempenho de ponta entre modelos open-source da mesma categoria em 41 benchmarks multimodais públicos. Além disso, o modelo inclui um interruptor de \"modo de pensamento\", que permite aos usuários alternar de forma flexível entre respostas rápidas e raciocínio aprofundado, equilibrando eficiência e eficácia."
|
||
},
|
||
"zai-org/GLM-4.6": {
|
||
"description": "Comparado ao GLM-4.5, o GLM-4.6 traz várias melhorias importantes. Sua janela de contexto foi expandida de 128K para 200K tokens, permitindo que o modelo lide com tarefas de agentes mais complexas. O modelo alcançou pontuações mais altas em benchmarks de código e demonstrou desempenho superior em aplicações como Claude Code, Cline, Roo Code e Kilo Code, incluindo melhorias na geração de interfaces front-end visualmente refinadas. O GLM-4.6 apresenta melhorias claras no desempenho de inferência e suporta o uso de ferramentas durante a inferência, proporcionando capacidades integradas mais robustas. Ele se destaca no uso de ferramentas e agentes baseados em busca, além de integrar-se de forma mais eficaz em frameworks de agentes. Na escrita, o modelo oferece estilo e legibilidade mais alinhados às preferências humanas e atua de forma mais natural em cenários de interpretação de papéis."
|
||
},
|
||
"zai/glm-4.5": {
|
||
"description": "A série de modelos GLM-4.5 é uma base projetada especificamente para agentes. O modelo principal GLM-4.5 integra 355 bilhões de parâmetros totais (32 bilhões ativos), unificando raciocínio, codificação e capacidades de agente para atender a demandas complexas de aplicações. Como sistema de raciocínio híbrido, oferece modos operacionais duplos."
|
||
},
|
||
"zai/glm-4.5-air": {
|
||
"description": "GLM-4.5 e GLM-4.5-Air são nossos modelos principais mais recentes, projetados especificamente como bases para aplicações de agentes. Ambos utilizam arquitetura de especialistas mistos (MoE). GLM-4.5 possui 355 bilhões de parâmetros totais com 32 bilhões ativos por passagem, enquanto GLM-4.5-Air tem design mais simplificado, com 106 bilhões de parâmetros totais e 12 bilhões ativos."
|
||
},
|
||
"zai/glm-4.5v": {
|
||
"description": "GLM-4.5V é construído sobre o modelo base GLM-4.5-Air, herdando a tecnologia comprovada do GLM-4.1V-Thinking, enquanto alcança escalabilidade eficiente por meio da poderosa arquitetura MoE de 106 bilhões de parâmetros."
|
||
},
|
||
"zenmux/auto": {
|
||
"description": "A função de roteamento automático da ZenMux seleciona automaticamente o modelo com melhor desempenho e custo-benefício entre os suportados, com base no conteúdo da sua solicitação."
|
||
}
|
||
}
|