lobehub/locales/fr-FR/models.json
2025-12-05 01:35:20 +08:00

3632 lines
369 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"01-ai/yi-1.5-34b-chat": {
"description": "Zero One Everything, le dernier modèle de fine-tuning open source, avec 34 milliards de paramètres, prend en charge divers scénarios de dialogue, avec des données d'entraînement de haute qualité, alignées sur les préférences humaines."
},
"01-ai/yi-1.5-9b-chat": {
"description": "Zero One Everything, le dernier modèle de fine-tuning open source, avec 9 milliards de paramètres, prend en charge divers scénarios de dialogue, avec des données d'entraînement de haute qualité, alignées sur les préférences humaines."
},
"360/deepseek-r1": {
"description": "【Version déployée 360】DeepSeek-R1 utilise massivement des techniques d'apprentissage par renforcement lors de la phase de post-formation, améliorant considérablement la capacité d'inférence du modèle avec très peu de données annotées. Ses performances dans des tâches telles que les mathématiques, le code et le raisonnement en langage naturel rivalisent avec la version officielle d'OpenAI o1."
},
"360gpt-pro": {
"description": "360GPT Pro, en tant que membre important de la série de modèles AI de 360, répond à des applications variées de traitement de texte avec une efficacité élevée, supportant la compréhension de longs textes et les dialogues multi-tours."
},
"360gpt-pro-trans": {
"description": "Modèle dédié à la traduction, optimisé par un ajustement approfondi, offrant des résultats de traduction de premier plan."
},
"360gpt-turbo": {
"description": "360GPT Turbo offre de puissantes capacités de calcul et de dialogue, avec une excellente compréhension sémantique et une efficacité de génération, ce qui en fait une solution idéale pour les entreprises et les développeurs."
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K met l'accent sur la sécurité sémantique et l'orientation vers la responsabilité, conçu pour des scénarios d'application exigeant une sécurité de contenu élevée, garantissant l'exactitude et la robustesse de l'expérience utilisateur."
},
"360gpt2-o1": {
"description": "360gpt2-o1 utilise une recherche arborescente pour construire des chaînes de pensée et introduit un mécanisme de réflexion, entraîné par apprentissage par renforcement, permettant au modèle d'avoir des capacités d'auto-réflexion et de correction."
},
"360gpt2-pro": {
"description": "360GPT2 Pro est un modèle avancé de traitement du langage naturel lancé par la société 360, offrant d'excellentes capacités de génération et de compréhension de texte, en particulier dans le domaine de la création et de la génération."
},
"360zhinao2-o1": {
"description": "Le modèle 360zhinao2-o1 utilise une recherche arborescente pour construire une chaîne de pensée et introduit un mécanisme de réflexion, formé par apprentissage par renforcement, permettant au modèle d'avoir la capacité de réflexion et de correction autonome."
},
"4.0Ultra": {
"description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie."
},
"AnimeSharp": {
"description": "AnimeSharp (également connu sous le nom de « 4xAnimeSharp ») est un modèle open source de super-résolution développé par Kim2091, basé sur l'architecture ESRGAN, spécialisé dans l'agrandissement et l'amélioration des images de style anime. Il a été renommé en février 2022 à partir de « 4x-TextSharpV1 », initialement conçu aussi pour les images de texte, mais ses performances ont été largement optimisées pour le contenu anime."
},
"Baichuan2-Turbo": {
"description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels."
},
"Baichuan3-Turbo": {
"description": "Optimisé pour des scénarios d'entreprise à haute fréquence, avec des améliorations significatives et un excellent rapport qualité-prix. Par rapport au modèle Baichuan2, la création de contenu a augmenté de 20%, les questions-réponses de 17%, et les capacités de jeu de rôle de 40%. Les performances globales surpassent celles de GPT-3.5."
},
"Baichuan3-Turbo-128k": {
"description": "Doté d'une fenêtre de contexte ultra-longue de 128K, optimisé pour des scénarios d'entreprise à haute fréquence, avec des améliorations significatives et un excellent rapport qualité-prix. Par rapport au modèle Baichuan2, la création de contenu a augmenté de 20%, les questions-réponses de 17%, et les capacités de jeu de rôle de 40%. Les performances globales surpassent celles de GPT-3.5."
},
"Baichuan4": {
"description": "Le modèle est le meilleur en Chine, surpassant les modèles étrangers dans des tâches en chinois telles que l'encyclopédie, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
},
"Baichuan4-Air": {
"description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
},
"Baichuan4-Turbo": {
"description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
},
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
"description": "Seed-OSS est une série de grands modèles de langage open source développée par l'équipe Seed de ByteDance, conçue pour une gestion puissante des contextes longs, le raisonnement, les agents intelligents et les capacités générales. Le modèle Seed-OSS-36B-Instruct de cette série est un modèle affiné par instruction avec 36 milliards de paramètres, prenant en charge nativement des contextes ultra-longs, ce qui lui permet de traiter en une seule fois d'énormes documents ou des bases de code complexes. Ce modèle est spécialement optimisé pour le raisonnement, la génération de code et les tâches d'agents (comme l'utilisation d'outils), tout en maintenant un équilibre et une excellente capacité générale. Une caractéristique majeure de ce modèle est la fonction « budget de réflexion » (Thinking Budget), qui permet aux utilisateurs d'ajuster de manière flexible la longueur du raisonnement selon leurs besoins, améliorant ainsi efficacement l'efficacité du raisonnement en application pratique."
},
"DeepSeek-R1": {
"description": "LLM efficace à la pointe de la technologie, spécialisé dans le raisonnement, les mathématiques et la programmation."
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1 - un modèle plus grand et plus intelligent dans la suite DeepSeek - a été distillé dans l'architecture Llama 70B. Basé sur des tests de référence et des évaluations humaines, ce modèle est plus intelligent que le Llama 70B d'origine, en particulier dans les tâches nécessitant des mathématiques et une précision factuelle."
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-1.5B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-14B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "La série DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source, dépassant le niveau d'OpenAI-o1-mini."
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-7B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
},
"DeepSeek-V3": {
"description": "DeepSeek-V3 est un modèle MoE développé en interne par la société DeepSeek. Les performances de DeepSeek-V3 surpassent celles d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B, et se mesurent à la performance des modèles fermés de pointe au monde comme GPT-4o et Claude-3.5-Sonnet."
},
"DeepSeek-V3-1": {
"description": "DeepSeek V3.1 : modèle d'inférence de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
},
"DeepSeek-V3-Fast": {
"description": "Fournisseur du modèle : plateforme sophnet. DeepSeek V3 Fast est la version ultra-rapide à TPS élevé de DeepSeek V3 0324, entièrement non quantifiée, avec des capacités de code et mathématiques renforcées, offrant une réactivité accrue !"
},
"DeepSeek-V3.1-Fast": {
"description": "DeepSeek V3.1 Fast est la version ultra-rapide à TPS élevé de DeepSeek V3.1. Mode de réflexion hybride : en modifiant le modèle de conversation, un seul modèle peut supporter à la fois les modes avec et sans réflexion. Appel d'outils plus intelligent : grâce à l'optimisation post-entraînement, les performances du modèle dans l'utilisation des outils et les tâches d'agents sont significativement améliorées."
},
"DeepSeek-V3.1-Think": {
"description": "DeepSeek-V3.1 - mode réflexion ; DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride lancé par DeepSeek, supportant deux modes de raisonnement : avec et sans réflexion, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances dans les tâches d'agents ont été grandement améliorées."
},
"Doubao-lite-128k": {
"description": "Doubao-lite offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 128k."
},
"Doubao-lite-32k": {
"description": "Doubao-lite offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 32k."
},
"Doubao-lite-4k": {
"description": "Doubao-lite offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 4k."
},
"Doubao-pro-128k": {
"description": "Modèle principal le plus performant, adapté aux tâches complexes, avec d'excellents résultats dans les domaines des questions-réponses, résumés, création, classification de texte, jeu de rôle, etc. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 128k."
},
"Doubao-pro-32k": {
"description": "Modèle principal le plus performant, adapté aux tâches complexes, avec d'excellents résultats dans les domaines des questions-réponses, résumés, création, classification de texte, jeu de rôle, etc. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 32k."
},
"Doubao-pro-4k": {
"description": "Modèle principal le plus performant, adapté aux tâches complexes, avec d'excellents résultats dans les domaines des questions-réponses, résumés, création, classification de texte, jeu de rôle, etc. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 4k."
},
"DreamO": {
"description": "DreamO est un modèle open source de génération d'images personnalisées développé conjointement par ByteDance et l'Université de Pékin, visant à supporter la génération d'images multitâches via une architecture unifiée. Il utilise une méthode de modélisation combinée efficace, capable de générer des images hautement cohérentes et personnalisées selon plusieurs conditions spécifiées par l'utilisateur telles que l'identité, le sujet, le style et l'arrière-plan."
},
"ERNIE-3.5-128K": {
"description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
},
"ERNIE-3.5-8K": {
"description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
},
"ERNIE-3.5-8K-Preview": {
"description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
},
"ERNIE-4.0-8K-Latest": {
"description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
},
"ERNIE-4.0-8K-Preview": {
"description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "Modèle linguistique ultramoderne et de grande taille auto-développé par Baidu, avec d'excellentes performances générales, largement applicable à divers scénarios de tâches complexes ; prend en charge la connexion automatique aux plugins de recherche Baidu pour assurer la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il affiche de meilleures performances."
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
},
"ERNIE-Character-8K": {
"description": "Modèle de langage pour scénarios verticaux développé par Baidu, adapté aux applications telles que les NPC de jeux, les dialogues de service client, et les jeux de rôle, avec des styles de personnages plus distincts et cohérents, une meilleure capacité à suivre les instructions et des performances d'inférence supérieures."
},
"ERNIE-Lite-Pro-128K": {
"description": "Modèle de langage léger développé par Baidu, alliant d'excellentes performances du modèle et efficacité d'inférence, offrant de meilleures performances que ERNIE Lite, adapté à l'inférence sur des cartes d'accélération AI à faible puissance de calcul."
},
"ERNIE-Speed-128K": {
"description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence."
},
"ERNIE-Speed-Pro-128K": {
"description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, offrant de meilleures performances que ERNIE Speed, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence."
},
"FLUX-1.1-pro": {
"description": "FLUX.1.1 Pro"
},
"FLUX.1-Kontext-dev": {
"description": "FLUX.1-Kontext-dev est un modèle multimodal de génération et d'édition d'images développé par Black Forest Labs, basé sur l'architecture Rectified Flow Transformer, avec une échelle de 12 milliards de paramètres. Il se concentre sur la génération, la reconstruction, l'amélioration ou l'édition d'images sous conditions contextuelles données. Ce modèle combine les avantages de génération contrôlée des modèles de diffusion et la capacité de modélisation contextuelle des Transformers, supportant une sortie d'images de haute qualité, applicable à la restauration, au remplissage et à la reconstruction visuelle de scènes."
},
"FLUX.1-Kontext-pro": {
"description": "FLUX.1 Kontext [pro]"
},
"FLUX.1-dev": {
"description": "FLUX.1-dev est un modèle open source multimodal de langage (Multimodal Language Model, MLLM) développé par Black Forest Labs, optimisé pour les tâches texte-image, intégrant la compréhension et la génération d'images et de textes. Basé sur des modèles de langage avancés tels que Mistral-7B, il utilise un encodeur visuel soigneusement conçu et un affinage par instructions en plusieurs étapes, permettant un traitement collaboratif texte-image et un raisonnement complexe."
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) est un modèle innovant, adapté à des applications dans plusieurs domaines et à des tâches complexes."
},
"HelloMeme": {
"description": "HelloMeme est un outil d'IA capable de générer automatiquement des mèmes, GIFs ou courtes vidéos à partir d'images ou d'actions fournies. Il ne nécessite aucune compétence en dessin ou programmation, il suffit de fournir une image de référence pour créer des contenus attrayants, amusants et cohérents en style."
},
"HiDream-I1-Full": {
"description": "HiDream-E1-Full est un grand modèle open source d'édition d'images multimodales lancé par HiDream.ai, basé sur l'architecture avancée Diffusion Transformer et intégrant une puissante capacité de compréhension linguistique (intégrant LLaMA 3.1-8B-Instruct). Il supporte la génération d'images, le transfert de style, l'édition locale et la redéfinition de contenu via des instructions en langage naturel, avec d'excellentes capacités de compréhension et d'exécution texte-image."
},
"HunyuanDiT-v1.2-Diffusers-Distilled": {
"description": "hunyuandit-v1.2-distilled est un modèle léger de génération d'images à partir de texte, optimisé par distillation, capable de générer rapidement des images de haute qualité, particulièrement adapté aux environnements à ressources limitées et aux tâches de génération en temps réel."
},
"InstantCharacter": {
"description": "InstantCharacter est un modèle de génération de personnages personnalisés sans réglage (tuning-free) publié par l'équipe IA de Tencent en 2025, visant une génération cohérente et haute fidélité de personnages à travers différents contextes. Ce modèle permet de modéliser un personnage à partir d'une seule image de référence et de le transférer de manière flexible à divers styles, actions et arrière-plans."
},
"InternVL2-8B": {
"description": "InternVL2-8B est un puissant modèle de langage visuel, prenant en charge le traitement multimodal d'images et de textes, capable de reconnaître avec précision le contenu des images et de générer des descriptions ou des réponses pertinentes."
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B est un puissant modèle de langage visuel, prenant en charge le traitement multimodal d'images et de textes, capable de reconnaître avec précision le contenu des images et de générer des descriptions ou des réponses pertinentes."
},
"Kolors": {
"description": "Kolors est un modèle de génération d'images à partir de texte développé par l'équipe Kolors de Kuaishou. Entraîné sur des milliards de paramètres, il excelle en qualité visuelle, compréhension sémantique du chinois et rendu de texte."
},
"Kwai-Kolors/Kolors": {
"description": "Kolors est un modèle de génération d'images à partir de texte à grande échelle basé sur la diffusion latente, développé par l'équipe Kolors de Kuaishou. Entraîné sur des milliards de paires texte-image, il présente des avantages significatifs en qualité visuelle, précision sémantique complexe et rendu des caractères chinois et anglais. Il supporte les entrées en chinois et en anglais, avec une excellente compréhension et génération de contenus spécifiques en chinois."
},
"Kwaipilot/KAT-Dev": {
"description": "KAT-Dev (32B) est un modèle open source de 32 milliards de paramètres spécialement conçu pour les tâches d'ingénierie logicielle. Il a atteint un taux de résolution de 62,4 % sur le benchmark SWE-Bench Verified, se classant cinquième parmi tous les modèles open source de différentes tailles. Ce modèle a été optimisé à travers plusieurs étapes, notamment l'entraînement intermédiaire, l'ajustement supervisé (SFT) et l'apprentissage par renforcement (RL), dans le but d'offrir un soutien puissant pour des tâches de programmation complexes telles que la complétion de code, la correction de bugs et la revue de code."
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "Excellentes capacités de raisonnement d'image sur des images haute résolution, adaptées aux applications de compréhension visuelle."
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "Capacités avancées de raisonnement d'image adaptées aux applications d'agents de compréhension visuelle."
},
"Meta-Llama-3-3-70B-Instruct": {
"description": "Llama 3.3 70B : modèle Transformer polyvalent, adapté aux tâches de dialogue et de génération."
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "Modèle de langage de petite taille à la pointe de la technologie, doté de compétences en compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "Modèle de langage de petite taille à la pointe de la technologie, doté de compétences en compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles d'un modèle de 405B à un coût très faible. Basé sur une architecture Transformer, il a été amélioré en utilité et en sécurité grâce à un ajustement supervisé (SFT) et à un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
},
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
"description": "Llama 4 Maverick : modèle à grande échelle basé sur le Mixture-of-Experts, offrant une stratégie d'activation experte efficace pour des performances optimales en inférence."
},
"MiniMax-M1": {
"description": "Nouveau modèle d'inférence développé en interne. Leader mondial : 80K chaînes de raisonnement x 1M d'entrées, des performances comparables aux meilleurs modèles internationaux."
},
"MiniMax-M2": {
"description": "Conçu spécialement pour un codage efficace et les flux de travail des agents."
},
"MiniMax-M2-Stable": {
"description": "Conçu pour un codage efficace et les flux de travail des agents, avec une haute concurrence et une utilisation commerciale."
},
"MiniMax-Text-01": {
"description": "Dans la série de modèles MiniMax-01, nous avons réalisé une innovation audacieuse : la première mise en œuvre à grande échelle d'un mécanisme d'attention linéaire, rendant l'architecture Transformer traditionnelle non plus le seul choix. Ce modèle possède un nombre de paramètres atteignant 456 milliards, avec 45,9 milliards d'activations par instance. Les performances globales du modèle rivalisent avec celles des meilleurs modèles étrangers, tout en étant capable de traiter efficacement un contexte mondial de 4 millions de tokens, soit 32 fois celui de GPT-4o et 20 fois celui de Claude-3.5-Sonnet."
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1 est un modèle d'inférence à attention mixte à grande échelle avec poids open source, comptant 456 milliards de paramètres, activant environ 45,9 milliards de paramètres par token. Le modèle supporte nativement un contexte ultra-long de 1 million de tokens et, grâce au mécanisme d'attention éclair, réduit de 75 % les opérations en virgule flottante lors de tâches de génération de 100 000 tokens par rapport à DeepSeek R1. Par ailleurs, MiniMax-M1 utilise une architecture MoE (Experts Mixtes), combinant l'algorithme CISPO et une conception d'attention mixte pour un entraînement efficace par apprentissage par renforcement, offrant des performances de pointe dans l'inférence sur longues entrées et les scénarios réels d'ingénierie logicielle."
},
"MiniMaxAI/MiniMax-M2": {
"description": "MiniMax-M2 redéfinit l'efficacité pour les agents intelligents. Il s'agit d'un modèle MoE compact, rapide et économique, doté de 230 milliards de paramètres totaux et de 10 milliards de paramètres actifs, conçu pour offrir des performances de pointe dans les tâches de codage et d'agents, tout en conservant une intelligence générale puissante. Avec seulement 10 milliards de paramètres actifs, MiniMax-M2 offre des performances comparables à celles des modèles de grande taille, ce qui en fait un choix idéal pour les applications à haute efficacité."
},
"Moonshot-Kimi-K2-Instruct": {
"description": "Avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés, ce modèle non cognitif atteint un niveau de pointe en connaissances avancées, mathématiques et codage, excelling dans les tâches d'agents généraux. Optimisé pour les tâches d'agents, il peut non seulement répondre aux questions mais aussi agir. Idéal pour les conversations improvisées, générales et les expériences d'agents, c'est un modèle réflexe ne nécessitant pas de longues réflexions."
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes."
},
"OmniConsistency": {
"description": "OmniConsistency améliore la cohérence stylistique et la capacité de généralisation dans les tâches image-à-image en introduisant de grands Diffusion Transformers (DiTs) et des données stylisées appariées, évitant ainsi la dégradation du style."
},
"Phi-3-medium-128k-instruct": {
"description": "Même modèle Phi-3-medium, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples."
},
"Phi-3-medium-4k-instruct": {
"description": "Un modèle de 14 milliards de paramètres, prouvant une meilleure qualité que Phi-3-mini, avec un accent sur des données denses en raisonnement de haute qualité."
},
"Phi-3-mini-128k-instruct": {
"description": "Même modèle Phi-3-mini, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples."
},
"Phi-3-mini-4k-instruct": {
"description": "Le plus petit membre de la famille Phi-3. Optimisé pour la qualité et la faible latence."
},
"Phi-3-small-128k-instruct": {
"description": "Même modèle Phi-3-small, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples."
},
"Phi-3-small-8k-instruct": {
"description": "Un modèle de 7 milliards de paramètres, prouvant une meilleure qualité que Phi-3-mini, avec un accent sur des données denses en raisonnement de haute qualité."
},
"Phi-3.5-mini-instruct": {
"description": "Version améliorée du modèle Phi-3-mini."
},
"Phi-3.5-vision-instrust": {
"description": "Version améliorée du modèle Phi-3-vision."
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct est un modèle de langage à grande échelle de la série Qwen2, avec une taille de paramètre de 7B. Ce modèle est basé sur l'architecture Transformer, utilisant des fonctions d'activation SwiGLU, des biais d'attention QKV et des techniques d'attention par groupe. Il est capable de traiter de grandes entrées. Ce modèle excelle dans la compréhension du langage, la génération, les capacités multilingues, le codage, les mathématiques et le raisonnement dans plusieurs tests de référence, surpassant la plupart des modèles open source et montrant une compétitivité comparable à celle des modèles propriétaires dans certaines tâches. Qwen2-7B-Instruct a montré des performances significativement meilleures que Qwen1.5-7B-Chat dans plusieurs évaluations."
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct est l'un des derniers modèles de langage à grande échelle publiés par Alibaba Cloud. Ce modèle 7B présente des capacités considérablement améliorées dans des domaines tels que le codage et les mathématiques. Le modèle offre également un support multilingue, couvrant plus de 29 langues, y compris le chinois et l'anglais. Il a montré des améliorations significatives dans le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (en particulier JSON)."
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct est la dernière version de la série de modèles de langage à grande échelle spécifique au code publiée par Alibaba Cloud. Ce modèle, basé sur Qwen2.5, a été formé avec 55 trillions de tokens, améliorant considérablement les capacités de génération, de raisonnement et de correction de code. Il renforce non seulement les capacités de codage, mais maintient également des avantages en mathématiques et en compétences générales. Le modèle fournit une base plus complète pour des applications pratiques telles que les agents de code."
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL est le nouveau membre de la série Qwen, doté de puissantes capacités de compréhension visuelle. Il peut analyser le texte, les graphiques et la mise en page dans les images, comprendre les vidéos longues et capturer des événements. Il est capable de raisonner, d'utiliser des outils, de prendre en charge le positionnement d'objets multiformats et de générer des sorties structurées. Il optimise la résolution dynamique et la fréquence d'images pour la compréhension vidéo, et améliore l'efficacité de l'encodeur visuel."
},
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking est un modèle de langage visuel open source (VLM) publié conjointement par Zhipu AI et le laboratoire KEG de l'Université Tsinghua, conçu pour traiter des tâches cognitives multimodales complexes. Ce modèle est basé sur le modèle de base GLM-4-9B-0414 et intègre un mécanisme de raisonnement « chaîne de pensée » (Chain-of-Thought) ainsi qu'une stratégie d'apprentissage par renforcement, améliorant significativement ses capacités de raisonnement intermodal et sa stabilité."
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat est la version open source de la série de modèles pré-entraînés GLM-4 lancée par Zhipu AI. Ce modèle excelle dans plusieurs domaines tels que la sémantique, les mathématiques, le raisonnement, le code et les connaissances. En plus de prendre en charge des dialogues multi-tours, GLM-4-9B-Chat dispose également de fonctionnalités avancées telles que la navigation sur le web, l'exécution de code, l'appel d'outils personnalisés (Function Call) et le raisonnement sur de longs textes. Le modèle prend en charge 26 langues, y compris le chinois, l'anglais, le japonais, le coréen et l'allemand. Dans plusieurs tests de référence, GLM-4-9B-Chat a montré d'excellentes performances, comme AlignBench-v2, MT-Bench, MMLU et C-Eval. Ce modèle prend en charge une longueur de contexte maximale de 128K, adapté à la recherche académique et aux applications commerciales."
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 est un modèle d'inférence piloté par l'apprentissage par renforcement (RL), qui résout les problèmes de répétition et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant encore les performances d'inférence. Il se compare à OpenAI-o1 dans les tâches mathématiques, de code et d'inférence, et améliore l'ensemble des performances grâce à des méthodes d'entraînement soigneusement conçues."
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B est un modèle obtenu par distillation de connaissances à partir de Qwen2.5-Math-7B. Ce modèle a été affiné à l'aide de 800 000 échantillons sélectionnés générés par DeepSeek-R1, démontrant d'excellentes capacités de raisonnement. Il obtient des performances remarquables dans plusieurs benchmarks, atteignant une précision de 92,8 % sur MATH-500, un taux de réussite de 55,5 % sur AIME 2024 et un score de 1189 sur CodeForces, montrant ainsi de solides compétences en mathématiques et en programmation pour un modèle de taille 7B."
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 est un modèle de langage à experts mixtes (MoE) avec 671 milliards de paramètres, utilisant une attention potentielle multi-tête (MLA) et une architecture DeepSeekMoE, combinant une stratégie d'équilibrage de charge sans perte auxiliaire pour optimiser l'efficacité d'inférence et d'entraînement. Pré-entraîné sur 14,8 billions de tokens de haute qualité, et affiné par supervision et apprentissage par renforcement, DeepSeek-V3 surpasse d'autres modèles open source et se rapproche des modèles fermés de premier plan."
},
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
"description": "DeepSeek-V3.1-Terminus est une version mise à jour du modèle V3.1 publiée par DeepSeek, positionnée comme un grand modèle de langage hybride pour agents intelligents. Cette mise à jour conserve les capacités originales du modèle tout en se concentrant sur la correction des problèmes signalés par les utilisateurs et l'amélioration de la stabilité. Elle améliore significativement la cohérence linguistique, réduisant le mélange de chinois et d'anglais ainsi que l'apparition de caractères anormaux. Le modèle intègre un « mode réflexion » (Thinking Mode) et un « mode non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre ces modes via des modèles de conversation adaptés à différentes tâches. En tant qu'optimisation majeure, V3.1-Terminus renforce les performances des agents de code (Code Agent) et de recherche (Search Agent), rendant leur appel d'outils et l'exécution de tâches complexes en plusieurs étapes plus fiables."
},
"Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
"description": "DeepSeek-V3.2-Exp est une version expérimentale V3.2 publiée par DeepSeek, servant d'étape intermédiaire vers une architecture de nouvelle génération. Basée sur la V3.1-Terminus, elle introduit le mécanisme d'attention clairsemée DeepSeek (DeepSeek Sparse Attention, DSA) afin d'améliorer l'efficacité de l'entraînement et de l'inférence sur de longs contextes. Elle est spécialement optimisée pour l'appel d'outils, la compréhension de longs documents et le raisonnement en plusieurs étapes. V3.2-Exp fait le lien entre la recherche et l'industrialisation, idéale pour les utilisateurs souhaitant explorer une efficacité de raisonnement accrue dans des scénarios à budget contextuel élevé."
},
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo est la version Turbo de la série Kimi K2, optimisée pour la vitesse de raisonnement et le débit, tout en conservant les capacités de raisonnement multi-étapes et d'appel d'outils de K2 Thinking. Ce modèle repose sur une architecture à experts mixtes (MoE), avec environ 1T de paramètres, prend en charge nativement un contexte de 256K et exécute de manière stable des appels d'outils à grande échelle. Il est idéal pour les environnements de production exigeant une faible latence et une haute concurrence."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview est un modèle de traitement du langage naturel innovant, capable de gérer efficacement des tâches complexes de génération de dialogues et de compréhension contextuelle."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview est un modèle de recherche développé par l'équipe Qwen, axé sur les capacités de raisonnement visuel, qui possède des avantages uniques dans la compréhension de scènes complexes et la résolution de problèmes mathématiques liés à la vision."
},
"Qwen/QwQ-32B": {
"description": "QwQ est le modèle d'inférence de la série Qwen. Comparé aux modèles d'optimisation d'instructions traditionnels, QwQ possède des capacités de réflexion et de raisonnement, permettant d'obtenir des performances nettement améliorées dans les tâches en aval, en particulier pour résoudre des problèmes difficiles. QwQ-32B est un modèle d'inférence de taille moyenne, capable d'obtenir des performances compétitives par rapport aux modèles d'inférence les plus avancés (comme DeepSeek-R1, o1-mini). Ce modèle utilise des techniques telles que RoPE, SwiGLU, RMSNorm et Attention QKV bias, avec une architecture de réseau de 64 couches et 40 têtes d'attention Q (dans l'architecture GQA, KV est de 8)."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview est le dernier modèle de recherche expérimental de Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA. En explorant des mécanismes complexes tels que le mélange de langues et le raisonnement récursif, ses principaux avantages incluent de puissantes capacités d'analyse de raisonnement, ainsi que des compétences en mathématiques et en programmation. Cependant, il existe également des problèmes de changement de langue, des cycles de raisonnement, des considérations de sécurité et des différences dans d'autres capacités."
},
"Qwen/Qwen-Image": {
"description": "Qwen-Image est un modèle de base de génération dimages développé par léquipe Qwen dAlibaba, doté de 20 milliards de paramètres. Ce modèle a réalisé des avancées significatives dans le rendu complexe de texte et lédition dimage de haute précision, avec une capacité remarquable à générer des images contenant du texte en chinois et en anglais avec une grande fidélité. Qwen-Image gère non seulement la mise en page sur plusieurs lignes et les textes de niveau paragraphe, mais maintient également la cohérence typographique et lharmonie contextuelle lors de la génération dimages. En plus de ses performances exceptionnelles en rendu de texte, le modèle prend en charge une large gamme de styles artistiques, allant de la photographie réaliste à lesthétique anime, sadaptant avec souplesse à divers besoins créatifs. Il dispose également de puissantes capacités dédition et de compréhension dimages, permettant des opérations avancées telles que le transfert de style, lajout ou la suppression dobjets, lamélioration des détails, lédition de texte et même le contrôle de la posture humaine. Lobjectif est den faire un modèle de base intelligent et polyvalent pour la création et le traitement visuel, intégrant langage, mise en page et image."
},
"Qwen/Qwen-Image-Edit-2509": {
"description": "Qwen-Image-Edit-2509 est la dernière version dédition dimage du modèle Qwen-Image, développée par léquipe Qwen dAlibaba. Ce modèle repose sur les 20 milliards de paramètres de Qwen-Image et a été entraîné en profondeur pour étendre ses capacités uniques de rendu de texte au domaine de lédition dimage, permettant une modification précise du texte dans les images. Qwen-Image-Edit adopte une architecture innovante, envoyant limage dentrée simultanément à Qwen2.5-VL (pour le contrôle sémantique visuel) et à un encodeur VAE (pour le contrôle de lapparence visuelle), offrant ainsi une double capacité dédition sémantique et visuelle. Cela signifie quil prend en charge non seulement les modifications locales de lapparence telles que lajout, la suppression ou la modification déléments, mais aussi des éditions sémantiques avancées nécessitant une cohérence conceptuelle, comme la création dIP ou le transfert de style. Le modèle a démontré des performances de pointe (SOTA) sur plusieurs benchmarks publics, en faisant un modèle de base puissant pour lédition dimage."
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions."
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct est un modèle de langage à grande échelle de la série Qwen2, avec une taille de paramètre de 72B. Ce modèle est basé sur l'architecture Transformer, utilisant des fonctions d'activation SwiGLU, des biais d'attention QKV et des techniques d'attention par groupe. Il est capable de traiter de grandes entrées. Ce modèle excelle dans la compréhension du langage, la génération, les capacités multilingues, le codage, les mathématiques et le raisonnement dans plusieurs tests de référence, surpassant la plupart des modèles open source et montrant une compétitivité comparable à celle des modèles propriétaires dans certaines tâches."
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL est la dernière itération du modèle Qwen-VL, atteignant des performances de pointe dans les tests de référence de compréhension visuelle."
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "Un grand modèle de langage développé par l'équipe Tongyi Qianwen d'Alibaba Cloud"
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille avec des capacités de compréhension et de génération améliorées."
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille, conçue pour optimiser le traitement des tâches d'instruction."
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille, conçue pour optimiser le traitement des tâches d'instruction."
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder se concentre sur la rédaction de code."
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct est la dernière version de la série de modèles de langage à grande échelle spécifique au code publiée par Alibaba Cloud. Ce modèle, basé sur Qwen2.5, a été formé avec 55 trillions de tokens, améliorant considérablement les capacités de génération, de raisonnement et de correction de code. Il renforce non seulement les capacités de codage, mais maintient également des avantages en mathématiques et en compétences générales. Le modèle fournit une base plus complète pour des applications pratiques telles que les agents de code."
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct est un modèle multimodal avancé développé par l'équipe Tongyi Qianwen, faisant partie de la série Qwen2.5-VL. Ce modèle excelle non seulement dans la reconnaissance d'objets courants, mais aussi dans l'analyse de textes, diagrammes, icônes, graphiques et mises en page contenus dans des images. Il peut fonctionner comme un agent visuel intelligent capable de raisonner et de manipuler dynamiquement des outils, avec des compétences d'utilisation d'ordinateurs et de smartphones. De plus, ce modèle peut localiser avec précision des objets dans des images et produire des sorties structurées pour des documents tels que des factures ou des tableaux. Par rapport à son prédécesseur Qwen2-VL, cette version présente des améliorations significatives en mathématiques et en résolution de problèmes grâce à l'apprentissage par renforcement, tout en adoptant un style de réponse plus conforme aux préférences humaines."
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL est le modèle de langage visuel de la série Qwen2.5. Ce modèle présente des améliorations significatives à plusieurs égards : il possède une meilleure compréhension visuelle, capable de reconnaître des objets courants, d'analyser du texte, des graphiques et des mises en page ; en tant qu'agent visuel, il peut raisonner et guider dynamiquement l'utilisation d'outils ; il prend en charge la compréhension de vidéos longues de plus d'une heure et capture les événements clés ; il peut localiser avec précision des objets dans une image en générant des cadres de délimitation ou des points ; il prend en charge la génération de sorties structurées, particulièrement adaptée aux données scannées comme les factures et les tableaux."
},
"Qwen/Qwen3-14B": {
"description": "Qwen3 est un nouveau modèle de Tongyi Qianwen avec des capacités considérablement améliorées, atteignant des niveaux de pointe dans plusieurs compétences clés telles que le raisonnement, l'agent et le multilingue, et prenant en charge le changement de mode de pensée."
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3 est un nouveau modèle de Tongyi Qianwen avec des capacités considérablement améliorées, atteignant des niveaux de pointe dans plusieurs compétences clés telles que le raisonnement, l'agent et le multilingue, et prenant en charge le changement de mode de pensée."
},
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
"description": "Qwen3-235B-A22B-Instruct-2507 est un modèle de langage à experts mixtes (MoE) phare de la série Qwen3 développé par l'équipe Tongyi Qianwen d'Aliyun. Avec 235 milliards de paramètres totaux et 22 milliards activés par inférence, il est une version mise à jour du mode non cognitif Qwen3-235B-A22B, améliorant significativement l'adhérence aux instructions, le raisonnement logique, la compréhension textuelle, les mathématiques, les sciences, la programmation et l'utilisation d'outils. Le modèle étend aussi la couverture des connaissances multilingues rares et s'aligne mieux sur les préférences utilisateur pour des tâches subjectives et ouvertes, générant des textes plus utiles et de meilleure qualité."
},
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
"description": "Qwen3-235B-A22B-Thinking-2507 est un modèle de langage volumineux de la série Qwen3 développé par l'équipe Tongyi Qianwen d'Alibaba, spécialisé dans les tâches complexes de raisonnement avancé. Basé sur une architecture MoE, il compte 235 milliards de paramètres totaux avec environ 22 milliards activés par token, optimisant ainsi l'efficacité de calcul tout en maintenant une puissance élevée. En tant que modèle « de réflexion », il excelle dans le raisonnement logique, les mathématiques, les sciences, la programmation et les tests académiques nécessitant une expertise humaine, atteignant un niveau de pointe parmi les modèles open source de réflexion. Il améliore également les capacités générales telles que l'adhérence aux instructions, l'utilisation d'outils et la génération de texte, avec un support natif pour une compréhension de contexte longue de 256K tokens, idéal pour les scénarios nécessitant un raisonnement profond et le traitement de longs documents."
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3 est un nouveau modèle de Tongyi Qianwen avec des capacités considérablement améliorées, atteignant des niveaux de pointe dans plusieurs compétences clés telles que le raisonnement, l'agent et le multilingue, et prenant en charge le changement de mode de pensée."
},
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
"description": "Qwen3-30B-A3B-Instruct-2507 est une version mise à jour du modèle non réflexif Qwen3-30B-A3B. Il s'agit d'un modèle d'experts mixtes (MoE) avec un total de 30,5 milliards de paramètres et 3,3 milliards de paramètres activés. Ce modèle présente des améliorations clés dans plusieurs domaines, notamment une amélioration significative de la conformité aux instructions, du raisonnement logique, de la compréhension du texte, des mathématiques, des sciences, du codage et de l'utilisation des outils. Par ailleurs, il réalise des progrès substantiels dans la couverture des connaissances multilingues à longue traîne et s'aligne mieux avec les préférences des utilisateurs dans les tâches subjectives et ouvertes, ce qui lui permet de générer des réponses plus utiles et des textes de meilleure qualité. De plus, sa capacité de compréhension des textes longs a été étendue à 256K. Ce modèle ne prend en charge que le mode non réflexif et ne génère pas de balises `<think></think>` dans ses sorties."
},
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
"description": "Qwen3-30B-A3B-Thinking-2507 est le dernier modèle de « réflexion » de la série Qwen3 publié par l'équipe Tongyi Qianwen d'Alibaba. En tant que modèle Mixture-of-Experts (MoE) comptant 30,5 milliards de paramètres au total et 3,3 milliards de paramètres d'activation, il est axé sur l'amélioration des capacités de traitement des tâches complexes. Le modèle présente des gains de performance significatifs sur des benchmarks académiques en raisonnement logique, mathématiques, sciences, programmation et autres tâches requérant une expertise humaine. Parallèlement, ses capacités générales — respect des instructions, utilisation d'outils, génération de texte et alignement sur les préférences humaines — ont été nettement renforcées. Il prend nativement en charge une compréhension de contextes longs de 256K tokens, extensible jusqu'à 1 million de tokens. Cette version, conçue pour le « mode réflexion », vise à résoudre des tâches hautement complexes via un raisonnement détaillé pas à pas ; ses capacités d'agent sont également remarquables."
},
"Qwen/Qwen3-32B": {
"description": "Qwen3 est un nouveau modèle de Tongyi Qianwen avec des capacités considérablement améliorées, atteignant des niveaux de pointe dans plusieurs compétences clés telles que le raisonnement, l'agent et le multilingue, et prenant en charge le changement de mode de pensée."
},
"Qwen/Qwen3-8B": {
"description": "Qwen3 est un nouveau modèle de Tongyi Qianwen avec des capacités considérablement améliorées, atteignant des niveaux de pointe dans plusieurs compétences clés telles que le raisonnement, l'agent et le multilingue, et prenant en charge le changement de mode de pensée."
},
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
"description": "Qwen3-Coder-30B-A3B-Instruct est un modèle de code de la série Qwen3 développé par l'équipe Tongyi Qianwen d'Alibaba. En tant que modèle épuré et optimisé, il se concentre sur l'amélioration des capacités de traitement du code tout en conservant des performances et une grande efficacité. Ce modèle affiche un avantage de performance notable parmi les modèles open source pour des tâches complexes telles que la programmation agentique (Agentic Coding), l'automatisation de navigateurs et l'appel d'outils. Il prend en charge nativement un contexte long de 256K tokens et peut être étendu jusqu'à 1M tokens, permettant une meilleure compréhension et gestion des bases de code à l'échelle du dépôt. De plus, ce modèle fournit un solide support d'encodage par agents pour des plateformes comme Qwen Code et CLINE, et intègre un format dédié d'appel de fonctions."
},
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
"description": "Qwen3-Coder-480B-A35B-Instruct est un modèle de code publié par Alibaba, et à ce jour le plus avancé en termes de capacités d'agent (agentic). Il s'agit d'un modèle MoE (Mixture-of-Experts) disposant de 480 milliards de paramètres au total et de 35 milliards de paramètres activés, offrant un équilibre entre efficacité et performance. Le modèle prend en charge nativement une longueur de contexte de 256K (environ 260 000) tokens et peut être étendu jusqu'à 1 million de tokens via des méthodes d'extrapolation telles que YaRN, ce qui lui permet de traiter de vastes bases de code et des tâches de programmation complexes. Qwen3-Coder a été conçu pour des flux de travail de codage pilotés par des agents : il ne se contente pas de générer du code, il peut aussi interagir de manière autonome avec les outils et environnements de développement pour résoudre des problèmes de programmation complexes. Sur plusieurs benchmarks de codage et de tâches agent, ce modèle atteint un niveau de premier plan parmi les modèles open source, ses performances rivalisant avec celles de modèles de pointe comme Claude Sonnet 4."
},
"Qwen/Qwen3-Next-80B-A3B-Instruct": {
"description": "Qwen3-Next-80B-A3B-Instruct est un modèle de base de nouvelle génération publié par l'équipe Tongyi Qianwen d'Alibaba. Il est basé sur la toute nouvelle architecture Qwen3-Next, visant à atteindre une efficacité extrême en entraînement et en inférence. Ce modèle utilise un mécanisme d'attention hybride innovant (Gated DeltaNet et Gated Attention), une structure d'experts mixtes à haute sparsité (MoE) ainsi que plusieurs optimisations pour la stabilité de l'entraînement. En tant que modèle sparse avec un total de 80 milliards de paramètres, il n'active qu'environ 3 milliards de paramètres lors de l'inférence, réduisant ainsi considérablement les coûts de calcul. Lors de tâches avec un contexte long dépassant 32K tokens, son débit d'inférence est plus de 10 fois supérieur à celui du modèle Qwen3-32B. Ce modèle est une version fine-tunée pour les instructions, conçue pour des tâches générales, et ne supporte pas le mode chaîne de pensée (Thinking). En termes de performance, il est comparable au modèle phare Tongyi Qianwen Qwen3-235B sur certains benchmarks, montrant un avantage marqué sur les tâches à contexte très long."
},
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
"description": "Qwen3-Next-80B-A3B-Thinking est un modèle de base de nouvelle génération publié par l'équipe Tongyi Qianwen d'Alibaba, spécialement conçu pour les tâches de raisonnement complexes. Il repose sur l'architecture innovante Qwen3-Next, qui intègre un mécanisme d'attention hybride (Gated DeltaNet et Gated Attention) et une structure d'experts mixtes à haute sparsité (MoE), visant une efficacité extrême en entraînement et inférence. En tant que modèle sparse totalisant 80 milliards de paramètres, il n'active qu'environ 3 milliards de paramètres lors de l'inférence, réduisant significativement les coûts de calcul. Pour les tâches à contexte long dépassant 32K tokens, son débit est plus de 10 fois supérieur à celui du modèle Qwen3-32B. Cette version « Thinking » est optimisée pour exécuter des tâches complexes à étapes multiples telles que preuves mathématiques, synthèse de code, analyse logique et planification, et produit par défaut le processus de raisonnement sous forme structurée de « chaîne de pensée ». En termes de performance, il dépasse non seulement des modèles plus coûteux comme Qwen3-32B-Thinking, mais surpasse également Gemini-2.5-Flash-Thinking sur plusieurs benchmarks."
},
"Qwen/Qwen3-Omni-30B-A3B-Captioner": {
"description": "Qwen3-Omni-30B-A3B-Captioner est un modèle de langage visuel (VLM) de la série Qwen3 développé par l'équipe Tongyi Qianwen d'Alibaba. Il est spécialement conçu pour générer des descriptions d'images de haute qualité, détaillées et précises. Basé sur une architecture d'experts mixtes (MoE) avec un total de 30 milliards de paramètres, ce modèle comprend en profondeur le contenu visuel et le traduit en descriptions textuelles naturelles et fluides. Il excelle dans la capture des détails visuels, la compréhension des scènes, la reconnaissance d'objets et le raisonnement relationnel, ce qui le rend idéal pour les applications nécessitant une compréhension et une description précises des images."
},
"Qwen/Qwen3-Omni-30B-A3B-Instruct": {
"description": "Qwen3-Omni-30B-A3B-Instruct est un modèle de la dernière série Qwen3 développé par l'équipe Tongyi Qianwen d'Alibaba. Il s'agit d'un modèle d'experts mixtes (MoE) avec 30 milliards de paramètres totaux et 3 milliards de paramètres activés, offrant de hautes performances tout en réduisant les coûts d'inférence. Entraîné sur des données de haute qualité, multilingues et provenant de sources variées, il possède de puissantes capacités générales et prend en charge les entrées multimodales, y compris le texte, l'image, l'audio et la vidéo, permettant la compréhension et la génération de contenus intermodaux."
},
"Qwen/Qwen3-Omni-30B-A3B-Thinking": {
"description": "Qwen3-Omni-30B-A3B-Thinking est le composant central \"penseur\" (Thinker) du modèle multimodal Qwen3-Omni. Il est conçu pour traiter des entrées multimodales telles que le texte, l'audio, l'image et la vidéo, et pour exécuter des chaînes de raisonnement complexes. En tant que cerveau de l'inférence, ce modèle unifie toutes les entrées dans un espace de représentation commun, permettant une compréhension approfondie et un raisonnement complexe intermodal. Basé sur une architecture d'experts mixtes (MoE) avec 30 milliards de paramètres totaux et 3 milliards de paramètres activés, il maintient une forte capacité de raisonnement tout en optimisant l'efficacité du calcul."
},
"Qwen/Qwen3-VL-235B-A22B-Instruct": {
"description": "Qwen3-VL-235B-A22B-Instruct est un grand modèle de la série Qwen3-VL, affiné par instructions, basé sur une architecture à experts mixtes (MoE). Il offre d'excellentes capacités de compréhension et de génération multimodales, prend en charge nativement un contexte de 256K, et convient aux services multimodaux de production à haute concurrence."
},
"Qwen/Qwen3-VL-235B-A22B-Thinking": {
"description": "Qwen3-VL-235B-A22B-Thinking est la version phare de raisonnement de la série Qwen3-VL, spécialement optimisée pour le raisonnement multimodal complexe, le raisonnement sur de longs contextes et l'interaction avec des agents intelligents. Elle est adaptée aux scénarios d'entreprise nécessitant une réflexion approfondie et un raisonnement visuel avancé."
},
"Qwen/Qwen3-VL-30B-A3B-Instruct": {
"description": "Qwen3-VL-30B-A3B-Instruct est une version de la série Qwen3-VL affinée par instructions, dotée de puissantes capacités de compréhension et de génération visuo-langagières. Elle prend en charge nativement une longueur de contexte de 256K, idéale pour les dialogues multimodaux et les tâches de génération conditionnée par image."
},
"Qwen/Qwen3-VL-30B-A3B-Thinking": {
"description": "Qwen3-VL-30B-A3B-Thinking est une version renforcée pour le raisonnement (Thinking) de Qwen3-VL, optimisée pour le raisonnement multimodal, la génération de code à partir d'images et les tâches complexes de compréhension visuelle. Elle prend en charge un contexte de 256K et dispose de capacités accrues de raisonnement en chaîne."
},
"Qwen/Qwen3-VL-32B-Instruct": {
"description": "Qwen3-VL-32B-Instruct est un modèle de langage visuel développé par l'équipe Tongyi Qianwen d'Alibaba, ayant atteint des performances SOTA sur plusieurs benchmarks de langage visuel. Il prend en charge des images haute résolution de niveau mégapixel et possède de puissantes capacités de compréhension visuelle générale, de reconnaissance optique multilingue (OCR), de localisation visuelle fine et de dialogue visuel. En tant que modèle de langage visuel de la série Qwen3, il est capable de gérer des tâches multimodales complexes et prend en charge des fonctions avancées telles que l'appel d'outils et la génération conditionnelle par préfixe."
},
"Qwen/Qwen3-VL-32B-Thinking": {
"description": "Qwen3-VL-32B-Thinking est une version optimisée du modèle de langage visuel développé par l'équipe Tongyi Qianwen d'Alibaba, spécialement conçue pour les tâches de raisonnement visuel complexe. Ce modèle intègre un \"mode de réflexion\" qui lui permet de générer des étapes de raisonnement intermédiaires détaillées avant de répondre, améliorant ainsi considérablement ses performances dans les tâches nécessitant une logique multi-étapes, de la planification et un raisonnement complexe. Il prend en charge des images haute résolution de niveau mégapixel, avec de solides capacités de compréhension visuelle générale, d'OCR multilingue, de localisation visuelle fine et de dialogue visuel, tout en prenant en charge l'appel d'outils et la génération conditionnelle par préfixe."
},
"Qwen/Qwen3-VL-8B-Instruct": {
"description": "Qwen3-VL-8B-Instruct est un modèle de langage visuel de la série Qwen3, développé à partir de Qwen3-8B-Instruct et entraîné sur un grand volume de données image-texte. Il excelle dans la compréhension visuelle générale, les dialogues centrés sur limage et la reconnaissance multilingue de texte dans les images. Il est adapté aux cas dusage tels que les questions-réponses visuelles, la description dimages, le suivi dinstructions multimodales et lappel doutils."
},
"Qwen/Qwen3-VL-8B-Thinking": {
"description": "Qwen3-VL-8B-Thinking est la version orientée raisonnement visuel de la série Qwen3, optimisée pour les tâches complexes de raisonnement en plusieurs étapes. Par défaut, il génère une chaîne de réflexion (thinking chain) avant de répondre, afin daméliorer la précision du raisonnement. Il est particulièrement adapté aux scénarios nécessitant une analyse approfondie, comme les questions-réponses visuelles complexes ou lexamen détaillé du contenu dune image."
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 est la dernière série du modèle Qwen, prenant en charge un contexte de 128k. Comparé aux meilleurs modèles open source actuels, Qwen2-72B surpasse de manière significative les modèles leaders dans des domaines tels que la compréhension du langage naturel, les connaissances, le code, les mathématiques et le multilinguisme."
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 est la dernière série du modèle Qwen, capable de surpasser les meilleurs modèles open source de taille équivalente, voire de plus grande taille. Qwen2 7B a obtenu des résultats significatifs dans plusieurs évaluations, en particulier en ce qui concerne la compréhension du code et du chinois."
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B est un puissant modèle de langage visuel, prenant en charge le traitement multimodal d'images et de textes, capable de reconnaître avec précision le contenu des images et de générer des descriptions ou des réponses pertinentes."
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct est un grand modèle de langage de 14 milliards de paramètres, offrant d'excellentes performances, optimisé pour les scénarios en chinois et multilingues, prenant en charge des applications telles que les questions-réponses intelligentes et la génération de contenu."
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct est un grand modèle de langage de 32 milliards de paramètres, offrant des performances équilibrées, optimisé pour les scénarios en chinois et multilingues, prenant en charge des applications telles que les questions-réponses intelligentes et la génération de contenu."
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct prend en charge un contexte de 16k, générant des textes longs de plus de 8K. Il permet des appels de fonction et une interaction transparente avec des systèmes externes, augmentant considérablement la flexibilité et l'évolutivité. Les connaissances du modèle ont considérablement augmenté, et ses capacités en codage et en mathématiques ont été grandement améliorées, avec un support multilingue dépassant 29 langues."
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct est un grand modèle de langage de 7 milliards de paramètres, prenant en charge les appels de fonction et l'interaction transparente avec des systèmes externes, améliorant considérablement la flexibilité et l'évolutivité. Optimisé pour les scénarios en chinois et multilingues, il prend en charge des applications telles que les questions-réponses intelligentes et la génération de contenu."
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct est un modèle d'instructions de programmation basé sur un pré-entraînement à grande échelle, doté d'une puissante capacité de compréhension et de génération de code, capable de traiter efficacement diverses tâches de programmation, particulièrement adapté à la rédaction de code intelligent, à la génération de scripts automatisés et à la résolution de problèmes de programmation."
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct est un grand modèle de langage conçu pour la génération de code, la compréhension de code et les scénarios de développement efficaces, avec une échelle de 32 milliards de paramètres, répondant à des besoins de programmation variés."
},
"Qwen3-235B": {
"description": "Qwen3-235B-A22B est un modèle MoE (modèle d'experts mixtes) qui introduit un « mode de raisonnement hybride », permettant aux utilisateurs de basculer sans interruption entre le « mode réflexif » et le « mode non réflexif ». Il prend en charge la compréhension et le raisonnement dans 119 langues et dialectes, et dispose de puissantes capacités d'appel d'outils. Sur plusieurs benchmarks, notamment en capacités globales, codage et mathématiques, multilinguisme, connaissances et raisonnement, il rivalise avec les principaux grands modèles du marché tels que DeepSeek R1, OpenAI o1, o3-mini, Grok 3 et Google Gemini 2.5 Pro."
},
"Qwen3-235B-A22B-Instruct-2507-FP8": {
"description": "Qwen3 235B A22B Instruct 2507 : modèle optimisé pour le raisonnement avancé et les instructions de dialogue, avec une architecture à experts mixtes pour maintenir l'efficacité de l'inférence à grande échelle."
},
"Qwen3-32B": {
"description": "Qwen3-32B est un modèle dense (Dense Model) qui introduit un « mode de raisonnement hybride », permettant aux utilisateurs de basculer sans interruption entre le « mode réflexif » et le « mode non réflexif ». Grâce à des améliorations de l'architecture du modèle, à l'augmentation des données d'entraînement et à des méthodes d'entraînement plus efficaces, ses performances globales sont comparables à celles de Qwen2.5-72B."
},
"SenseChat": {
"description": "Modèle de version de base (V4), longueur de contexte de 4K, avec de puissantes capacités générales."
},
"SenseChat-128K": {
"description": "Modèle de version de base (V4), longueur de contexte de 128K, excellent dans les tâches de compréhension et de génération de longs textes."
},
"SenseChat-32K": {
"description": "Modèle de version de base (V4), longueur de contexte de 32K, appliqué de manière flexible à divers scénarios."
},
"SenseChat-5": {
"description": "Modèle de dernière version (V5.5), longueur de contexte de 128K, avec des capacités significativement améliorées dans le raisonnement mathématique, les dialogues en anglais, le suivi d'instructions et la compréhension de longs textes, rivalisant avec GPT-4o."
},
"SenseChat-5-1202": {
"description": "Basé sur la version V5.5 la plus récente, avec des améliorations significatives par rapport à la version précédente dans plusieurs dimensions telles que les capacités de base en chinois et en anglais, le dialogue, les connaissances scientifiques, les connaissances littéraires, la rédaction, la logique mathématique et le contrôle du nombre de mots."
},
"SenseChat-5-Cantonese": {
"description": "Longueur de contexte de 32K, surpassant GPT-4 dans la compréhension des dialogues en cantonais, rivalisant avec GPT-4 Turbo dans plusieurs domaines tels que les connaissances, le raisonnement, les mathématiques et la rédaction de code."
},
"SenseChat-5-beta": {
"description": "Certaines performances surpassent celles de SenseCat-5-1202"
},
"SenseChat-Character": {
"description": "Modèle standard, longueur de contexte de 8K, avec une grande rapidité de réponse."
},
"SenseChat-Character-Pro": {
"description": "Modèle avancé, longueur de contexte de 32K, avec des capacités globalement améliorées, prenant en charge les dialogues en chinois et en anglais."
},
"SenseChat-Turbo": {
"description": "Conçu pour des questions-réponses rapides et des scénarios de micro-ajustement du modèle."
},
"SenseChat-Turbo-1202": {
"description": "C'est le dernier modèle léger, atteignant plus de 90 % des capacités du modèle complet, tout en réduisant considérablement le coût d'inférence."
},
"SenseChat-Vision": {
"description": "Le dernier modèle (V5.5) prend en charge l'entrée de plusieurs images, optimisant les capacités de base du modèle, avec des améliorations significatives dans la reconnaissance des attributs d'objets, les relations spatiales, la reconnaissance d'événements d'action, la compréhension de scènes, la reconnaissance des émotions, le raisonnement de bon sens logique et la compréhension et génération de texte."
},
"SenseNova-V6-5-Pro": {
"description": "Grâce à une mise à jour complète des données multimodales, linguistiques et de raisonnement ainsi qu'à l'optimisation des stratégies d'entraînement, le nouveau modèle réalise des progrès significatifs en matière de raisonnement multimodal et de suivi généralisé des instructions. Il prend en charge une fenêtre contextuelle allant jusqu'à 128k et excelle dans des tâches spécialisées telles que la reconnaissance OCR et l'identification des propriétés intellectuelles dans le secteur du tourisme culturel."
},
"SenseNova-V6-5-Turbo": {
"description": "Grâce à une mise à jour complète des données multimodales, linguistiques et de raisonnement ainsi qu'à l'optimisation des stratégies d'entraînement, le nouveau modèle réalise des progrès significatifs en matière de raisonnement multimodal et de suivi généralisé des instructions. Il prend en charge une fenêtre contextuelle allant jusqu'à 128k et excelle dans des tâches spécialisées telles que la reconnaissance OCR et l'identification des propriétés intellectuelles dans le secteur du tourisme culturel."
},
"SenseNova-V6-Pro": {
"description": "Réaliser une unification native des capacités d'image, de texte et de vidéo, briser les limitations traditionnelles de la multimodalité discrète, remportant le double championnat dans les évaluations OpenCompass et SuperCLUE."
},
"SenseNova-V6-Reasoner": {
"description": "Allier raisonnement visuel et linguistique en profondeur, réaliser une réflexion lente et un raisonnement approfondi, présentant un processus de chaîne de pensée complet."
},
"SenseNova-V6-Turbo": {
"description": "Réaliser une unification native des capacités d'image, de texte et de vidéo, briser les limitations traditionnelles de la multimodalité discrète, être en tête dans des dimensions clés telles que les capacités multimodales et linguistiques, alliant rigueur et créativité, se classant à plusieurs reprises parmi les meilleurs niveaux nationaux et internationaux dans divers évaluations."
},
"Skylark2-lite-8k": {
"description": "Le modèle de deuxième génération Skylark (Skylark2-lite) présente une grande rapidité de réponse, adapté à des scénarios nécessitant une réactivité élevée, sensible aux coûts, avec des exigences de précision de modèle moins élevées, avec une longueur de fenêtre de contexte de 8k."
},
"Skylark2-pro-32k": {
"description": "Le modèle de deuxième génération Skylark (Skylark2-pro) offre une précision élevée, adapté à des scénarios de génération de texte plus complexes tels que la création de contenu dans des domaines professionnels, la rédaction de romans et les traductions de haute qualité, avec une longueur de fenêtre de contexte de 32k."
},
"Skylark2-pro-4k": {
"description": "Le modèle de deuxième génération Skylark (Skylark2-pro) offre une précision élevée, adapté à des scénarios de génération de texte plus complexes tels que la création de contenu dans des domaines professionnels, la rédaction de romans et les traductions de haute qualité, avec une longueur de fenêtre de contexte de 4k."
},
"Skylark2-pro-character-4k": {
"description": "Le modèle de deuxième génération Skylark (Skylark2-pro-character) possède d'excellentes capacités de jeu de rôle et de chat, capable d'interagir suivant les instructions des utilisateurs, avec un style de personnage distinct et un contenu de dialogue fluide. Il est approprié pour construire des chatbots, des assistants virtuels et des services clients en ligne, avec une grande rapidité de réponse."
},
"Skylark2-pro-turbo-8k": {
"description": "Le modèle de deuxième génération Skylark (Skylark2-pro-turbo-8k) offre un raisonnement plus rapide et un coût réduit, avec une longueur de fenêtre de contexte de 8k."
},
"THUDM/GLM-4-32B-0414": {
"description": "GLM-4-32B-0414 est le nouveau modèle open source de la série GLM, avec 32 milliards de paramètres. Ce modèle rivalise avec les performances des séries GPT d'OpenAI et V3/R1 de DeepSeek."
},
"THUDM/GLM-4-9B-0414": {
"description": "GLM-4-9B-0414 est un modèle de petite taille de la série GLM, avec 9 milliards de paramètres. Ce modèle hérite des caractéristiques techniques de la série GLM-4-32B, tout en offrant une option de déploiement plus légère. Bien que de taille réduite, GLM-4-9B-0414 excelle toujours dans des tâches telles que la génération de code, la conception de sites web, la génération de graphiques SVG et l'écriture basée sur la recherche."
},
"THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking est un modèle de langage visuel open source (VLM) publié conjointement par Zhipu AI et le laboratoire KEG de l'Université Tsinghua, conçu pour traiter des tâches cognitives multimodales complexes. Ce modèle est basé sur le modèle de base GLM-4-9B-0414 et intègre un mécanisme de raisonnement « chaîne de pensée » (Chain-of-Thought) ainsi qu'une stratégie d'apprentissage par renforcement, améliorant significativement ses capacités de raisonnement intermodal et sa stabilité."
},
"THUDM/GLM-Z1-32B-0414": {
"description": "GLM-Z1-32B-0414 est un modèle de raisonnement avec des capacités de réflexion profonde. Ce modèle est basé sur GLM-4-32B-0414, développé par un démarrage à froid et un apprentissage par renforcement étendu, et a été formé davantage sur des tâches de mathématiques, de code et de logique. Par rapport au modèle de base, GLM-Z1-32B-0414 améliore considérablement les capacités mathématiques et la résolution de tâches complexes."
},
"THUDM/GLM-Z1-9B-0414": {
"description": "GLM-Z1-9B-0414 est un modèle de petite taille de la série GLM, avec seulement 9 milliards de paramètres, mais montrant des capacités étonnantes tout en maintenant la tradition open source. Bien que de taille réduite, ce modèle excelle dans le raisonnement mathématique et les tâches générales, avec des performances globales parmi les meilleures de sa catégorie dans les modèles open source."
},
"THUDM/GLM-Z1-Rumination-32B-0414": {
"description": "GLM-Z1-Rumination-32B-0414 est un modèle de raisonnement profond avec des capacités de réflexion (comparé à la recherche approfondie d'OpenAI). Contrairement aux modèles de réflexion typiques, le modèle de réflexion utilise des périodes de réflexion plus longues pour résoudre des problèmes plus ouverts et complexes."
},
"THUDM/glm-4-9b-chat": {
"description": "GLM-4 9B est une version open source, offrant une expérience de dialogue optimisée pour les applications de conversation."
},
"Tongyi-Zhiwen/QwenLong-L1-32B": {
"description": "QwenLong-L1-32B est le premier grand modèle de raisonnement à long contexte (LRM) entraîné par renforcement, optimisé pour les tâches de raisonnement sur de longs textes. Ce modèle utilise un cadre dapprentissage par renforcement à extension progressive du contexte, assurant une transition stable du court au long contexte. Sur sept benchmarks de questions-réponses à long contexte, QwenLong-L1-32B dépasse les modèles phares tels que OpenAI-o3-mini et Qwen3-235B-A22B, avec des performances comparables à Claude-3.7-Sonnet-Thinking. Il excelle particulièrement dans les tâches complexes de raisonnement mathématique, logique et multi-sauts."
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B, tout en maintenant les excellentes capacités linguistiques générales de la série originale, a considérablement amélioré ses compétences en logique mathématique et en codage grâce à un entraînement incrémental sur 500 milliards de tokens de haute qualité."
},
"abab5.5-chat": {
"description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles."
},
"abab5.5s-chat": {
"description": "Conçu pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues en chinois de haute qualité, adaptée à divers scénarios d'application."
},
"abab6.5g-chat": {
"description": "Conçu pour des dialogues de personnages multilingues, prenant en charge la génération de dialogues de haute qualité en anglais et dans d'autres langues."
},
"abab6.5s-chat": {
"description": "Adapté à une large gamme de tâches de traitement du langage naturel, y compris la génération de texte, les systèmes de dialogue, etc."
},
"abab6.5t-chat": {
"description": "Optimisé pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues fluide et conforme aux habitudes d'expression en chinois."
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 est un modèle de langage de grande taille à la pointe de la technologie, optimisé par apprentissage renforcé et données de démarrage à froid, offrant d'excellentes performances en raisonnement, mathématiques et programmation."
},
"accounts/fireworks/models/deepseek-v3": {
"description": "Modèle de langage puissant de Deepseek basé sur un mélange d'experts (MoE), avec un total de 671B de paramètres, activant 37B de paramètres par jeton."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Le modèle d'instructions Llama 3 70B est optimisé pour les dialogues multilingues et la compréhension du langage naturel, surpassant la plupart des modèles concurrents."
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Le modèle d'instructions Llama 3 8B est optimisé pour les dialogues et les tâches multilingues, offrant des performances exceptionnelles et efficaces."
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "Le modèle d'instructions Llama 3 8B (version HF) est conforme aux résultats de l'implémentation officielle, offrant une grande cohérence et une compatibilité multiplateforme."
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "Le modèle d'instructions Llama 3.1 405B, avec des paramètres de très grande échelle, est adapté aux tâches complexes et au suivi d'instructions dans des scénarios à forte charge."
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "Le modèle d'instructions Llama 3.1 70B offre une compréhension et une génération de langage exceptionnelles, idéal pour les tâches de dialogue et d'analyse."
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "Le modèle d'instructions Llama 3.1 8B est optimisé pour les dialogues multilingues, capable de surpasser la plupart des modèles open source et fermés sur des benchmarks industriels courants."
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 11B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Le modèle d'instructions Llama 3.2 3B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent les requêtes, la réécriture de prompts et l'assistance à l'écriture."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 90B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "Llama 3.3 70B Instruct est la version mise à jour de Llama 3.1 70B de décembre. Ce modèle a été amélioré par rapport à Llama 3.1 70B (publié en juillet 2024), renforçant les appels d'outils, le support multilingue, ainsi que les capacités en mathématiques et en programmation. Ce modèle atteint des niveaux de performance de pointe dans le raisonnement, les mathématiques et le respect des instructions, tout en offrant des performances similaires à celles du 3.1 405B, avec des avantages significatifs en termes de vitesse et de coût."
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "Modèle de 24B paramètres, doté de capacités de pointe comparables à celles de modèles plus grands."
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Le modèle d'instructions Mixtral MoE 8x22B, avec des paramètres à grande échelle et une architecture multi-experts, prend en charge efficacement le traitement de tâches complexes."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Le modèle d'instructions Mixtral MoE 8x7B, avec une architecture multi-experts, offre un suivi et une exécution d'instructions efficaces."
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Le modèle MythoMax L2 13B, combinant des techniques de fusion novatrices, excelle dans la narration et le jeu de rôle."
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Le modèle d'instructions Phi 3 Vision est un modèle multimodal léger, capable de traiter des informations visuelles et textuelles complexes, avec une forte capacité de raisonnement."
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Le modèle QwQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA."
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "La version 72B du modèle Qwen-VL est le fruit de la dernière itération d'Alibaba, représentant près d'un an d'innovation."
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 est une série de modèles de langage à décodage uniquement développée par l'équipe Qwen d'Alibaba Cloud. Ces modèles sont offerts en différentes tailles, y compris 0.5B, 1.5B, 3B, 7B, 14B, 32B et 72B, avec des variantes de base (base) et d'instruction (instruct)."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct est la dernière version de la série de modèles de langage à grande échelle spécifique au code publiée par Alibaba Cloud. Ce modèle, basé sur Qwen2.5, a été formé avec 55 trillions de tokens, améliorant considérablement les capacités de génération, de raisonnement et de correction de code. Il renforce non seulement les capacités de codage, mais maintient également des avantages en mathématiques et en compétences générales. Le modèle fournit une base plus complète pour des applications pratiques telles que les agents de code."
},
"accounts/yi-01-ai/models/yi-large": {
"description": "Le modèle Yi-Large offre d'excellentes capacités de traitement multilingue, adapté à diverses tâches de génération et de compréhension de langage."
},
"ai21-jamba-1.5-large": {
"description": "Un modèle multilingue de 398 milliards de paramètres (94 milliards actifs), offrant une fenêtre de contexte longue de 256K, des appels de fonction, une sortie structurée et une génération ancrée."
},
"ai21-jamba-1.5-mini": {
"description": "Un modèle multilingue de 52 milliards de paramètres (12 milliards actifs), offrant une fenêtre de contexte longue de 256K, des appels de fonction, une sortie structurée et une génération ancrée."
},
"ai21-labs/AI21-Jamba-1.5-Large": {
"description": "Un modèle multilingue de 398 milliards de paramètres (94 milliards actifs), offrant une fenêtre contextuelle longue de 256K, des appels de fonctions, une sortie structurée et une génération factuelle."
},
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Un modèle multilingue de 52 milliards de paramètres (12 milliards actifs), offrant une fenêtre contextuelle longue de 256K, des appels de fonctions, une sortie structurée et une génération factuelle."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct est le modèle de code le plus agentif de Qwen, avec des performances remarquables en codage agent, utilisation d'agents navigateurs et autres tâches de codage fondamentales, atteignant des résultats comparables à Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Un modèle multimodal à très faible coût, traitant les entrées d'images, vidéos et textes à une vitesse extrêmement rapide."
},
"amazon/nova-micro": {
"description": "Un modèle uniquement textuel offrant des réponses à latence minimale à très faible coût."
},
"amazon/nova-pro": {
"description": "Un modèle multimodal très performant, offrant le meilleur compromis entre précision, vitesse et coût, adapté à une large gamme de tâches."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 est un modèle d'embedding multilingue léger et efficace, supportant des dimensions de 1024, 512 et 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet a élevé les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, tout en affichant d'excellentes performances dans une large gamme d'évaluations, tout en conservant la vitesse et le coût de nos modèles de niveau intermédiaire."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, offrant une vitesse de réponse quasi instantanée. Il peut répondre rapidement à des requêtes et demandes simples. Les clients pourront construire une expérience AI transparente imitant l'interaction humaine. Claude 3 Haiku peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus est le modèle AI le plus puissant d'Anthropic, avec des performances de pointe sur des tâches hautement complexes. Il peut traiter des invites ouvertes et des scénarios non vus, avec une fluidité et une compréhension humaine exceptionnelles. Claude 3 Opus démontre les possibilités de génération AI à la pointe. Claude 3 Opus peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Claude 3 Sonnet d'Anthropic atteint un équilibre idéal entre intelligence et vitesse, particulièrement adapté aux charges de travail d'entreprise. Il offre une utilité maximale à un prix inférieur à celui des concurrents, conçu pour être un modèle fiable et durable, adapté aux déploiements AI à grande échelle. Claude 3 Sonnet peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
},
"anthropic.claude-instant-v1": {
"description": "Un modèle rapide, économique et toujours très capable, capable de traiter une série de tâches, y compris des conversations quotidiennes, l'analyse de texte, le résumé et les questions-réponses sur des documents."
},
"anthropic.claude-v2": {
"description": "Anthropic a démontré une grande capacité dans une large gamme de tâches, allant des dialogues complexes à la génération de contenu créatif, en passant par le suivi détaillé des instructions."
},
"anthropic.claude-v2:1": {
"description": "Version mise à jour de Claude 2, avec une fenêtre contextuelle doublée, ainsi que des améliorations en fiabilité, taux d'hallucination et précision basée sur des preuves dans des documents longs et des contextes RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku est le modèle le plus rapide d'Anthropic à ce jour, conçu pour les charges de travail d'entreprise impliquant généralement des invites longues. Haiku peut analyser rapidement de nombreux documents, tels que rapports trimestriels, contrats ou dossiers juridiques, à un coût moitié moindre que d'autres modèles de sa catégorie."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus est le modèle le plus intelligent d'Anthropic, offrant des performances de pointe sur des tâches très complexes. Il maîtrise avec fluidité et compréhension humaine les invites ouvertes et les scénarios inédits."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku offre des performances améliorées en vitesse, précision de codage et utilisation doutils. Idéal pour les scénarios exigeant une grande rapidité et une interaction fluide avec les outils."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet est un modèle rapide et efficace de la famille Sonnet, offrant de meilleures performances en codage et en raisonnement. Certaines versions seront progressivement remplacées par Sonnet 3.7 et autres."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet est une version améliorée de la série Sonnet, avec des capacités renforcées en raisonnement et en codage, adaptée aux tâches complexes de niveau entreprise."
},
"anthropic/claude-haiku-4.5": {
"description": "Claude Haiku 4.5 est un modèle rapide et performant dAnthropic, combinant haute précision et très faible latence."
},
"anthropic/claude-opus-4": {
"description": "Opus 4 est le modèle phare dAnthropic, conçu pour les tâches complexes et les applications de niveau entreprise."
},
"anthropic/claude-opus-4.1": {
"description": "Opus 4.1 est un modèle haut de gamme dAnthropic, optimisé pour la programmation, le raisonnement complexe et les tâches continues."
},
"anthropic/claude-opus-4.5": {
"description": "Claude Opus 4.5 est le modèle phare d'Anthropic, alliant une intelligence exceptionnelle à des performances évolutives. Il est idéal pour les tâches complexes nécessitant des réponses de très haute qualité et de solides capacités de raisonnement."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 est une version hybride de raisonnement dAnthropic, combinant capacités cognitives et non cognitives."
},
"anthropic/claude-sonnet-4.5": {
"description": "Claude Sonnet 4.5 est le dernier modèle hybride de raisonnement dAnthropic, optimisé pour le raisonnement complexe et le codage."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B est un grand modèle de langage sparse à 72 milliards de paramètres, avec 16 milliards de paramètres activés. Il repose sur une architecture Mixture of Experts groupée (MoGE), qui regroupe les experts lors de la sélection et contraint chaque token à activer un nombre égal d'experts dans chaque groupe, assurant ainsi un équilibre de charge entre les experts et améliorant considérablement l'efficacité de déploiement sur la plateforme Ascend."
},
"aya": {
"description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées."
},
"aya:35b": {
"description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées."
},
"azure-DeepSeek-R1-0528": {
"description": "Déployé et fourni par Microsoft ; le modèle DeepSeek R1 a bénéficié d'une mise à jour mineure, la version actuelle étant DeepSeek-R1-0528. Dans la dernière mise à jour, DeepSeek R1 a considérablement amélioré sa profondeur d'inférence et ses capacités de raisonnement grâce à l'augmentation des ressources de calcul et à l'introduction d'un mécanisme d'optimisation algorithmique en phase post-entraînement. Ce modèle excelle dans plusieurs benchmarks, notamment en mathématiques, programmation et logique générale, avec des performances globales proches des modèles de pointe tels que O3 et Gemini 2.5 Pro."
},
"baichuan-m2-32b": {
"description": "Baichuan M2 32B est un modèle à experts mixtes développé par Baichuan Intelligence, doté de puissantes capacités de raisonnement."
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B est un modèle de langage open source et commercialisable développé par Baichuan Intelligence, contenant 13 milliards de paramètres, qui a obtenu les meilleurs résultats dans des benchmarks chinois et anglais de référence."
},
"baidu/ERNIE-4.5-300B-A47B": {
"description": "ERNIE-4.5-300B-A47B est un grand modèle de langage développé par Baidu, basé sur une architecture Mixture of Experts (MoE). Avec un total de 300 milliards de paramètres, il n'active que 47 milliards de paramètres par token lors de l'inférence, garantissant ainsi une performance puissante tout en optimisant l'efficacité de calcul. En tant que modèle central de la série ERNIE 4.5, il excelle dans la compréhension, la génération, le raisonnement textuel et la programmation. Ce modèle utilise une méthode innovante de pré-entraînement multimodal hétérogène MoE, combinant entraînement sur texte et vision, ce qui améliore ses capacités globales, notamment dans le suivi des instructions et la mémoire des connaissances mondiales."
},
"baidu/ernie-5.0-thinking-preview": {
"description": "ERNIE 5.0 Thinking Preview est le nouveau modèle multimodal natif de Baidu, performant en compréhension multimodale, exécution dinstructions, création, questions factuelles et appel doutils."
},
"c4ai-aya-expanse-32b": {
"description": "Aya Expanse est un modèle multilingue haute performance de 32B, conçu pour défier les performances des modèles monolingues grâce à des innovations en matière d'optimisation par instructions, d'arbitrage de données, d'entraînement de préférences et de fusion de modèles. Il prend en charge 23 langues."
},
"c4ai-aya-expanse-8b": {
"description": "Aya Expanse est un modèle multilingue haute performance de 8B, conçu pour défier les performances des modèles monolingues grâce à des innovations en matière d'optimisation par instructions, d'arbitrage de données, d'entraînement de préférences et de fusion de modèles. Il prend en charge 23 langues."
},
"c4ai-aya-vision-32b": {
"description": "Aya Vision est un modèle multimodal de pointe, offrant d'excellentes performances sur plusieurs benchmarks clés en matière de langage, de texte et d'image. Cette version de 32 milliards de paramètres se concentre sur des performances multilingues de pointe."
},
"c4ai-aya-vision-8b": {
"description": "Aya Vision est un modèle multimodal de pointe, offrant d'excellentes performances sur plusieurs benchmarks clés en matière de langage, de texte et d'image. Cette version de 8 milliards de paramètres se concentre sur une faible latence et des performances optimales."
},
"charglm-3": {
"description": "CharGLM-3 est conçu pour le jeu de rôle et l'accompagnement émotionnel, prenant en charge une mémoire multi-tours ultra-longue et des dialogues personnalisés, avec des applications variées."
},
"charglm-4": {
"description": "CharGLM-4 est conçu pour le jeu de rôle et l'accompagnement émotionnel, prenant en charge une mémoire multi-tours ultra-longue et des dialogues personnalisés, avec une large gamme d'applications."
},
"chatgpt-4o-latest": {
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
},
"claude-2.0": {
"description": "Claude 2 offre des avancées clés pour les entreprises, y compris un contexte de 200K jetons, une réduction significative du taux d'illusion du modèle, des invites système et une nouvelle fonctionnalité de test : l'appel d'outils."
},
"claude-2.1": {
"description": "Claude 2 offre des avancées clés pour les entreprises, y compris un contexte de 200K jetons, une réduction significative du taux d'illusion du modèle, des invites système et une nouvelle fonctionnalité de test : l'appel d'outils."
},
"claude-3-5-haiku-20241022": {
"description": "Claude 3.5 Haiku est le modèle de prochaine génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, Claude 3.5 Haiku a amélioré ses compétences dans tous les domaines et a surpassé le plus grand modèle de la génération précédente, Claude 3 Opus, dans de nombreux tests de référence intellectuels."
},
"claude-3-5-haiku-latest": {
"description": "Claude 3.5 Haiku offre des réponses rapides, idéal pour les tâches légères."
},
"claude-3-7-sonnet-20250219": {
"description": "Claude 3.7 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
},
"claude-3-7-sonnet-latest": {
"description": "Claude 3.7 Sonnet est le modèle le plus puissant d'Anthropic pour traiter des tâches très complexes. Il excelle en performance, intelligence, fluidité et compréhension."
},
"claude-3-haiku-20240307": {
"description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, conçu pour des réponses quasi instantanées. Il présente des performances directionnelles rapides et précises."
},
"claude-3-opus-20240229": {
"description": "Claude 3 Opus est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension."
},
"claude-3-sonnet-20240229": {
"description": "Claude 3 Sonnet offre un équilibre idéal entre intelligence et vitesse pour les charges de travail d'entreprise. Il fournit une utilité maximale à un coût inférieur, fiable et adapté à un déploiement à grande échelle."
},
"claude-haiku-4-5-20251001": {
"description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, offrant une vitesse fulgurante et des capacités de raisonnement étendues."
},
"claude-opus-4-1-20250805": {
"description": "Claude Opus 4.1 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il se distingue par ses performances, son intelligence, sa fluidité et sa capacité de compréhension exceptionnelles."
},
"claude-opus-4-1-20250805-thinking": {
"description": "Claude Opus 4.1 est un modèle de réflexion capable de démontrer un raisonnement avancé."
},
"claude-opus-4-20250514": {
"description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension."
},
"claude-opus-4-5-20251101": {
"description": "Claude Opus 4.5 est le modèle phare d'Anthropic, alliant une intelligence exceptionnelle à des performances évolutives. Il est idéal pour les tâches complexes nécessitant des réponses de très haute qualité et de solides capacités de raisonnement."
},
"claude-sonnet-4-20250514": {
"description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou des réflexions prolongées étape par étape, visibles clairement par l'utilisateur."
},
"claude-sonnet-4-20250514-thinking": {
"description": "Le modèle de réflexion Claude Sonnet 4 produit des réponses quasi instantanées ou des raisonnements prolongés étape par étape, clairement visibles par l'utilisateur."
},
"claude-sonnet-4-5-20250929": {
"description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour."
},
"codegeex-4": {
"description": "CodeGeeX-4 est un puissant assistant de programmation AI, prenant en charge des questions intelligentes et l'achèvement de code dans divers langages de programmation, améliorant l'efficacité du développement."
},
"codegeex4-all-9b": {
"description": "CodeGeeX4-ALL-9B est un modèle de génération de code multilingue, offrant des fonctionnalités complètes, y compris la complétion et la génération de code, un interpréteur de code, une recherche sur le web, des appels de fonction et des questions-réponses sur le code au niveau des dépôts, couvrant divers scénarios de développement logiciel. C'est un modèle de génération de code de premier plan avec moins de 10B de paramètres."
},
"codegemma": {
"description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides."
},
"codegemma:2b": {
"description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides."
},
"codellama": {
"description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
},
"codellama/CodeLlama-34b-Instruct-hf": {
"description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
},
"codellama:13b": {
"description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
},
"codellama:34b": {
"description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
},
"codellama:70b": {
"description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement."
},
"codeqwen": {
"description": "CodeQwen1.5 est un modèle de langage à grande échelle entraîné sur une grande quantité de données de code, conçu pour résoudre des tâches de programmation complexes."
},
"codestral": {
"description": "Codestral est le premier modèle de code de Mistral AI, offrant un excellent soutien pour les tâches de génération de code."
},
"codestral-latest": {
"description": "Codestral est un modèle de génération de pointe axé sur la génération de code, optimisé pour les tâches de remplissage intermédiaire et de complétion de code."
},
"codex-mini-latest": {
"description": "codex-mini-latest est une version affinée de o4-mini, spécialement conçue pour Codex CLI. Pour une utilisation directe via l'API, nous recommandons de commencer par gpt-4.1."
},
"cogito-2.1:671b": {
"description": "Cogito v2.1 671B est un grand modèle de langage open source américain à usage commercial gratuit, offrant des performances comparables aux meilleurs modèles, une efficacité de raisonnement par token élevée, un contexte long de 128k et de solides capacités générales."
},
"cogview-4": {
"description": "CogView-4 est le premier modèle open source de génération d'images à partir de texte de Zhizhu, prenant en charge la génération de caractères chinois. Il offre une amélioration globale en compréhension sémantique, qualité de génération d'images, et capacité de génération de textes en chinois et en anglais. Il supporte une entrée bilingue chinois-anglais de longueur arbitraire et peut générer des images à n'importe quelle résolution dans une plage donnée."
},
"cohere-command-r": {
"description": "Command R est un modèle génératif évolutif ciblant RAG et l'utilisation d'outils pour permettre une IA à l'échelle de la production pour les entreprises."
},
"cohere-command-r-plus": {
"description": "Command R+ est un modèle optimisé RAG de pointe conçu pour traiter des charges de travail de niveau entreprise."
},
"cohere/Cohere-command-r": {
"description": "Command R est un modèle génératif évolutif conçu pour l'utilisation avec RAG et les outils, permettant aux entreprises de déployer une IA de niveau production."
},
"cohere/Cohere-command-r-plus": {
"description": "Command R+ est un modèle optimisé RAG de pointe, conçu pour gérer des charges de travail d'entreprise."
},
"cohere/command-a": {
"description": "Command A est le modèle le plus performant de Cohere à ce jour, excellent dans l'utilisation d'outils, les agents, la génération augmentée par récupération (RAG) et les cas multilingues. Avec une longueur de contexte de 256K, il fonctionne sur seulement deux GPU, offrant un débit 150 % supérieur à Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R est un grand modèle de langage optimisé pour les interactions conversationnelles et les tâches à long contexte. Il se positionne dans la catégorie \"scalable\", équilibrant haute performance et forte précision, permettant aux entreprises de dépasser la preuve de concept pour la production."
},
"cohere/command-r-plus": {
"description": "Command R+ est le dernier grand modèle de langage de Cohere, optimisé pour les interactions conversationnelles et les tâches à long contexte. Il vise une performance exceptionnelle, permettant aux entreprises de passer de la preuve de concept à la production."
},
"cohere/embed-v4.0": {
"description": "Un modèle permettant de classifier ou de transformer en embeddings des textes, images ou contenus mixtes."
},
"comfyui/flux-dev": {
"description": "FLUX.1 Dev - Modèle de génération d'images à partir de texte de haute qualité, 10 à 50 étapes de génération, idéal pour la création artistique et les œuvres visuelles de qualité."
},
"comfyui/flux-kontext-dev": {
"description": "FLUX.1 Kontext-dev - Modèle d'édition d'image, permet de modifier des images existantes à l'aide d'instructions textuelles, avec prise en charge des modifications locales et du transfert de style."
},
"comfyui/flux-krea-dev": {
"description": "FLUX.1 Krea-dev - Modèle de génération d'images à partir de texte avec sécurité renforcée, développé en collaboration avec Krea, intègre un filtrage de sécurité."
},
"comfyui/flux-schnell": {
"description": "FLUX.1 Schnell - Modèle ultra-rapide de génération d'images à partir de texte, produit des images de haute qualité en 1 à 4 étapes, idéal pour les applications en temps réel et le prototypage rapide."
},
"comfyui/stable-diffusion-15": {
"description": "Stable Diffusion 1.5 - Modèle classique de génération d'images à partir de texte en résolution 512x512, adapté au prototypage rapide et aux expérimentations créatives."
},
"comfyui/stable-diffusion-35": {
"description": "Stable Diffusion 3.5 - Modèle de nouvelle génération pour la génération d'images à partir de texte, disponible en versions Large et Medium, nécessite un fichier d'encodeur CLIP externe, offre une qualité d'image exceptionnelle et une grande fidélité aux invites textuelles."
},
"comfyui/stable-diffusion-35-inclclip": {
"description": "Stable Diffusion 3.5 avec encodeur CLIP/T5 intégré - Ne nécessite pas de fichier d'encodeur externe, compatible avec des modèles comme sd3.5_medium_incl_clips, avec une consommation de ressources réduite."
},
"comfyui/stable-diffusion-custom": {
"description": "Modèle personnalisé SD pour la génération d'images à partir de texte. Le fichier du modèle doit être nommé custom_sd_lobe.safetensors. Si un VAE est utilisé, nommez-le custom_sd_vae_lobe.safetensors. Les fichiers doivent être placés dans les dossiers requis selon les spécifications de Comfy."
},
"comfyui/stable-diffusion-custom-refiner": {
"description": "Modèle personnalisé SDXL pour la transformation d'image à image. Le fichier du modèle doit être nommé custom_sd_lobe.safetensors. Si un VAE est utilisé, nommez-le custom_sd_vae_lobe.safetensors. Les fichiers doivent être placés dans les dossiers requis selon les spécifications de Comfy."
},
"comfyui/stable-diffusion-refiner": {
"description": "Modèle SDXL de transformation d'image à image, permet une conversion d'image de haute qualité à partir d'une image source, avec prise en charge du transfert de style, de la restauration d'image et des transformations créatives."
},
"comfyui/stable-diffusion-xl": {
"description": "Modèle SDXL de génération d'images à partir de texte, prend en charge une résolution élevée de 1024x1024, offrant une qualité d'image supérieure et un meilleur rendu des détails."
},
"command": {
"description": "Un modèle de dialogue qui suit des instructions, offrant une haute qualité et une fiabilité accrue dans les tâches linguistiques, avec une longueur de contexte plus longue que notre modèle de génération de base."
},
"command-a-03-2025": {
"description": "Command A est notre modèle le plus performant à ce jour, offrant d'excellentes performances dans l'utilisation d'outils, l'agent, la génération augmentée par récupération (RAG) et les applications multilingues. Command A a une longueur de contexte de 256K, nécessite seulement deux GPU pour fonctionner, et a amélioré le débit de 150 % par rapport à Command R+ 08-2024."
},
"command-light": {
"description": "Une version plus petite et plus rapide de Command, presque aussi puissante, mais plus rapide."
},
"command-light-nightly": {
"description": "Pour réduire l'intervalle de temps entre les versions majeures, nous avons lancé une version nocturne du modèle Command. Pour la série command-light, cette version est appelée command-light-nightly. Veuillez noter que command-light-nightly est la version la plus récente, la plus expérimentale et (potentiellement) instable. Les versions nocturnes sont mises à jour régulièrement sans préavis, il n'est donc pas recommandé de les utiliser en production."
},
"command-nightly": {
"description": "Pour réduire l'intervalle de temps entre les versions majeures, nous avons lancé une version nocturne du modèle Command. Pour la série Command, cette version est appelée command-cightly. Veuillez noter que command-nightly est la version la plus récente, la plus expérimentale et (potentiellement) instable. Les versions nocturnes sont mises à jour régulièrement sans préavis, il n'est donc pas recommandé de les utiliser en production."
},
"command-r": {
"description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances."
},
"command-r-03-2024": {
"description": "Command R est un modèle de dialogue qui suit des instructions, offrant une qualité supérieure et une fiabilité accrue dans les tâches linguistiques, avec une longueur de contexte plus longue que les modèles précédents. Il peut être utilisé pour des flux de travail complexes tels que la génération de code, la génération augmentée par récupération (RAG), l'utilisation d'outils et l'agent."
},
"command-r-08-2024": {
"description": "command-r-08-2024 est une version mise à jour du modèle Command R, publiée en août 2024."
},
"command-r-plus": {
"description": "Command R+ est un modèle de langage de grande taille à haute performance, conçu pour des scénarios d'entreprise réels et des applications complexes."
},
"command-r-plus-04-2024": {
"description": "Command R+ est un modèle de dialogue qui suit des instructions, offrant une qualité supérieure et une fiabilité accrue dans les tâches linguistiques, avec une longueur de contexte plus longue que les modèles précédents. Il est particulièrement adapté aux flux de travail RAG complexes et à l'utilisation d'outils en plusieurs étapes."
},
"command-r-plus-08-2024": {
"description": "Command R+ est un modèle de dialogue qui suit les instructions, offrant une qualité supérieure et une fiabilité accrue dans les tâches linguistiques, avec une longueur de contexte plus longue par rapport aux modèles précédents. Il est particulièrement adapté aux flux de travail RAG complexes et à l'utilisation d'outils en plusieurs étapes."
},
"command-r7b-12-2024": {
"description": "command-r7b-12-2024 est une version mise à jour, petite et efficace, publiée en décembre 2024. Il excelle dans les tâches nécessitant un raisonnement complexe et un traitement en plusieurs étapes, comme RAG, l'utilisation d'outils et l'agent."
},
"computer-use-preview": {
"description": "Le modèle computer-use-preview est un modèle dédié conçu pour les « outils d'utilisation informatique », entraîné pour comprendre et exécuter des tâches liées à l'informatique."
},
"dall-e-2": {
"description": "Le deuxième modèle DALL·E, prenant en charge la génération d'images plus réalistes et précises, avec une résolution quatre fois supérieure à celle de la première génération."
},
"dall-e-3": {
"description": "Le dernier modèle DALL·E, publié en novembre 2023. Prend en charge la génération d'images plus réalistes et précises, avec une meilleure expressivité des détails."
},
"databricks/dbrx-instruct": {
"description": "DBRX Instruct offre des capacités de traitement d'instructions hautement fiables, prenant en charge des applications dans divers secteurs."
},
"deepseek-ai/DeepSeek-OCR": {
"description": "DeepSeek-OCR est un modèle de langage visuel développé par DeepSeek AI, spécialisé dans la reconnaissance optique de caractères (OCR) et la \"compression optique contextuelle\". Ce modèle explore les limites de la compression d'informations contextuelles à partir d'images, permettant un traitement efficace des documents et leur conversion en formats de texte structurés tels que Markdown. Il est capable de reconnaître avec précision le contenu textuel des images, ce qui le rend particulièrement adapté à la numérisation de documents, à l'extraction de texte et au traitement structuré."
},
"deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 est un modèle d'inférence alimenté par l'apprentissage par renforcement (RL), qui résout les problèmes de répétitivité et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant ainsi les performances d'inférence. Il se compare à OpenAI-o1 en matière de tâches mathématiques, de code et d'inférence, et améliore l'efficacité globale grâce à des méthodes d'entraînement soigneusement conçues."
},
"deepseek-ai/DeepSeek-R1-0528": {
"description": "DeepSeek R1 améliore significativement la profondeur de ses capacités de raisonnement et dinférence grâce à lutilisation accrue des ressources de calcul et à lintroduction de mécanismes doptimisation algorithmique durant la phase post-entraînement. Ce modèle excelle dans divers benchmarks, notamment en mathématiques, programmation et logique générale. Ses performances globales se rapprochent désormais des modèles de pointe tels que O3 et Gemini 2.5 Pro."
},
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
"description": "DeepSeek-R1-0528-Qwen3-8B est un modèle obtenu par distillation de la chaîne de pensée du modèle DeepSeek-R1-0528 vers Qwen3 8B Base. Ce modèle atteint des performances de pointe (SOTA) parmi les modèles open source, surpassant Qwen3 8B de 10 % lors du test AIME 2024 et atteignant le niveau de performance de Qwen3-235B-thinking. Il excelle dans les benchmarks de raisonnement mathématique, programmation et logique générale, partageant la même architecture que Qwen3-8B mais utilisant la configuration de tokenizer de DeepSeek-R1-0528."
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
"description": "Le modèle distillé DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "Le modèle distillé DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
"description": "Le modèle distillé DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1-Distill-Qwen-32B est un modèle obtenu par distillation de Qwen2.5-32B. Ce modèle a été affiné avec 800 000 échantillons sélectionnés générés par DeepSeek-R1, montrant des performances exceptionnelles dans plusieurs domaines tels que les mathématiques, la programmation et le raisonnement. Il a obtenu d'excellents résultats dans plusieurs tests de référence, atteignant 94,3 % de précision dans MATH-500, démontrant une forte capacité de raisonnement mathématique."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B est un modèle obtenu par distillation de Qwen2.5-Math-7B. Ce modèle a été affiné avec 800 000 échantillons sélectionnés générés par DeepSeek-R1, montrant d'excellentes capacités d'inférence. Il a obtenu d'excellents résultats dans plusieurs tests de référence, atteignant 92,8 % de précision dans MATH-500, 55,5 % de taux de réussite dans AIME 2024, et un score de 1189 sur CodeForces, démontrant de fortes capacités en mathématiques et en programmation pour un modèle de 7B."
},
"deepseek-ai/DeepSeek-V2.5": {
"description": "DeepSeek V2.5 intègre les excellentes caractéristiques des versions précédentes, renforçant les capacités générales et de codage."
},
"deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 est un modèle de langage à experts mixtes (MoE) avec 6710 milliards de paramètres, utilisant une attention potentielle multi-tête (MLA) et l'architecture DeepSeekMoE, combinée à une stratégie d'équilibrage de charge sans perte auxiliaire, optimisant ainsi l'efficacité d'inférence et d'entraînement. En pré-entraînant sur 14,8 billions de tokens de haute qualité, suivi d'un ajustement supervisé et d'apprentissage par renforcement, DeepSeek-V3 surpasse les autres modèles open source en termes de performance, se rapprochant des modèles fermés de premier plan."
},
"deepseek-ai/DeepSeek-V3.1": {
"description": "Le modèle DeepSeek V3.1 est basé sur une architecture de raisonnement hybride, prenant en charge à la fois les modes de réflexion et non réflexifs."
},
"deepseek-ai/DeepSeek-V3.1-Terminus": {
"description": "DeepSeek-V3.1-Terminus est une version mise à jour du modèle V3.1 publiée par DeepSeek, positionnée comme un grand modèle de langage hybride pour agents intelligents. Cette mise à jour conserve les capacités originales du modèle tout en se concentrant sur la correction des problèmes signalés par les utilisateurs et l'amélioration de la stabilité. Elle améliore significativement la cohérence linguistique, réduisant le mélange de chinois et d'anglais ainsi que l'apparition de caractères anormaux. Le modèle intègre un « mode réflexion » (Thinking Mode) et un « mode non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre ces modes via des modèles de conversation adaptés à différentes tâches. En tant qu'optimisation majeure, V3.1-Terminus renforce les performances des agents de code (Code Agent) et de recherche (Search Agent), rendant leur appel d'outils et l'exécution de tâches complexes en plusieurs étapes plus fiables."
},
"deepseek-ai/DeepSeek-V3.2-Exp": {
"description": "DeepSeek-V3.2-Exp est une version expérimentale V3.2 publiée par DeepSeek, servant d'étape intermédiaire vers une architecture de nouvelle génération. Basée sur la V3.1-Terminus, elle introduit le mécanisme d'attention clairsemée DeepSeek (DeepSeek Sparse Attention, DSA) afin d'améliorer l'efficacité de l'entraînement et de l'inférence sur de longs contextes. Elle est spécialement optimisée pour l'appel d'outils, la compréhension de longs documents et le raisonnement en plusieurs étapes. V3.2-Exp fait le lien entre la recherche et l'industrialisation, idéale pour les utilisateurs souhaitant explorer une efficacité de raisonnement accrue dans des scénarios à budget contextuel élevé."
},
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité."
},
"deepseek-ai/deepseek-r1": {
"description": "LLM avancé et efficace, spécialisé dans le raisonnement, les mathématiques et la programmation."
},
"deepseek-ai/deepseek-v3.1": {
"description": "DeepSeek V3.1 : modèle de raisonnement de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
},
"deepseek-ai/deepseek-v3.1-terminus": {
"description": "DeepSeek V3.1 : un modèle de raisonnement de nouvelle génération, améliorant les capacités de raisonnement complexe et de pensée en chaîne, idéal pour les tâches nécessitant une analyse approfondie."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 est un modèle de langage visuel à experts mixtes (MoE) développé sur la base de DeepSeekMoE-27B, utilisant une architecture MoE à activation sparse, réalisant des performances exceptionnelles tout en n'activant que 4,5 milliards de paramètres. Ce modèle excelle dans plusieurs tâches telles que la question-réponse visuelle, la reconnaissance optique de caractères, la compréhension de documents/tableaux/graphes et le positionnement visuel."
},
"deepseek-chat": {
"description": "Un nouveau modèle open source qui fusionne des capacités générales et de code, conservant non seulement la capacité de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'alignant également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi des instructions."
},
"deepseek-coder-33B-instruct": {
"description": "DeepSeek Coder 33B est un modèle de langage de code, entraîné sur 20 trillions de données, dont 87 % sont du code et 13 % des langues chinoise et anglaise. Le modèle introduit une taille de fenêtre de 16K et des tâches de remplissage, offrant des fonctionnalités de complétion de code et de remplissage de fragments au niveau des projets."
},
"deepseek-coder-v2": {
"description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo."
},
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR est un modèle visuel-linguistique développé par DeepSeek AI, spécialisé dans la reconnaissance optique de caractères (OCR) et la « compression optique contextuelle ». Ce modèle vise à repousser les limites de la compression d'informations contextuelles à partir d'images, capable de traiter efficacement des documents et de les convertir en formats de texte structurés tels que Markdown. Il reconnaît avec précision le contenu textuel des images, ce qui le rend particulièrement adapté à la numérisation de documents, à l'extraction de texte et au traitement structuré."
},
"deepseek-r1": {
"description": "DeepSeek-R1 est un modèle d'inférence alimenté par l'apprentissage par renforcement (RL), qui résout les problèmes de répétitivité et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant ainsi les performances d'inférence. Il se compare à OpenAI-o1 en matière de tâches mathématiques, de code et d'inférence, et améliore l'efficacité globale grâce à des méthodes d'entraînement soigneusement conçues."
},
"deepseek-r1-0528": {
"description": "Modèle complet de 685 milliards de paramètres, publié le 28 mai 2025. DeepSeek-R1 utilise massivement l'apprentissage par renforcement en phase post-entraînement, améliorant considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Il excelle en mathématiques, codage, raisonnement en langage naturel et autres tâches complexes."
},
"deepseek-r1-250528": {
"description": "DeepSeek R1 250528, version complète du modèle d'inférence DeepSeek-R1, idéal pour les tâches complexes en mathématiques et en logique."
},
"deepseek-r1-70b-fast-online": {
"description": "DeepSeek R1 70B version rapide, prenant en charge la recherche en ligne en temps réel, offrant une vitesse de réponse plus rapide tout en maintenant les performances du modèle."
},
"deepseek-r1-70b-online": {
"description": "DeepSeek R1 70B version standard, prenant en charge la recherche en ligne en temps réel, adaptée aux tâches de dialogue et de traitement de texte nécessitant des informations à jour."
},
"deepseek-r1-distill-llama": {
"description": "deepseek-r1-distill-llama est un modèle dérivé par distillation de DeepSeek-R1 à partir de Llama."
},
"deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B, modèle distillé combinant les capacités d'inférence R1 avec l'écosystème Llama."
},
"deepseek-r1-distill-llama-8b": {
"description": "DeepSeek-R1-Distill-Llama-8B est un grand modèle de langage distillé basé sur Llama-3.1-8B, utilisant les sorties de DeepSeek R1."
},
"deepseek-r1-distill-qianfan-70b": {
"description": "DeepSeek R1 Distill Qianfan 70B, modèle distillé R1 basé sur Qianfan-70B, offrant un excellent rapport qualité-prix."
},
"deepseek-r1-distill-qianfan-8b": {
"description": "DeepSeek R1 Distill Qianfan 8B, modèle distillé R1 basé sur Qianfan-8B, adapté aux applications de taille moyenne à petite."
},
"deepseek-r1-distill-qianfan-llama-70b": {
"description": "DeepSeek R1 Distill Qianfan Llama 70B, modèle distillé R1 basé sur Llama-70B."
},
"deepseek-r1-distill-qwen": {
"description": "deepseek-r1-distill-qwen est un modèle dérivé par distillation de Qwen à partir de DeepSeek-R1."
},
"deepseek-r1-distill-qwen-1.5b": {
"description": "DeepSeek R1 Distill Qwen 1.5B, modèle distillé R1 ultra-léger, conçu pour les environnements à très faibles ressources."
},
"deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B, modèle distillé R1 de taille moyenne, adapté à un déploiement multi-scénarios."
},
"deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B, modèle distillé R1 basé sur Qwen-32B, équilibrant performance et coût."
},
"deepseek-r1-distill-qwen-7b": {
"description": "DeepSeek R1 Distill Qwen 7B, modèle distillé R1 léger, idéal pour les environnements en périphérie ou privés d'entreprise."
},
"deepseek-r1-fast-online": {
"description": "DeepSeek R1 version rapide complète, prenant en charge la recherche en ligne en temps réel, combinant la puissance des 671B de paramètres avec une vitesse de réponse plus rapide."
},
"deepseek-r1-online": {
"description": "DeepSeek R1 version complète, avec 671B de paramètres, prenant en charge la recherche en ligne en temps réel, offrant des capacités de compréhension et de génération plus puissantes."
},
"deepseek-reasoner": {
"description": "Mode de réflexion DeepSeek V3.2. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
},
"deepseek-v2": {
"description": "DeepSeek V2 est un modèle de langage Mixture-of-Experts efficace, adapté aux besoins de traitement économique."
},
"deepseek-v2:236b": {
"description": "DeepSeek V2 236B est le modèle de code de conception de DeepSeek, offrant de puissantes capacités de génération de code."
},
"deepseek-v3": {
"description": "DeepSeek-V3 est un modèle MoE développé par la société Hangzhou DeepSeek AI Technology Research Co., Ltd., avec des performances exceptionnelles dans plusieurs évaluations, se classant au premier rang des modèles open source dans les classements principaux. Par rapport au modèle V2.5, la vitesse de génération a été multipliée par 3, offrant aux utilisateurs une expérience d'utilisation plus rapide et fluide."
},
"deepseek-v3-0324": {
"description": "DeepSeek-V3-0324 est un modèle MoE de 671 milliards de paramètres, se distinguant par ses capacités en programmation et en technique, ainsi que par sa compréhension du contexte et son traitement de longs textes."
},
"deepseek-v3.1": {
"description": "DeepSeek-V3.1 est un nouveau modèle d'inférence hybride lancé par DeepSeek, prenant en charge deux modes d'inférence : réfléchi et non réfléchi, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances des tâches des agents ont été grandement améliorées. Supporte une fenêtre contextuelle de 128k et une longueur de sortie maximale de 64k tokens."
},
"deepseek-v3.1-terminus": {
"description": "DeepSeek-V3.1-Terminus est une version optimisée pour terminaux du grand modèle linguistique lancé par DeepSeek, spécialement conçu pour les appareils terminaux."
},
"deepseek-v3.1-think-250821": {
"description": "DeepSeek V3.1 Think 250821, modèle de réflexion avancée correspondant à la version Terminus, conçu pour des scénarios d'inférence haute performance."
},
"deepseek-v3.1:671b": {
"description": "DeepSeek V3.1 : modèle de raisonnement de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
},
"deepseek-v3.2-exp": {
"description": "deepseek-v3.2-exp introduit un mécanisme d'attention parcimonieuse, visant à améliorer l'efficacité de l'entraînement et de l'inférence lors du traitement de longs textes, à un prix inférieur à celui de deepseek-v3.1."
},
"deepseek-v3.2-think": {
"description": "DeepSeek V3.2 Think, version complète du modèle de réflexion avancée, renforçant les capacités de raisonnement à long terme."
},
"deepseek-vl2": {
"description": "DeepSeek VL2, modèle multimodal prenant en charge la compréhension image-texte et les questions-réponses visuelles fines."
},
"deepseek-vl2-small": {
"description": "DeepSeek VL2 Small, version multimodale légère, adaptée aux environnements à ressources limitées et aux scénarios à forte concurrence."
},
"deepseek/deepseek-chat": {
"description": "DeepSeek-V3 est un modèle hybride de raisonnement haute performance développé par léquipe DeepSeek, adapté aux tâches complexes et à lintégration doutils."
},
"deepseek/deepseek-chat-v3-0324": {
"description": "DeepSeek V3 est un modèle hybride d'experts avec 685B de paramètres, représentant la dernière itération de la série de modèles de chat phare de l'équipe DeepSeek.\n\nIl hérite du modèle [DeepSeek V3](/deepseek/deepseek-chat-v3) et excelle dans diverses tâches."
},
"deepseek/deepseek-chat-v3-0324:free": {
"description": "DeepSeek V3 est un modèle hybride d'experts avec 685B de paramètres, représentant la dernière itération de la série de modèles de chat phare de l'équipe DeepSeek.\n\nIl hérite du modèle [DeepSeek V3](/deepseek/deepseek-chat-v3) et excelle dans diverses tâches."
},
"deepseek/deepseek-chat-v3.1": {
"description": "DeepSeek-V3.1 est un modèle hybride de raisonnement à long contexte de DeepSeek, prenant en charge les modes de raisonnement mixte et lintégration doutils."
},
"deepseek/deepseek-r1": {
"description": "Le modèle DeepSeek R1 a bénéficié d'une mise à jour mineure, version actuelle DeepSeek-R1-0528. Cette mise à jour améliore significativement la profondeur et la capacité de raisonnement grâce à des ressources de calcul accrues et des optimisations algorithmiques post-entraînement. Il excelle dans plusieurs benchmarks en mathématiques, programmation et logique générale, approchant les performances des modèles leaders comme O3 et Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek R1 0528 est une variante mise à jour de DeepSeek, axée sur lopen source et la profondeur de raisonnement."
},
"deepseek/deepseek-r1-0528:free": {
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B est un grand modèle de langage basé sur Llama3.3 70B. Grâce au fine-tuning réalisé à partir des sorties de DeepSeek R1, il atteint des performances compétitives comparables à celles des modèles de pointe de grande envergure."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B est un modèle de langage distillé basé sur Llama-3.1-8B-Instruct, entraîné en utilisant les sorties de DeepSeek R1."
},
"deepseek/deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B est un modèle de langage distillé basé sur Qwen 2.5 14B, entraîné en utilisant les sorties de DeepSeek R1. Ce modèle a surpassé l'o1-mini d'OpenAI dans plusieurs benchmarks, atteignant des résultats de pointe pour les modèles denses. Voici quelques résultats de benchmarks :\nAIME 2024 pass@1 : 69.7\nMATH-500 pass@1 : 93.9\nCodeForces Rating : 1481\nCe modèle, affiné à partir des sorties de DeepSeek R1, démontre des performances compétitives comparables à celles de modèles de pointe de plus grande taille."
},
"deepseek/deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B est un modèle de langage distillé basé sur Qwen 2.5 32B, entraîné en utilisant les sorties de DeepSeek R1. Ce modèle a surpassé l'o1-mini d'OpenAI dans plusieurs benchmarks, atteignant des résultats de pointe pour les modèles denses. Voici quelques résultats de benchmarks :\nAIME 2024 pass@1 : 72.6\nMATH-500 pass@1 : 94.3\nCodeForces Rating : 1691\nCe modèle, affiné à partir des sorties de DeepSeek R1, démontre des performances compétitives comparables à celles de modèles de pointe de plus grande taille."
},
"deepseek/deepseek-r1/community": {
"description": "DeepSeek R1 est le dernier modèle open source publié par l'équipe DeepSeek, offrant des performances d'inférence très puissantes, atteignant des niveaux comparables à ceux du modèle o1 d'OpenAI, en particulier dans les tâches de mathématiques, de programmation et de raisonnement."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
},
"deepseek/deepseek-reasoner": {
"description": "DeepSeek-V3 Thinking (reasoner) est un modèle expérimental de raisonnement de DeepSeek, conçu pour les tâches de raisonnement à haute complexité."
},
"deepseek/deepseek-v3": {
"description": "Un grand modèle de langage universel rapide avec des capacités de raisonnement améliorées."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base est une version améliorée du modèle DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 a réalisé une percée majeure en termes de vitesse d'inférence par rapport aux modèles précédents. Il se classe au premier rang des modèles open source et peut rivaliser avec les modèles fermés les plus avancés au monde. DeepSeek-V3 utilise une architecture d'attention multi-tête (MLA) et DeepSeekMoE, qui ont été entièrement validées dans DeepSeek-V2. De plus, DeepSeek-V3 a introduit une stratégie auxiliaire sans perte pour l'équilibrage de charge et a établi des objectifs d'entraînement de prédiction multi-étiquettes pour obtenir de meilleures performances."
},
"deepseek_r1": {
"description": "DeepSeek-R1 est un modèle de raisonnement alimenté par l'apprentissage par renforcement (RL), résolvant les problèmes de répétition et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant encore les performances d'inférence. Il rivalise avec OpenAI-o1 dans les tâches de mathématiques, de code et de raisonnement, et améliore l'ensemble des performances grâce à des méthodes d'entraînement soigneusement conçues."
},
"deepseek_r1_distill_llama_70b": {
"description": "DeepSeek-R1-Distill-Llama-70B est un modèle obtenu par distillation de Llama-3.3-70B-Instruct. Ce modèle fait partie de la série DeepSeek-R1, montrant d'excellentes performances dans les domaines des mathématiques, de la programmation et du raisonnement, affiné à l'aide d'échantillons générés par DeepSeek-R1."
},
"deepseek_r1_distill_qwen_14b": {
"description": "DeepSeek-R1-Distill-Qwen-14B est un modèle obtenu par distillation de connaissances basé sur Qwen2.5-14B. Ce modèle a été affiné à l'aide de 800 000 échantillons sélectionnés générés par DeepSeek-R1, montrant d'excellentes capacités de raisonnement."
},
"deepseek_r1_distill_qwen_32b": {
"description": "DeepSeek-R1-Distill-Qwen-32B est un modèle obtenu par distillation de connaissances basé sur Qwen2.5-32B. Ce modèle a été affiné à l'aide de 800 000 échantillons sélectionnés générés par DeepSeek-R1, montrant des performances exceptionnelles dans plusieurs domaines tels que les mathématiques, la programmation et le raisonnement."
},
"doubao-1.5-lite-32k": {
"description": "Doubao-1.5-lite est un modèle léger de nouvelle génération, offrant une vitesse de réponse extrême, avec des performances et des délais atteignant des niveaux de classe mondiale."
},
"doubao-1.5-pro-256k": {
"description": "Doubao-1.5-pro-256k est une version améliorée de Doubao-1.5-Pro, offrant une amélioration globale de 10%. Il prend en charge le raisonnement avec une fenêtre contextuelle de 256k et une longueur de sortie maximale de 12k tokens. Performances supérieures, plus grande fenêtre, rapport qualité-prix exceptionnel, adapté à un large éventail de scénarios d'application."
},
"doubao-1.5-pro-32k": {
"description": "Doubao-1.5-pro est un modèle phare de nouvelle génération, avec des performances entièrement améliorées, se distinguant dans les domaines de la connaissance, du code, du raisonnement, etc."
},
"doubao-1.5-thinking-pro": {
"description": "Le modèle de réflexion approfondie Doubao-1.5, entièrement nouveau, se distingue dans des domaines spécialisés tels que les mathématiques, la programmation, le raisonnement scientifique, ainsi que dans des tâches générales comme l'écriture créative. Il atteint ou se rapproche du niveau de premier plan de l'industrie sur plusieurs références de renom telles que AIME 2024, Codeforces, GPQA. Il prend en charge une fenêtre de contexte de 128k et une sortie de 16k."
},
"doubao-1.5-thinking-pro-m": {
"description": "Nouveau modèle de réflexion profonde Doubao-1.5 (version m avec capacités natives d'inférence multimodale profonde), excellent dans les domaines spécialisés tels que mathématiques, programmation, raisonnement scientifique, ainsi que dans les tâches générales comme l'écriture créative. Atteint ou approche le niveau de pointe dans plusieurs benchmarks prestigieux tels que AIME 2024, Codeforces, GPQA. Prend en charge une fenêtre contextuelle de 128k et une sortie de 16k."
},
"doubao-1.5-thinking-vision-pro": {
"description": "Nouveau modèle de réflexion visuelle profonde, doté d'une compréhension et d'un raisonnement multimodaux généraux renforcés, avec des performances SOTA sur 37 des 59 benchmarks publics."
},
"doubao-1.5-ui-tars": {
"description": "Doubao-1.5-UI-TARS est un modèle Agent natif conçu pour l'interaction avec les interfaces graphiques (GUI). Il interagit de manière fluide avec les GUI grâce à des capacités humaines de perception, raisonnement et action."
},
"doubao-1.5-vision-lite": {
"description": "Doubao-1.5-vision-lite est un modèle multimodal de nouvelle génération, prenant en charge la reconnaissance d'images à n'importe quelle résolution et rapport d'aspect extrême, améliorant les capacités de raisonnement visuel, de reconnaissance de documents, de compréhension des informations détaillées et de respect des instructions. Il prend en charge une fenêtre de contexte de 128k, avec une longueur de sortie maximale de 16k tokens."
},
"doubao-1.5-vision-pro": {
"description": "Doubao-1.5-vision-pro est un modèle multimodal de nouvelle génération, prenant en charge la reconnaissance d'images à résolution arbitraire et aux rapports d'aspect extrêmes, améliorant le raisonnement visuel, la reconnaissance documentaire, la compréhension des détails et le respect des instructions."
},
"doubao-1.5-vision-pro-32k": {
"description": "Doubao-1.5-vision-pro est un modèle multimodal de nouvelle génération, prenant en charge la reconnaissance d'images à résolution arbitraire et aux rapports d'aspect extrêmes, améliorant le raisonnement visuel, la reconnaissance documentaire, la compréhension des détails et le respect des instructions."
},
"doubao-lite-128k": {
"description": "Offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 128k."
},
"doubao-lite-32k": {
"description": "Offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 32k."
},
"doubao-lite-4k": {
"description": "Offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 4k."
},
"doubao-pro-256k": {
"description": "Modèle principal le plus performant, adapté aux tâches complexes, avec d'excellents résultats dans les domaines des questions-réponses, résumés, création, classification de texte, jeu de rôle, etc. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 256k."
},
"doubao-pro-32k": {
"description": "Modèle principal le plus performant, adapté aux tâches complexes, avec d'excellents résultats dans les domaines des questions-réponses, résumés, création, classification de texte, jeu de rôle, etc. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 32k."
},
"doubao-seed-1.6": {
"description": "Doubao-Seed-1.6 est un tout nouveau modèle multimodal de réflexion profonde, supportant trois modes de pensée : auto, réflexion et non-réflexion. En mode non-réflexion, les performances du modèle sont largement améliorées par rapport à Doubao-1.5-pro/250115. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
},
"doubao-seed-1.6-flash": {
"description": "Doubao-Seed-1.6-flash est un modèle multimodal de réflexion profonde à vitesse d'inférence extrême, avec un TPOT de seulement 10 ms ; il supporte à la fois la compréhension textuelle et visuelle, avec une capacité de compréhension textuelle supérieure à la génération lite précédente, et une compréhension visuelle comparable aux modèles pro des concurrents. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
},
"doubao-seed-1.6-lite": {
"description": "Doubao-Seed-1.6-lite est un tout nouveau modèle multimodal de raisonnement profond, avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé). Il offre un excellent rapport qualité-prix et constitue le meilleur choix pour les tâches courantes, avec une fenêtre de contexte allant jusqu'à 256k."
},
"doubao-seed-1.6-thinking": {
"description": "Le modèle Doubao-Seed-1.6-thinking a une capacité de réflexion considérablement renforcée. Par rapport à Doubao-1.5-thinking-pro, il améliore davantage les compétences fondamentales telles que le codage, les mathématiques et le raisonnement logique, tout en supportant la compréhension visuelle. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
},
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision est un modèle de réflexion profonde visuelle, démontrant une compréhension multimodale générale et des capacités de raisonnement renforcées dans des scénarios tels que l'éducation, la modération d'images, l'inspection, la sécurité et la recherche de questions-réponses AI. Il supporte une fenêtre contextuelle de 256k et une longueur de sortie maximale de 64k tokens."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code est profondément optimisé pour les tâches de programmation agentique, prenant en charge le multimodal (texte/image/vidéo) et un long contexte de 256K. Compatible avec l'API Anthropic, il est adapté aux scénarios de programmation, de compréhension visuelle et d'agents intelligents."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Le modèle de génération d'images Doubao, développé par l'équipe Seed de ByteDance, prend en charge les entrées texte et image, offrant une expérience de génération d'images de haute qualité et très contrôlable. Il permet d'éditer des images via des instructions textuelles, avec des dimensions d'image entre 512 et 1536 pixels."
},
"doubao-seedream-3-0-t2i-250415": {
"description": "Le modèle de génération d'images Seedream 3.0, développé par l'équipe Seed de ByteDance, prend en charge les entrées texte et image, offrant une expérience de génération d'images de haute qualité et très contrôlable. Il génère des images à partir d'invites textuelles."
},
"doubao-seedream-4-0-250828": {
"description": "Le modèle de génération d'images Seedream 4.0, développé par l'équipe Seed de ByteDance, prend en charge les entrées texte et image, offrant une expérience de génération d'images de haute qualité et très contrôlable. Il génère des images à partir d'invites textuelles."
},
"doubao-vision-lite-32k": {
"description": "Le modèle Doubao-vision est un grand modèle multimodal développé par Doubao, doté de puissantes capacités de compréhension et de raisonnement d'images, ainsi que d'une compréhension précise des instructions. Il excelle dans l'extraction d'informations texte-image et les tâches de raisonnement basées sur l'image, pouvant être appliqué à des tâches de questions-réponses visuelles plus complexes et étendues."
},
"doubao-vision-pro-32k": {
"description": "Le modèle Doubao-vision est un grand modèle multimodal développé par Doubao, doté de puissantes capacités de compréhension et de raisonnement d'images, ainsi que d'une compréhension précise des instructions. Il excelle dans l'extraction d'informations texte-image et les tâches de raisonnement basées sur l'image, pouvant être appliqué à des tâches de questions-réponses visuelles plus complexes et étendues."
},
"emohaa": {
"description": "Emohaa est un modèle psychologique, doté de compétences de conseil professionnel, aidant les utilisateurs à comprendre les problèmes émotionnels."
},
"ernie-4.5-0.3b": {
"description": "ERNIE 4.5 0.3B, modèle open source léger, idéal pour les déploiements locaux et personnalisés."
},
"ernie-4.5-21b-a3b": {
"description": "ERNIE 4.5 21B A3B, modèle open source à grande capacité, offrant de meilleures performances en compréhension et génération."
},
"ernie-4.5-300b-a47b": {
"description": "ERNIE 4.5 300B A47B est un modèle à très grande échelle à experts mixtes lancé par Wenxin de Baidu, doté d'excellentes capacités de raisonnement."
},
"ernie-4.5-8k-preview": {
"description": "ERNIE 4.5 8K Preview, modèle de prévisualisation avec contexte 8K, pour tester les capacités de Wenxin 4.5."
},
"ernie-4.5-turbo-128k": {
"description": "ERNIE 4.5 Turbo 128K, modèle universel haute performance, prenant en charge la recherche augmentée et l'appel d'outils, adapté à divers scénarios comme les questions-réponses, le code et les agents intelligents."
},
"ernie-4.5-turbo-128k-preview": {
"description": "ERNIE 4.5 Turbo 128K Preview, version de prévisualisation offrant les mêmes capacités que la version officielle, idéale pour les tests et l'intégration."
},
"ernie-4.5-turbo-32k": {
"description": "ERNIE 4.5 Turbo 32K, version à contexte moyen-long, adaptée aux questions-réponses, à la recherche dans les bases de connaissances et aux dialogues multi-tours."
},
"ernie-4.5-turbo-latest": {
"description": "ERNIE 4.5 Turbo Latest, dernière version optimisée pour la performance globale, idéale comme modèle principal en production."
},
"ernie-4.5-turbo-vl": {
"description": "ERNIE 4.5 Turbo VL, modèle multimodal mature, adapté aux tâches de compréhension et de reconnaissance image-texte en production."
},
"ernie-4.5-turbo-vl-32k": {
"description": "ERNIE 4.5 Turbo VL 32K, version multimodale à contexte moyen-long, conçue pour la compréhension conjointe de longs documents et d'images."
},
"ernie-4.5-turbo-vl-32k-preview": {
"description": "ERNIE 4.5 Turbo VL 32K Preview, version de prévisualisation multimodale 32K, facilitant l'évaluation des capacités visuelles à long contexte."
},
"ernie-4.5-turbo-vl-latest": {
"description": "ERNIE 4.5 Turbo VL Latest, dernière version multimodale, offrant une meilleure compréhension et inférence image-texte."
},
"ernie-4.5-turbo-vl-preview": {
"description": "ERNIE 4.5 Turbo VL Preview, modèle multimodal de prévisualisation, prenant en charge la compréhension et la génération image-texte, idéal pour les questions-réponses visuelles et l'exploration de contenu."
},
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, modèle multimodal open source, prenant en charge les tâches de compréhension et de raisonnement image-texte."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking est un modèle phare natif tout-modale, prenant en charge lunification du texte, de limage, de laudio et de la vidéo. Ses capacités globales ont été considérablement améliorées, le rendant adapté aux questions complexes, à la création de contenu et aux scénarios dagents intelligents."
},
"ernie-5.0-thinking-preview": {
"description": "Wenxin 5.0 Thinking Preview, modèle phare natif tout-modale, prenant en charge le texte, l'image, l'audio et la vidéo, avec des capacités globales améliorées, adapté aux questions complexes, à la création et aux agents intelligents."
},
"ernie-char-8k": {
"description": "ERNIE Character 8K, modèle de dialogue avec personnalité, idéal pour la création de personnages IP et les conversations d'accompagnement à long terme."
},
"ernie-char-fiction-8k": {
"description": "ERNIE Character Fiction 8K, modèle de personnalité destiné à la création de romans et de scénarios, adapté à la génération de récits longs."
},
"ernie-char-fiction-8k-preview": {
"description": "ERNIE Character Fiction 8K Preview, version de prévisualisation du modèle de création de personnages et de scénarios, pour tester les fonctionnalités."
},
"ernie-irag-edit": {
"description": "ERNIE iRAG Edit, modèle d'édition d'image prenant en charge l'effacement, la retouche et la génération de variantes."
},
"ernie-lite-8k": {
"description": "ERNIE Lite 8K, modèle universel léger, adapté aux questions-réponses quotidiennes et à la génération de contenu à faible coût."
},
"ernie-lite-pro-128k": {
"description": "ERNIE Lite Pro 128K, modèle léger haute performance, conçu pour les scénarios sensibles à la latence et au coût."
},
"ernie-novel-8k": {
"description": "ERNIE Novel 8K, modèle de création de romans longs et de scénarios IP, expert en narration multi-personnages et multi-intrigues."
},
"ernie-speed-128k": {
"description": "ERNIE Speed 128K, grand modèle sans frais d'entrée/sortie, adapté à la compréhension de longs textes et aux essais à grande échelle."
},
"ernie-speed-8k": {
"description": "ERNIE Speed 8K, modèle rapide et gratuit, idéal pour les dialogues quotidiens et les tâches textuelles légères."
},
"ernie-speed-pro-128k": {
"description": "ERNIE Speed Pro 128K, modèle haute performance et économique, adapté aux services en ligne à grande échelle et aux applications d'entreprise."
},
"ernie-tiny-8k": {
"description": "ERNIE Tiny 8K, modèle ultra-léger, adapté aux scénarios d'inférence à faible coût comme les questions simples et la classification."
},
"ernie-x1-turbo-32k": {
"description": "ERNIE X1 Turbo 32K, modèle de réflexion rapide avec contexte long 32K, adapté au raisonnement complexe et aux dialogues multi-tours."
},
"ernie-x1.1-preview": {
"description": "ERNIE X1.1 Preview, version de prévisualisation du modèle de réflexion ERNIE X1.1, pour validation et test des capacités."
},
"fal-ai/bytedance/seedream/v4": {
"description": "Le modèle de génération d'images Seedream 4.0, développé par l'équipe Seed de ByteDance, prend en charge les entrées texte et image, offrant une expérience de génération d'images de haute qualité et très contrôlable. Il génère des images à partir d'invites textuelles."
},
"fal-ai/flux-kontext/dev": {
"description": "Modèle FLUX.1 dédié aux tâches d'édition d'images, prenant en charge les entrées texte et image."
},
"fal-ai/flux-pro/kontext": {
"description": "FLUX.1 Kontext [pro] peut traiter du texte et des images de référence en entrée, permettant des éditions locales ciblées et des transformations complexes de scènes globales de manière fluide."
},
"fal-ai/flux/krea": {
"description": "Flux Krea [dev] est un modèle de génération d'images avec une préférence esthétique, visant à produire des images plus réalistes et naturelles."
},
"fal-ai/flux/schnell": {
"description": "FLUX.1 [schnell] est un modèle de génération d'images de 12 milliards de paramètres, spécialisé dans la génération rapide d'images de haute qualité."
},
"fal-ai/hunyuan-image/v3": {
"description": "Un puissant modèle natif de génération d'images multimodales"
},
"fal-ai/imagen4/preview": {
"description": "Modèle de génération d'images de haute qualité fourni par Google."
},
"fal-ai/nano-banana": {
"description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant de générer et d'éditer des images par conversation."
},
"fal-ai/qwen-image": {
"description": "Modèle puissant de génération d'images brutes de l'équipe Qwen, avec une capacité impressionnante de génération de texte en chinois et une grande diversité de styles visuels."
},
"fal-ai/qwen-image-edit": {
"description": "Modèle professionnel d'édition d'images publié par l'équipe Qwen, supportant l'édition sémantique et esthétique, capable d'éditer précisément les textes en chinois et en anglais, et réalisant des transformations de style, rotations d'objets et autres éditions d'images de haute qualité."
},
"flux-1-schnell": {
"description": "Modèle de génération d'images à partir de texte de 12 milliards de paramètres développé par Black Forest Labs, utilisant la distillation par diffusion antagoniste latente, capable de générer des images de haute qualité en 1 à 4 étapes. Ses performances rivalisent avec des alternatives propriétaires et il est publié sous licence Apache-2.0, adapté à un usage personnel, scientifique et commercial."
},
"flux-dev": {
"description": "FLUX.1 [dev] est un modèle open source affiné destiné à un usage non commercial. Il maintient une qualité d'image et une adhérence aux instructions proches de la version professionnelle FLUX, tout en offrant une efficacité d'exécution supérieure. Par rapport aux modèles standards de même taille, il est plus efficace en termes d'utilisation des ressources."
},
"flux-kontext-max": {
"description": "Génération et édition dimages contextuelles de pointe — combinant texte et image pour des résultats précis et cohérents."
},
"flux-kontext-pro": {
"description": "Génération et édition d'images contextuelles de pointe — alliant texte et image pour des résultats précis et cohérents."
},
"flux-merged": {
"description": "Le modèle FLUX.1-merged combine les caractéristiques approfondies explorées durant la phase de développement « DEV » et les avantages d'exécution rapide représentés par « Schnell ». Cette fusion améliore non seulement les performances du modèle mais étend également son champ d'application."
},
"flux-pro": {
"description": "Modèle d'IA commercial de génération d'images de premier ordre — qualité d'image inégalée et grande diversité de rendus."
},
"flux-pro-1.1": {
"description": "Modèle professionnel amélioré de génération d'images par IA — offrant une qualité d'image exceptionnelle et une grande fidélité aux instructions de prompt."
},
"flux-pro-1.1-ultra": {
"description": "Génération d'images IA en ultra haute résolution — prise en charge d'une sortie jusqu'à 4 mégapixels, création d'images ultra-nettes en moins de 10 secondes."
},
"flux-schnell": {
"description": "FLUX.1 [schnell], actuellement le modèle open source le plus avancé à faible nombre d'étapes, dépasse non seulement ses concurrents mais aussi des modèles puissants non affinés tels que Midjourney v6.0 et DALL·E 3 (HD). Ce modèle est spécialement affiné pour conserver toute la diversité de sortie de la phase de pré-entraînement. Par rapport aux modèles les plus avancés du marché, FLUX.1 [schnell] améliore significativement la qualité visuelle, l'adhérence aux instructions, la gestion des dimensions/proportions, le traitement des polices et la diversité des sorties, offrant une expérience de génération d'images créatives plus riche et variée."
},
"flux.1-schnell": {
"description": "FLUX.1-schnell, modèle de génération d'image haute performance, idéal pour créer rapidement des images dans divers styles."
},
"gemini-1.0-pro-001": {
"description": "Gemini 1.0 Pro 001 (Ajustement) offre des performances stables et ajustables, ce qui en fait un choix idéal pour des solutions de tâches complexes."
},
"gemini-1.0-pro-002": {
"description": "Gemini 1.0 Pro 002 (Ajustement) offre un excellent soutien multimodal, se concentrant sur la résolution efficace de tâches complexes."
},
"gemini-1.0-pro-latest": {
"description": "Gemini 1.0 Pro est le modèle d'IA haute performance de Google, conçu pour une large extension des tâches."
},
"gemini-1.5-flash-001": {
"description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace, prenant en charge l'extension d'applications variées."
},
"gemini-1.5-flash-002": {
"description": "Gemini 1.5 Flash 002 est un modèle multimodal efficace, prenant en charge une large gamme d'applications."
},
"gemini-1.5-flash-8b": {
"description": "Gemini 1.5 Flash 8B est un modèle multimodal efficace, prenant en charge une large gamme d'applications."
},
"gemini-1.5-flash-8b-exp-0924": {
"description": "Gemini 1.5 Flash 8B 0924 est le dernier modèle expérimental, offrant des améliorations significatives en termes de performance dans les cas d'utilisation textuels et multimodaux."
},
"gemini-1.5-flash-8b-latest": {
"description": "Gemini 1.5 Flash 8B est un modèle multimodal efficace prenant en charge une large gamme d'applications extensibles."
},
"gemini-1.5-flash-exp-0827": {
"description": "Gemini 1.5 Flash 0827 offre des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
},
"gemini-1.5-flash-latest": {
"description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodal de Google, doté de capacités de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, adapté à une large gamme de tâches pour une extension efficace."
},
"gemini-1.5-pro-001": {
"description": "Gemini 1.5 Pro 001 est une solution d'IA multimodale extensible, prenant en charge une large gamme de tâches complexes."
},
"gemini-1.5-pro-002": {
"description": "Gemini 1.5 Pro 002 est le dernier modèle prêt pour la production, offrant une qualité de sortie supérieure, avec des améliorations notables dans les domaines des mathématiques, des contextes longs et des tâches visuelles."
},
"gemini-1.5-pro-exp-0801": {
"description": "Gemini 1.5 Pro 0801 offre d'excellentes capacités de traitement multimodal, apportant plus de flexibilité au développement d'applications."
},
"gemini-1.5-pro-exp-0827": {
"description": "Gemini 1.5 Pro 0827 combine les dernières technologies d'optimisation pour offrir des capacités de traitement de données multimodales plus efficaces."
},
"gemini-1.5-pro-latest": {
"description": "Gemini 1.5 Pro prend en charge jusqu'à 2 millions de tokens, ce qui en fait un choix idéal pour un modèle multimodal de taille moyenne, adapté à un soutien polyvalent pour des tâches complexes."
},
"gemini-2.0-flash": {
"description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
},
"gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
},
"gemini-2.0-flash-exp": {
"description": "Modèle variant Gemini 2.0 Flash, optimisé pour des objectifs tels que le rapport coût-efficacité et la faible latence."
},
"gemini-2.0-flash-exp-image-generation": {
"description": "Modèle expérimental Gemini 2.0 Flash, prenant en charge la génération d'images"
},
"gemini-2.0-flash-lite": {
"description": "Une variante du modèle Gemini 2.0 Flash, optimisée pour des objectifs tels que le rapport coût-efficacité et la faible latence."
},
"gemini-2.0-flash-lite-001": {
"description": "Une variante du modèle Gemini 2.0 Flash, optimisée pour des objectifs tels que le rapport coût-efficacité et la faible latence."
},
"gemini-2.5-flash": {
"description": "Gemini 2.5 Flash est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
},
"gemini-2.5-flash-image": {
"description": "Nano Banana est le dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, permettant de générer et déditer des images par conversation."
},
"gemini-2.5-flash-image-preview": {
"description": "Nano Banana est le tout dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, qui vous permet de générer et d'éditer des images par conversation."
},
"gemini-2.5-flash-image-preview:image": {
"description": "Nano Banana est le tout dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, qui vous permet de générer et d'éditer des images par conversation."
},
"gemini-2.5-flash-image:image": {
"description": "Nano Banana est le dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, permettant de générer et déditer des images par conversation."
},
"gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite est le modèle le plus petit et le plus rentable de Google, conçu pour une utilisation à grande échelle."
},
"gemini-2.5-flash-lite-preview-06-17": {
"description": "Gemini 2.5 Flash-Lite Preview est le modèle le plus compact et rentable de Google, conçu pour une utilisation à grande échelle."
},
"gemini-2.5-flash-lite-preview-09-2025": {
"description": "Version de prévisualisation (25 septembre 2025) de Gemini 2.5 Flash-Lite"
},
"gemini-2.5-flash-preview-04-17": {
"description": "Gemini 2.5 Flash Preview est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
},
"gemini-2.5-flash-preview-09-2025": {
"description": "Version de prévisualisation (25 septembre 2025) de Gemini 2.5 Flash"
},
"gemini-2.5-pro": {
"description": "Gemini 2.5 Pro est le modèle de raisonnement le plus avancé de Google, capable de traiter des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents avec un contexte étendu."
},
"gemini-2.5-pro-preview-03-25": {
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, bibliothèques de code et documents en utilisant un long contexte."
},
"gemini-2.5-pro-preview-05-06": {
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes dans les domaines du code, des mathématiques et des STEM, ainsi que d'analyser de grands ensembles de données, des bibliothèques de code et des documents en utilisant une analyse de long contexte."
},
"gemini-2.5-pro-preview-06-05": {
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, bibliothèques de code et documents avec un contexte étendu."
},
"gemini-3-pro-image-preview": {
"description": "Gemini 3 Pro Image (Nano Banana Pro) est un modèle de génération dimages de Google, prenant également en charge les dialogues multimodaux."
},
"gemini-3-pro-image-preview:image": {
"description": "Gemini 3 Pro Image (Nano Banana Pro) est un modèle de génération dimages de Google, prenant également en charge les dialogues multimodaux."
},
"gemini-3-pro-preview": {
"description": "Gemini 3 Pro est le meilleur modèle de compréhension multimodale au monde, et le plus puissant agent intelligent et modèle de programmation contextuelle de Google à ce jour, offrant des effets visuels riches et une interactivité approfondie, le tout reposant sur des capacités de raisonnement de pointe."
},
"gemini-flash-latest": {
"description": "Dernière version de Gemini Flash"
},
"gemini-flash-lite-latest": {
"description": "Dernière version de Gemini Flash-Lite"
},
"gemini-pro-latest": {
"description": "Dernière version de Gemini Pro"
},
"gemma-7b-it": {
"description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
},
"gemma2": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"gemma2-9b-it": {
"description": "Gemma 2 9B est un modèle optimisé pour des tâches spécifiques et l'intégration d'outils."
},
"gemma2:27b": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"gemma2:2b": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"generalv3": {
"description": "Spark Pro est un modèle de langage de haute performance optimisé pour des domaines professionnels, se concentrant sur les mathématiques, la programmation, la médecine, l'éducation, etc., et supportant la recherche en ligne ainsi que des plugins intégrés pour la météo, la date, etc. Son modèle optimisé affiche d'excellentes performances et une efficacité dans des tâches complexes de questions-réponses, de compréhension linguistique et de création de textes de haut niveau, en faisant un choix idéal pour des applications professionnelles."
},
"generalv3.5": {
"description": "Spark3.5 Max est la version la plus complète, supportant la recherche en ligne et de nombreux plugins intégrés. Ses capacités centrales entièrement optimisées, ainsi que la définition des rôles système et la fonction d'appel de fonctions, lui permettent d'exceller dans divers scénarios d'application complexes."
},
"glm-4": {
"description": "GLM-4 est l'ancienne version phare publiée en janvier 2024, actuellement remplacée par le plus puissant GLM-4-0520."
},
"glm-4-0520": {
"description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles."
},
"glm-4-32b-0414": {
"description": "GLM-4 32B 0414, version universelle de la série GLM, prenant en charge la génération et la compréhension de texte multi-tâches."
},
"glm-4-9b-chat": {
"description": "GLM-4-9B-Chat offre des performances élevées dans les domaines de la sémantique, des mathématiques, du raisonnement, du code et des connaissances. Il prend également en charge la navigation web, l'exécution de code, l'appel d'outils personnalisés et le raisonnement sur de longs textes. Prise en charge de 26 langues, dont le japonais, le coréen et lallemand."
},
"glm-4-air": {
"description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable."
},
"glm-4-air-250414": {
"description": "GLM-4-Air est une version à bon rapport qualité-prix, avec des performances proches de GLM-4, offrant rapidité et prix abordable."
},
"glm-4-airx": {
"description": "GLM-4-AirX offre une version efficace de GLM-4-Air, avec une vitesse d'inférence pouvant atteindre 2,6 fois celle de la version standard."
},
"glm-4-alltools": {
"description": "GLM-4-AllTools est un modèle d'agent multifonctionnel, optimisé pour prendre en charge la planification d'instructions complexes et les appels d'outils, tels que la navigation sur le web, l'interprétation de code et la génération de texte, adapté à l'exécution de multiples tâches."
},
"glm-4-flash": {
"description": "GLM-4-Flash est le choix idéal pour traiter des tâches simples, avec la vitesse la plus rapide et le prix le plus avantageux."
},
"glm-4-flash-250414": {
"description": "GLM-4-Flash est le choix idéal pour traiter des tâches simples, offrant la vitesse la plus rapide et étant gratuit."
},
"glm-4-flashx": {
"description": "GLM-4-FlashX est une version améliorée de Flash, offrant une vitesse d'inférence ultra-rapide."
},
"glm-4-long": {
"description": "GLM-4-Long prend en charge des entrées de texte ultra-longues, adapté aux tâches de mémoire et au traitement de documents à grande échelle."
},
"glm-4-plus": {
"description": "GLM-4-Plus, en tant que modèle phare de haute intelligence, possède de puissantes capacités de traitement de longs textes et de tâches complexes, avec des performances globalement améliorées."
},
"glm-4.1v-thinking-flash": {
"description": "La série GLM-4.1V-Thinking est actuellement le modèle visuel le plus performant connu dans la catégorie des VLM de 10 milliards de paramètres. Elle intègre les meilleures performances SOTA dans diverses tâches de langage visuel, incluant la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes disciplinaires, la reconnaissance OCR, l'interprétation de documents et graphiques, les agents GUI, le codage web frontal, le grounding, etc. Ses capacités surpassent même celles du Qwen2.5-VL-72B, qui possède plus de huit fois plus de paramètres. Grâce à des techniques avancées d'apprentissage par renforcement, le modèle maîtrise le raisonnement par chaîne de pensée, améliorant la précision et la richesse des réponses, surpassant nettement les modèles traditionnels sans mécanisme de pensée en termes de résultats finaux et d'explicabilité."
},
"glm-4.1v-thinking-flashx": {
"description": "La série GLM-4.1V-Thinking est actuellement le modèle visuel le plus performant connu dans la catégorie des VLM de 10 milliards de paramètres. Elle intègre les meilleures performances SOTA dans diverses tâches de langage visuel, incluant la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes disciplinaires, la reconnaissance OCR, l'interprétation de documents et graphiques, les agents GUI, le codage web frontal, le grounding, etc. Ses capacités surpassent même celles du Qwen2.5-VL-72B, qui possède plus de huit fois plus de paramètres. Grâce à des techniques avancées d'apprentissage par renforcement, le modèle maîtrise le raisonnement par chaîne de pensée, améliorant la précision et la richesse des réponses, surpassant nettement les modèles traditionnels sans mécanisme de pensée en termes de résultats finaux et d'explicabilité."
},
"glm-4.5": {
"description": "Modèle phare de Zhipu, supportant le changement de mode de réflexion, avec des capacités globales atteignant le niveau SOTA des modèles open source, et une longueur de contexte pouvant atteindre 128K."
},
"glm-4.5-air": {
"description": "Version allégée de GLM-4.5, équilibrant performance et rapport qualité-prix, avec une commutation flexible entre modèles de réflexion hybrides."
},
"glm-4.5-airx": {
"description": "Version ultra-rapide de GLM-4.5-Air, offrant une réactivité accrue, conçue pour des besoins à grande échelle et haute vitesse."
},
"glm-4.5-flash": {
"description": "Version gratuite de GLM-4.5, performante dans les tâches d'inférence, de codage et d'agents intelligents."
},
"glm-4.5-x": {
"description": "Version ultra-rapide de GLM-4.5, combinant une forte performance avec une vitesse de génération atteignant 100 tokens par seconde."
},
"glm-4.5v": {
"description": "La nouvelle génération de modèle d'inférence visuelle de Zhipu, basée sur l'architecture MOE (Mixture-of-Experts), avec un total de 106 milliards de paramètres et 12 milliards de paramètres d'activation, atteint l'état de l'art (SOTA) parmi les modèles multimodaux open source de même niveau au niveau mondial sur divers benchmarks, couvrant les tâches courantes telles que la compréhension d'images, de vidéos, de documents et d'interfaces graphiques (GUI)."
},
"glm-4.6": {
"description": "Le dernier modèle phare de Zhipu, GLM-4.6 (355B), surpasse entièrement la génération précédente en codage avancé, traitement de longs textes, inférence et capacités d'agent intelligent, notamment en alignant ses compétences en programmation avec Claude Sonnet 4, devenant ainsi le modèle de codage de pointe en Chine."
},
"glm-4v": {
"description": "GLM-4V offre de puissantes capacités de compréhension et de raisonnement d'image, prenant en charge diverses tâches visuelles."
},
"glm-4v-flash": {
"description": "GLM-4V-Flash se concentre sur la compréhension efficace d'une seule image, adapté aux scénarios d'analyse d'image rapide, tels que l'analyse d'image en temps réel ou le traitement d'images en lot."
},
"glm-4v-plus": {
"description": "GLM-4V-Plus possède la capacité de comprendre le contenu vidéo et plusieurs images, adapté aux tâches multimodales."
},
"glm-4v-plus-0111": {
"description": "GLM-4V-Plus possède des capacités de compréhension de contenu vidéo et de plusieurs images, adapté aux tâches multimodales."
},
"glm-z1-air": {
"description": "Modèle de raisonnement : doté de puissantes capacités de raisonnement, adapté aux tâches nécessitant un raisonnement approfondi."
},
"glm-z1-airx": {
"description": "Raisonnement ultra-rapide : offrant une vitesse de raisonnement extrêmement rapide et des résultats de raisonnement puissants."
},
"glm-z1-flash": {
"description": "La série GLM-Z1 offre de puissantes capacités de raisonnement complexe, avec d'excellentes performances en logique, mathématiques et programmation."
},
"glm-z1-flashx": {
"description": "Haute vitesse et faible coût : version améliorée Flash, vitesse d'inférence ultra-rapide, meilleure garantie de concurrence."
},
"glm-zero-preview": {
"description": "GLM-Zero-Preview possède de puissantes capacités de raisonnement complexe, se distinguant dans les domaines du raisonnement logique, des mathématiques et de la programmation."
},
"global.anthropic.claude-opus-4-5-20251101-v1:0": {
"description": "Claude Opus 4.5 est le modèle phare d'Anthropic, alliant une intelligence exceptionnelle à des performances évolutives. Il est idéal pour les tâches complexes nécessitant des réponses de très haute qualité et de solides capacités de raisonnement."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash est un modèle de raisonnement haute performance de Google, adapté aux tâches multimodales étendues."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental est le dernier modèle d'IA multimodal expérimental de Google, offrant une amélioration de qualité par rapport aux versions précédentes, en particulier pour les connaissances générales, le code et les longs contextes."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
},
"google/gemini-2.0-flash-lite-001": {
"description": "Gemini 2.0 Flash Lite est une version allégée de la famille Gemini, désactivant par défaut le raisonnement pour améliorer la latence et les coûts, mais pouvant être activé via des paramètres."
},
"google/gemini-2.5-flash": {
"description": "La série Gemini 2.5 Flash (Lite/Pro/Flash) regroupe les modèles de raisonnement de Google allant de faible latence à haute performance."
},
"google/gemini-2.5-flash-image": {
"description": "Gemini 2.5 Flash Image (Nano Banana) est un modèle de génération dimages de Google, prenant également en charge les dialogues multimodaux."
},
"google/gemini-2.5-flash-image-free": {
"description": "Version gratuite de Gemini 2.5 Flash Image, prenant en charge une génération multimodale avec quota limité."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash Lite est une version allégée de Gemini 2.5, optimisée pour la latence et les coûts, idéale pour les scénarios à haut débit."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-flash-preview:thinking": {
"description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, prenant en charge les longs contextes et les tâches complexes."
},
"google/gemini-2.5-pro-free": {
"description": "Version gratuite de Gemini 2.5 Pro, prenant en charge un contexte long multimodal avec quota limité, idéale pour les essais et les flux de travail légers."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents en utilisant un contexte étendu."
},
"google/gemini-3-pro-image-preview": {
"description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération dimages de Google, prenant également en charge les dialogues multimodaux."
},
"google/gemini-3-pro-image-preview-free": {
"description": "Version gratuite de Gemini 3 Pro Image, prenant en charge une génération multimodale avec quota limité."
},
"google/gemini-3-pro-preview": {
"description": "Gemini 3 Pro est le modèle de raisonnement multimodal de nouvelle génération de la série Gemini, capable de comprendre du texte, de laudio, des images, des vidéos, et de traiter des tâches complexes ainsi que de vastes bases de code."
},
"google/gemini-3-pro-preview-free": {
"description": "Version daperçu gratuite de Gemini 3 Pro, avec les mêmes capacités de compréhension et de raisonnement multimodal que la version standard, mais soumise à des limites de quota et de débit, idéale pour lexpérimentation et les usages peu fréquents."
},
"google/gemini-embedding-001": {
"description": "Modèle d'embedding de pointe, performant en anglais, multilingue et tâches de code."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash propose des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
},
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combine les dernières technologies d'optimisation pour offrir une capacité de traitement de données multimodales plus efficace."
},
"google/gemma-2-27b": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 poursuit le concept de conception légère et efficace."
},
"google/gemma-2-2b-it": {
"description": "Modèle d'optimisation des instructions léger de Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 est une série de modèles de texte open source allégés de Google."
},
"google/gemma-2-9b-it:free": {
"description": "Gemma 2 est une série de modèles de texte open source allégés de Google."
},
"google/gemma-2b-it": {
"description": "Gemma Instruct (2B) offre des capacités de traitement d'instructions de base, adapté aux applications légères."
},
"google/gemma-3-12b-it": {
"description": "Gemma 3 12B est un modèle de langage open source de Google, établissant de nouvelles normes en matière d'efficacité et de performance."
},
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B est un modèle de langage open source de Google, qui a établi de nouvelles normes en matière d'efficacité et de performance."
},
"google/text-embedding-005": {
"description": "Modèle d'embedding textuel focalisé sur l'anglais, optimisé pour les tâches de code et de langue anglaise."
},
"google/text-multilingual-embedding-002": {
"description": "Modèle d'embedding textuel multilingue optimisé pour les tâches interlinguistiques, supportant plusieurs langues."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-0125": {
"description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-1106": {
"description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-instruct": {
"description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
},
"gpt-35-turbo": {
"description": "GPT 3.5 Turbo, un modèle efficace proposé par OpenAI, adapté aux tâches de chat et de génération de texte, prenant en charge les appels de fonction en parallèle."
},
"gpt-35-turbo-16k": {
"description": "GPT 3.5 Turbo 16k, un modèle de génération de texte à haute capacité, adapté aux tâches complexes."
},
"gpt-4": {
"description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
},
"gpt-4-0125-preview": {
"description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
},
"gpt-4-0613": {
"description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
},
"gpt-4-1106-preview": {
"description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
},
"gpt-4-32k": {
"description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
},
"gpt-4-32k-0613": {
"description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
},
"gpt-4-turbo": {
"description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
},
"gpt-4-turbo-2024-04-09": {
"description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
},
"gpt-4-turbo-preview": {
"description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
},
"gpt-4-vision-preview": {
"description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel."
},
"gpt-4.1": {
"description": "GPT-4.1 est notre modèle phare pour des tâches complexes. Il est particulièrement adapté à la résolution de problèmes interdomaines."
},
"gpt-4.1-mini": {
"description": "GPT-4.1 mini offre un équilibre entre intelligence, rapidité et coût, ce qui en fait un modèle attrayant pour de nombreux cas d'utilisation."
},
"gpt-4.1-nano": {
"description": "GPT-4.1 mini offre un équilibre entre intelligence, rapidité et coût, ce qui en fait un modèle attrayant pour de nombreux cas d'utilisation."
},
"gpt-4.5-preview": {
"description": "GPT-4.5-preview est le modèle général le plus récent, doté d'une vaste connaissance du monde et d'une meilleure compréhension des intentions des utilisateurs ; il excelle dans les tâches créatives et la planification d'agents. Les connaissances de ce modèle sont à jour jusqu'en octobre 2023."
},
"gpt-4o": {
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
},
"gpt-4o-2024-05-13": {
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
},
"gpt-4o-2024-08-06": {
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
},
"gpt-4o-2024-11-20": {
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension linguistique puissante et des capacités de génération, adapté aux scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
},
"gpt-4o-audio-preview": {
"description": "Modèle GPT-4o Audio Preview, supportant l'entrée et la sortie audio."
},
"gpt-4o-mini": {
"description": "GPT-4o mini est le dernier modèle lancé par OpenAI après le GPT-4 Omni, prenant en charge les entrées multimodales et produisant des sorties textuelles. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que le GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. Le GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus du GPT-4 en termes de préférences de chat."
},
"gpt-4o-mini-audio-preview": {
"description": "Modèle GPT-4o mini Audio, supportant l'entrée et la sortie audio."
},
"gpt-4o-mini-realtime-preview": {
"description": "Version mini en temps réel de GPT-4o, prenant en charge les entrées et sorties audio et textuelles en temps réel."
},
"gpt-4o-mini-search-preview": {
"description": "La version préliminaire GPT-4o mini Search est un modèle spécialement entraîné pour comprendre et exécuter des requêtes de recherche web, utilisant lAPI Chat Completions. En plus des frais de jetons, les requêtes de recherche web sont facturées par appel doutil."
},
"gpt-4o-mini-transcribe": {
"description": "GPT-4o Mini Transcribe est un modèle de transcription audio en texte utilisant GPT-4o. Par rapport au modèle Whisper original, il améliore le taux d'erreur des mots ainsi que la reconnaissance et la précision linguistiques. Utilisez-le pour obtenir des transcriptions plus précises."
},
"gpt-4o-mini-tts": {
"description": "GPT-4o mini TTS est un modèle de synthèse vocale basé sur GPT-4o mini, offrant une génération de voix de haute qualité à un coût plus faible."
},
"gpt-4o-realtime-preview": {
"description": "Version en temps réel de GPT-4o, prenant en charge les entrées et sorties audio et textuelles en temps réel."
},
"gpt-4o-realtime-preview-2024-10-01": {
"description": "Version en temps réel de GPT-4o, prenant en charge les entrées et sorties audio et textuelles en temps réel."
},
"gpt-4o-realtime-preview-2025-06-03": {
"description": "Version en temps réel de GPT-4o, prenant en charge l'entrée et la sortie audio et texte en temps réel."
},
"gpt-4o-search-preview": {
"description": "La version préliminaire GPT-4o Search est un modèle spécialement entraîné pour comprendre et exécuter des requêtes de recherche web, utilisant lAPI Chat Completions. En plus des frais de jetons, les requêtes de recherche web sont facturées par appel doutil."
},
"gpt-4o-transcribe": {
"description": "GPT-4o Transcribe est un modèle de transcription audio en texte utilisant GPT-4o. Par rapport au modèle Whisper original, il améliore le taux d'erreur des mots ainsi que la reconnaissance et la précision linguistiques. Utilisez-le pour obtenir des transcriptions plus précises."
},
"gpt-5": {
"description": "Le meilleur modèle pour les tâches de codage inter-domaines et d'agents. GPT-5 réalise un bond en avant en précision, vitesse, raisonnement, reconnaissance contextuelle, pensée structurée et résolution de problèmes."
},
"gpt-5-chat": {
"description": "GPT-5 Chat est une version préliminaire optimisée pour les scénarios de conversation. Il prend en charge les entrées texte et image, mais ne génère que du texte, idéal pour les chatbots et les applications dIA conversationnelle."
},
"gpt-5-chat-latest": {
"description": "Modèle GPT-5 utilisé dans ChatGPT. Allie une compréhension et une génération linguistique puissantes, idéal pour les applications d'interaction conversationnelle."
},
"gpt-5-codex": {
"description": "GPT-5 Codex est une version optimisée de GPT-5 pour les tâches d'encodage d'agents dans Codex ou environnements similaires."
},
"gpt-5-mini": {
"description": "Version plus rapide et économique de GPT-5, adaptée aux tâches bien définies. Offre une réponse plus rapide tout en maintenant une sortie de haute qualité."
},
"gpt-5-nano": {
"description": "Version la plus rapide et la plus économique de GPT-5. Parfaitement adaptée aux scénarios nécessitant une réponse rapide et sensibles aux coûts."
},
"gpt-5-pro": {
"description": "GPT-5 Pro utilise davantage de puissance de calcul pour approfondir sa réflexion et fournir des réponses toujours plus pertinentes."
},
"gpt-5.1": {
"description": "GPT-5.1 — Modèle phare optimisé pour les tâches de codage et d'agents, avec une intensité de raisonnement configurable et un contexte étendu."
},
"gpt-5.1-chat-latest": {
"description": "GPT-5.1 Chat : Variante de GPT-5.1 conçue pour ChatGPT, idéale pour les interactions conversationnelles."
},
"gpt-5.1-codex": {
"description": "GPT-5.1 Codex : Version de GPT-5.1 optimisée pour les tâches de codage agentiques, utilisable via l'API Responses pour des flux de travail code/agent plus complexes."
},
"gpt-5.1-codex-mini": {
"description": "GPT-5.1 Codex mini : Variante plus légère et économique de Codex, optimisée pour les tâches de codage agentiques."
},
"gpt-audio": {
"description": "GPT Audio est un modèle de chat universel orienté vers l'entrée et la sortie audio, supportant l'utilisation d'entrées/sorties audio dans l'API Chat Completions."
},
"gpt-image-1": {
"description": "Modèle natif multimodal de génération d'images de ChatGPT."
},
"gpt-image-1-mini": {
"description": "Une version plus économique de GPT Image 1, prenant en charge nativement les entrées texte et image, et générant des sorties visuelles."
},
"gpt-oss-120b": {
"description": "Ce modèle nécessite une demande d'accès. GPT-OSS-120B est un modèle de langage open source à grande échelle lancé par OpenAI, doté de puissantes capacités de génération de texte."
},
"gpt-oss-20b": {
"description": "Ce modèle nécessite une demande d'accès. GPT-OSS-20B est un modèle de langage open source de taille moyenne lancé par OpenAI, offrant une génération de texte efficace."
},
"gpt-oss:120b": {
"description": "GPT-OSS 120B est un grand modèle de langage open source publié par OpenAI, utilisant la technologie de quantification MXFP4, conçu comme un modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haute performance, offrant des performances exceptionnelles en raisonnement complexe, génération de code et traitement multilingue, avec prise en charge avancée des appels de fonctions et de l'intégration d'outils."
},
"gpt-oss:20b": {
"description": "GPT-OSS 20B est un grand modèle de langage open source publié par OpenAI, utilisant la quantification MXFP4, adapté pour fonctionner sur des GPU grand public haut de gamme ou sur Mac Apple Silicon. Ce modèle excelle dans la génération de dialogues, la rédaction de code et les tâches de raisonnement, supportant les appels de fonctions et l'utilisation d'outils."
},
"gpt-realtime": {
"description": "Modèle universel en temps réel, supportant les entrées et sorties textuelles et audio en temps réel, ainsi que les entrées d'images."
},
"grok-2-image-1212": {
"description": "Notre dernier modèle de génération d'images peut créer des images vivantes et réalistes à partir d'invites textuelles. Il excelle dans la génération d'images pour le marketing, les réseaux sociaux et le divertissement."
},
"grok-2-vision-1212": {
"description": "Ce modèle a été amélioré en termes de précision, de respect des instructions et de capacités multilingues."
},
"grok-3": {
"description": "Modèle phare, expert en extraction de données, programmation et résumé de texte pour des applications d'entreprise, avec une connaissance approfondie des domaines financier, médical, juridique et scientifique."
},
"grok-3-mini": {
"description": "Modèle léger, réfléchit avant de répondre. Rapide et intelligent, adapté aux tâches logiques ne nécessitant pas de connaissances approfondies, avec accès à la trace de pensée originale."
},
"grok-4": {
"description": "Notre tout dernier modèle phare, le plus puissant, excelle dans le traitement du langage naturel, le calcul mathématique et le raisonnement — un véritable champion polyvalent."
},
"grok-4-0709": {
"description": "Grok 4 de xAI, doté de puissantes capacités de raisonnement."
},
"grok-4-1-fast-non-reasoning": {
"description": "Modèle multimodal de pointe, spécialement optimisé pour l'appel d'outils d'agents haute performance."
},
"grok-4-1-fast-reasoning": {
"description": "Modèle multimodal de pointe, spécialement optimisé pour l'appel d'outils d'agents haute performance."
},
"grok-4-fast-non-reasoning": {
"description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée dans les modèles de raisonnement à rapport coût-efficacité optimisé."
},
"grok-4-fast-reasoning": {
"description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée dans les modèles de raisonnement à rapport coût-efficacité optimisé."
},
"grok-code-fast-1": {
"description": "Nous sommes ravis de présenter grok-code-fast-1, un modèle d'inférence rapide et économique, excellent dans le codage des agents."
},
"groq/compound": {
"description": "Compound est un système d'IA composite, soutenu par plusieurs modèles ouverts déjà disponibles dans GroqCloud, capable d'utiliser intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs."
},
"groq/compound-mini": {
"description": "Compound-mini est un système d'IA composite, soutenu par des modèles publics déjà disponibles dans GroqCloud, capable d'utiliser intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs."
},
"gryphe/mythomax-l2-13b": {
"description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe."
},
"hunyuan-a13b": {
"description": "Hunyuan est le premier modèle de raisonnement hybride, une version améliorée de hunyuan-standard-256K, avec un total de 80 milliards de paramètres et 13 milliards activés. Par défaut, il fonctionne en mode de réflexion lente, mais supporte le basculement entre modes de réflexion rapide et lente via paramètres ou instructions, en ajoutant / no_think avant la requête. Ses capacités globales sont améliorées par rapport à la génération précédente, notamment en mathématiques, sciences, compréhension de longs textes et capacités d'agent."
},
"hunyuan-code": {
"description": "Dernier modèle de génération de code Hunyuan, formé sur un modèle de base avec 200B de données de code de haute qualité, entraîné pendant six mois avec des données SFT de haute qualité, avec une longueur de fenêtre contextuelle augmentée à 8K, se classant parmi les meilleurs sur les indicateurs d'évaluation automatique de génération de code dans cinq langages ; en première ligne des évaluations de qualité humaine sur dix aspects de tâches de code dans cinq langages."
},
"hunyuan-functioncall": {
"description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation."
},
"hunyuan-large": {
"description": "Le modèle Hunyuan-large a un nombre total de paramètres d'environ 389B, avec environ 52B de paramètres activés, ce qui en fait le modèle MoE open source de l'architecture Transformer avec le plus grand nombre de paramètres et les meilleures performances dans l'industrie."
},
"hunyuan-large-longcontext": {
"description": "Expert dans le traitement des tâches de longs documents telles que le résumé de documents et les questions-réponses sur des documents, tout en ayant également la capacité de traiter des tâches de génération de texte général. Il excelle dans l'analyse et la génération de longs textes, capable de répondre efficacement aux besoins de traitement de contenus longs complexes et détaillés."
},
"hunyuan-large-vision": {
"description": "Ce modèle est adapté aux scénarios de compréhension image-texte. Basé sur le modèle Hunyuan Large, il sagit dun grand modèle visuel-langage supportant lentrée de plusieurs images à résolution arbitraire ainsi que du texte, générant du contenu textuel. Il se concentre sur les tâches liées à la compréhension image-texte et présente une amélioration significative des capacités multilingues dans ce domaine."
},
"hunyuan-lite": {
"description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc."
},
"hunyuan-lite-vision": {
"description": "Le dernier modèle multimodal 7B de Hunyuan, avec une fenêtre contextuelle de 32K, prend en charge les dialogues multimodaux en chinois et en anglais, la reconnaissance d'objets d'images, la compréhension de documents et de tableaux, ainsi que les mathématiques multimodales, surpassant les modèles concurrents de 7B sur plusieurs dimensions d'évaluation."
},
"hunyuan-pro": {
"description": "Modèle de long texte MOE-32K avec un milliard de paramètres. Atteint un niveau de performance absolument supérieur sur divers benchmarks, capable de traiter des instructions complexes et de raisonner, avec des capacités mathématiques avancées, prenant en charge les appels de fonction, optimisé pour des domaines tels que la traduction multilingue, le droit financier et médical."
},
"hunyuan-role": {
"description": "Dernier modèle de jeu de rôle Hunyuan, un modèle de jeu de rôle affiné et formé par l'équipe officielle de Hunyuan, basé sur le modèle Hunyuan et des ensembles de données de scénarios de jeu de rôle, offrant de meilleures performances de base dans les scénarios de jeu de rôle."
},
"hunyuan-standard": {
"description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-32K offre un meilleur rapport qualité-prix, équilibrant efficacité et coût tout en permettant le traitement des entrées de longs textes."
},
"hunyuan-standard-256K": {
"description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-256K franchit de nouvelles étapes en termes de longueur et d'efficacité, élargissant considérablement la longueur d'entrée possible."
},
"hunyuan-standard-vision": {
"description": "Le dernier modèle multimodal de Hunyuan, prenant en charge les réponses multilingues, avec des capacités équilibrées en chinois et en anglais."
},
"hunyuan-t1-20250321": {
"description": "Modèle complet construit pour les capacités en sciences humaines et exactes, avec une forte capacité de capture d'informations dans de longs textes. Prend en charge le raisonnement pour répondre à divers problèmes scientifiques de mathématiques/logique/sciences/code, quel que soit leur niveau de difficulté."
},
"hunyuan-t1-20250403": {
"description": "Amélioration des capacités de génération de code au niveau projet ; amélioration de la qualité de la rédaction générée ; amélioration de la compréhension multi-tours des sujets, de la conformité aux instructions toB et de la compréhension des mots ; optimisation des problèmes liés à la sortie mixte de caractères simplifiés/traditionnels et chinois/anglais."
},
"hunyuan-t1-20250529": {
"description": "Optimisé pour la création de textes, la rédaction d'essais, ainsi que pour les compétences en codage frontend, mathématiques et raisonnement logique, avec une amélioration de la capacité à suivre les instructions."
},
"hunyuan-t1-20250711": {
"description": "Amélioration significative des capacités en mathématiques complexes, logique et codage, optimisation de la stabilité des sorties du modèle et amélioration des capacités de traitement de longs textes."
},
"hunyuan-t1-latest": {
"description": "Amélioration significative des capacités du modèle principal de réflexion lente dans les domaines des mathématiques avancées, du raisonnement complexe, du code difficile, du respect des instructions et de la qualité de la création textuelle."
},
"hunyuan-t1-vision-20250619": {
"description": "La dernière version du modèle de réflexion profonde multimodale t1-vision de Hunyuan, supportant une chaîne de pensée native multimodale, avec des améliorations globales par rapport à la version par défaut précédente."
},
"hunyuan-t1-vision-20250916": {
"description": "La dernière version du modèle de raisonnement visuel profond Hunyuan t1-vision offre des améliorations significatives par rapport à la version précédente dans des tâches telles que les questions-réponses image-texte, la localisation visuelle, l'OCR, l'interprétation de graphiques, la résolution de problèmes à partir de photos et la création dimages. Les performances en anglais et en langues rares ont également été nettement optimisées."
},
"hunyuan-turbo": {
"description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro."
},
"hunyuan-turbo-20241223": {
"description": "Optimisations de cette version : mise à l'échelle des instructions de données, augmentation significative de la capacité de généralisation du modèle ; amélioration significative des capacités en mathématiques, en code et en raisonnement logique ; optimisation des capacités de compréhension des mots dans le texte ; optimisation de la qualité de génération de contenu dans la création de texte."
},
"hunyuan-turbo-latest": {
"description": "Optimisation de l'expérience générale, y compris la compréhension NLP, la création de texte, les conversations informelles, les questions-réponses, la traduction, et les domaines spécifiques ; amélioration de l'humanité simulée, optimisation de l'intelligence émotionnelle du modèle ; amélioration de la capacité du modèle à clarifier activement en cas d'ambiguïté d'intention ; amélioration de la capacité à traiter les questions de décomposition de mots ; amélioration de la qualité et de l'interactivité de la création ; amélioration de l'expérience multi-tours."
},
"hunyuan-turbo-vision": {
"description": "Le nouveau modèle phare de langage visuel de Hunyuan de nouvelle génération, utilisant une toute nouvelle structure de modèle d'experts hybrides (MoE), avec des améliorations complètes par rapport à la génération précédente dans les capacités de reconnaissance de base, de création de contenu, de questions-réponses, et d'analyse et de raisonnement liés à la compréhension d'images et de textes."
},
"hunyuan-turbos-20250313": {
"description": "Uniformisation du style des étapes de résolution mathématique, renforcement des questions-réponses mathématiques multi-tours. Optimisation du style de réponse en création textuelle, suppression de laspect « IA », ajout délégance littéraire."
},
"hunyuan-turbos-20250416": {
"description": "Mise à niveau de la base pré-entraînée, renforçant la compréhension et la conformité aux instructions ; amélioration des compétences en mathématiques, code, logique et sciences durant la phase dalignement ; amélioration de la qualité de la création littéraire, de la compréhension textuelle, de la précision des traductions et des réponses aux questions de culture générale ; renforcement des capacités des agents dans divers domaines, avec un accent particulier sur la compréhension des dialogues multi-tours."
},
"hunyuan-turbos-20250604": {
"description": "Mise à niveau de la base pré-entraînée, amélioration des capacités d'écriture et de compréhension de lecture, augmentation significative des compétences en codage et en sciences, avec un suivi continu des instructions complexes."
},
"hunyuan-turbos-20250926": {
"description": "Amélioration de la qualité des données de base pour la pré-formation. Optimisation de la stratégie dentraînement post-formation, avec une amélioration continue des capacités des agents, des langues anglaises et petites langues, de la conformité aux instructions, du code et des sciences."
},
"hunyuan-turbos-latest": {
"description": "hunyuan-TurboS est la dernière version du modèle phare Hunyuan, offrant une capacité de réflexion améliorée et une expérience utilisateur optimisée."
},
"hunyuan-turbos-longtext-128k-20250325": {
"description": "Expert dans le traitement de tâches de long texte telles que le résumé de documents et les questions-réponses, tout en ayant la capacité de gérer des tâches de génération de texte général. Il excelle dans l'analyse et la génération de longs textes, répondant efficacement aux besoins de traitement de contenus longs et complexes."
},
"hunyuan-turbos-role-plus": {
"description": "Dernière version du modèle de jeu de rôle Hunyuan, finement ajusté par léquipe officielle Hunyuan. Ce modèle est entraîné en supplément avec un jeu de données spécifique aux scénarios de jeu de rôle, offrant de meilleures performances de base dans ces contextes."
},
"hunyuan-turbos-vision": {
"description": "Ce modèle est adapté aux scénarios de compréhension image-texte. Basé sur la dernière génération turbos de Hunyuan, c'est un grand modèle phare de langage visuel, focalisé sur les tâches liées à la compréhension image-texte, incluant la reconnaissance d'entités basée sur l'image, les questions-réponses de connaissances, la création de contenu, la résolution de problèmes par photo, etc., avec des améliorations globales par rapport à la génération précédente."
},
"hunyuan-turbos-vision-20250619": {
"description": "La dernière version du grand modèle phare de langage visuel turbos-vision de Hunyuan, avec des améliorations globales par rapport à la version par défaut précédente dans les tâches liées à la compréhension image-texte, incluant la reconnaissance d'entités basée sur l'image, les questions-réponses de connaissances, la création de contenu, la résolution de problèmes par photo, etc."
},
"hunyuan-vision": {
"description": "Dernier modèle multimodal Hunyuan, prenant en charge l'entrée d'images et de textes pour générer du contenu textuel."
},
"image-01": {
"description": "Nouveau modèle de génération d'images avec des rendus détaillés, supportant la génération d'images à partir de texte et d'images."
},
"image-01-live": {
"description": "Modèle de génération d'images avec rendu détaillé, supportant la génération d'images à partir de texte avec réglage du style artistique."
},
"imagen-4.0-fast-generate-001": {
"description": "Imagen, série de modèles de 4e génération pour la création d'images à partir de texte — version Fast"
},
"imagen-4.0-generate-001": {
"description": "Série de modèles Imagen de 4ᵉ génération pour la génération d'images à partir de texte"
},
"imagen-4.0-generate-preview-06-06": {
"description": "Série de modèles de génération d'images de quatrième génération Imagen"
},
"imagen-4.0-ultra-generate-001": {
"description": "Série de modèles Imagen 4e génération pour la génération d'images à partir de texte — version Ultra"
},
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Version Ultra de la série de modèles de génération d'images de quatrième génération Imagen"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small est idéal pour les tâches de génération, débogage et refactorisation de code, avec une latence minimale."
},
"inclusionAI/Ling-flash-2.0": {
"description": "Ling-flash-2.0 est le troisième modèle de la série d'architectures Ling 2.0 publié par l'équipe Bailing du groupe Ant. C'est un modèle d'experts mixtes (MoE) avec un total de 100 milliards de paramètres, mais n'activant que 6,1 milliards de paramètres par token (dont 4,8 milliards hors embeddings). En tant que modèle léger, Ling-flash-2.0 affiche des performances comparables voire supérieures à celles des modèles denses de 40 milliards de paramètres et des modèles MoE de plus grande taille dans plusieurs évaluations de référence reconnues. Ce modèle vise à explorer des voies d'efficacité sous le consensus « grand modèle = grand nombre de paramètres » grâce à une conception d'architecture et des stratégies d'entraînement optimales."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 est un modèle de langage de grande taille compact et performant basé sur l'architecture MoE. Il possède 16 milliards de paramètres au total, mais n'active que 1,4 milliard par token (789 millions hors embeddings), permettant une vitesse de génération très élevée. Grâce à une conception MoE efficace et à un entraînement massif sur des données de haute qualité, Ling-mini-2.0 offre des performances de pointe sur les tâches en aval, comparables à celles des modèles denses de moins de 10 milliards de paramètres et des modèles MoE plus grands."
},
"inclusionAI/Ring-flash-2.0": {
"description": "Ring-flash-2.0 est un modèle de réflexion haute performance profondément optimisé à partir de Ling-flash-2.0-base. Il utilise une architecture d'experts mixtes (MoE) avec un total de 100 milliards de paramètres, mais n'active que 6,1 milliards de paramètres à chaque inférence. Ce modèle résout, grâce à l'algorithme innovant icepop, l'instabilité des grands modèles MoE lors de l'entraînement par apprentissage par renforcement (RL), permettant une amélioration continue des capacités de raisonnement complexe sur de longues périodes d'entraînement. Ring-flash-2.0 a réalisé des avancées significatives dans plusieurs benchmarks difficiles tels que les compétitions mathématiques, la génération de code et le raisonnement logique. Ses performances surpassent non seulement les meilleurs modèles denses de moins de 40 milliards de paramètres, mais rivalisent aussi avec des modèles MoE open source plus grands et des modèles de réflexion propriétaires haute performance. Bien que focalisé sur le raisonnement complexe, il excelle également dans les tâches de création littéraire. De plus, grâce à sa conception efficace, Ring-flash-2.0 offre des performances puissantes tout en assurant une inférence rapide, réduisant considérablement les coûts de déploiement dans des scénarios à forte concurrence."
},
"inclusionai/ling-1t": {
"description": "Ling-1T est le modèle MoE 1T dinclusionAI, optimisé pour les tâches de raisonnement intensif et les contextes à grande échelle."
},
"inclusionai/ling-flash-2.0": {
"description": "Ling-flash-2.0 est un modèle MoE dinclusionAI, optimisé pour lefficacité et les performances de raisonnement, adapté aux tâches de taille moyenne à grande."
},
"inclusionai/ling-mini-2.0": {
"description": "Ling-mini-2.0 est un modèle MoE allégé dinclusionAI, réduisant considérablement les coûts tout en conservant de bonnes capacités de raisonnement."
},
"inclusionai/ming-flash-omini-preview": {
"description": "Ming-flash-omni Preview est un modèle multimodal dinclusionAI, prenant en charge les entrées vocales, visuelles et vidéo, avec des capacités optimisées de rendu dimage et de reconnaissance vocale."
},
"inclusionai/ring-1t": {
"description": "Ring-1T est un modèle MoE à un billion de paramètres dinclusionAI, conçu pour les tâches de raisonnement à grande échelle et la recherche."
},
"inclusionai/ring-flash-2.0": {
"description": "Ring-flash-2.0 est une variante du modèle Ring dinclusionAI, conçue pour les scénarios à haut débit, mettant laccent sur la vitesse et lefficacité des coûts."
},
"inclusionai/ring-mini-2.0": {
"description": "Ring-mini-2.0 est une version allégée à haut débit du modèle MoE dinclusionAI, principalement utilisée dans des contextes de forte concurrence."
},
"internlm/internlm2_5-7b-chat": {
"description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios."
},
"internlm2.5-latest": {
"description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils."
},
"internlm3-latest": {
"description": "Notre dernière série de modèles, avec des performances d'inférence exceptionnelles, en tête des modèles open source de même niveau. Par défaut, elle pointe vers notre dernière version du modèle InternLM3."
},
"internvl2.5-38b-mpo": {
"description": "InternVL2.5 38B MPO, modèle pré-entraîné multimodal, conçu pour les tâches complexes de raisonnement image-texte."
},
"internvl2.5-latest": {
"description": "Version InternVL2.5 que nous maintenons encore, offrant des performances excellentes et stables. Il pointe par défaut vers notre dernier modèle de la série InternVL2.5, actuellement vers internvl2.5-78b."
},
"internvl3-14b": {
"description": "InternVL3 14B, modèle multimodal de taille moyenne, équilibrant performance et coût."
},
"internvl3-1b": {
"description": "InternVL3 1B, modèle multimodal léger, adapté aux déploiements dans des environnements à ressources limitées."
},
"internvl3-38b": {
"description": "InternVL3 38B, grand modèle multimodal open source, conçu pour des tâches de compréhension image-texte de haute précision."
},
"internvl3-latest": {
"description": "Nous avons récemment publié un grand modèle multimodal, doté de capacités de compréhension d'images et de textes plus puissantes, ainsi que d'une compréhension d'images sur de longues séquences, dont les performances rivalisent avec celles des meilleurs modèles fermés. Il pointe par défaut vers notre dernier modèle de la série InternVL, actuellement vers internvl3-78b."
},
"irag-1.0": {
"description": "ERNIE iRAG, modèle de génération améliorée par recherche d'image, prenant en charge la recherche d'image par image, la recherche image-texte et la génération de contenu."
},
"jamba-large": {
"description": "Notre modèle le plus puissant et avancé, conçu pour traiter des tâches complexes de niveau entreprise, offrant des performances exceptionnelles."
},
"jamba-mini": {
"description": "Le modèle le plus efficace de sa catégorie, alliant vitesse et qualité, avec un volume réduit."
},
"jina-deepsearch-v1": {
"description": "La recherche approfondie combine la recherche sur le web, la lecture et le raisonnement pour mener des enquêtes complètes. Vous pouvez la considérer comme un agent qui prend en charge vos tâches de recherche - elle effectuera une recherche approfondie et itérative avant de fournir une réponse. Ce processus implique une recherche continue, un raisonnement et une résolution de problèmes sous différents angles. Cela diffère fondamentalement des grands modèles standard qui génèrent des réponses directement à partir de données pré-entraînées et des systèmes RAG traditionnels qui dépendent d'une recherche superficielle unique."
},
"kimi-k2": {
"description": "Kimi-K2 est un modèle de base à architecture MoE lancé par Moonshot AI, doté de capacités exceptionnelles en codage et agents, avec 1 000 milliards de paramètres au total et 32 milliards activés. Il surpasse les autres modèles open source majeurs dans les tests de performance sur les connaissances générales, la programmation, les mathématiques et les agents."
},
"kimi-k2-0711-preview": {
"description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités exceptionnelles en code et Agent, avec un total de 1T de paramètres et 32B de paramètres activés. Dans les tests de performance sur les principales catégories telles que le raisonnement général, la programmation, les mathématiques et les Agents, le modèle K2 surpasse les autres modèles open source majeurs."
},
"kimi-k2-0905-preview": {
"description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
},
"kimi-k2-instruct": {
"description": "Kimi K2 Instruct, modèle d'inférence officiel de Kimi, prenant en charge le long contexte, le code, les questions-réponses et d'autres scénarios."
},
"kimi-k2-thinking": {
"description": "Le modèle kimi-k2-thinking, proposé par Moonshot AI, est un modèle de réflexion doté de capacités agentiques générales et de raisonnement. Il excelle dans le raisonnement approfondi et peut utiliser des outils en plusieurs étapes pour résoudre divers problèmes complexes."
},
"kimi-k2-thinking-turbo": {
"description": "Version rapide du modèle de raisonnement long K2, avec un contexte de 256k, spécialisé dans le raisonnement profond et une vitesse de sortie de 60 à 100 tokens par seconde."
},
"kimi-k2-turbo-preview": {
"description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités remarquables en programmation et en agents autonomes, avec 1T de paramètres au total et 32B de paramètres activés. Dans les principaux tests de référence couvrant le raisonnement général, la programmation, les mathématiques et les agents, le modèle K2 surpasse les autres modèles open source majeurs."
},
"kimi-k2:1t": {
"description": "Kimi K2 est un modèle de langage à experts mixtes à grande échelle (MoE) développé par l'IA de la face cachée de la Lune, avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés par passage avant. Il est optimisé pour les capacités d'agent, incluant l'utilisation avancée d'outils, le raisonnement et la synthèse de code."
},
"kimi-latest": {
"description": "Le produit d'assistant intelligent Kimi utilise le dernier modèle Kimi, qui peut inclure des fonctionnalités encore instables. Il prend en charge la compréhension des images et choisit automatiquement le modèle de facturation 8k/32k/128k en fonction de la longueur du contexte de la demande."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (gratuit pour une durée limitée) se concentre sur la compréhension du code et la programmation automatisée, pour des tâches dagent de codage efficaces."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
},
"learnlm-2.0-flash-experimental": {
"description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
},
"lite": {
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
},
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B est un modèle à haute performance, offrant une capacité de génération de texte rapide, particulièrement adapté aux scénarios d'application nécessitant une efficacité à grande échelle et un rapport coût-efficacité."
},
"llama-3.1-instruct": {
"description": "Le modèle d'instructions affiné Llama 3.1 est optimisé pour les scénarios de dialogue, surpassant de nombreux modèles de chat open source existants dans les tests de référence courants de l'industrie."
},
"llama-3.2-11b-vision-instruct": {
"description": "Capacités d'inférence d'image exceptionnelles sur des images haute résolution, adaptées aux applications de compréhension visuelle."
},
"llama-3.2-11b-vision-preview": {
"description": "Llama 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
},
"llama-3.2-90b-vision-instruct": {
"description": "Capacités d'inférence d'image avancées pour les applications d'agents de compréhension visuelle."
},
"llama-3.2-90b-vision-preview": {
"description": "Llama 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
},
"llama-3.2-vision-instruct": {
"description": "Le modèle Llama 3.2-Vision optimisé pour les instructions est spécialisé dans la reconnaissance visuelle, le raisonnement sur images, la description d'images et la réponse aux questions générales liées aux images."
},
"llama-3.3-70b": {
"description": "Llama 3.3 70B : un modèle Llama de taille moyenne à grande, équilibrant capacités de raisonnement et débit élevé."
},
"llama-3.3-70b-versatile": {
"description": "Le modèle de langage multilingue Llama 3.3 de Meta (LLM) est un modèle génératif pré-entraîné et affiné par instructions avec 70B (entrée/sortie de texte). Le modèle Llama 3.3 affiné par instructions est optimisé pour les cas d'utilisation de dialogue multilingue et surpasse de nombreux modèles de chat open-source et fermés disponibles sur des benchmarks industriels courants."
},
"llama-3.3-instruct": {
"description": "Le modèle d'instructions affiné Llama 3.3 est optimisé pour les scénarios de dialogue, surpassant de nombreux modèles de chat open source existants dans les tests de référence courants de l'industrie."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B offre une capacité de traitement de complexité inégalée, sur mesure pour des projets exigeants."
},
"llama3-8b-8192": {
"description": "Meta Llama 3 8B offre d'excellentes performances de raisonnement, adaptées à des besoins d'application variés."
},
"llama3-groq-70b-8192-tool-use-preview": {
"description": "Llama 3 Groq 70B Tool Use offre de puissantes capacités d'appel d'outils, prenant en charge le traitement efficace de tâches complexes."
},
"llama3-groq-8b-8192-tool-use-preview": {
"description": "Llama 3 Groq 8B Tool Use est un modèle optimisé pour une utilisation efficace des outils, prenant en charge un calcul parallèle rapide."
},
"llama3.1": {
"description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
},
"llama3.1-8b": {
"description": "Llama 3.1 8B : une variante légère et à faible latence de Llama, adaptée aux scénarios d'inférence en ligne et d'interaction légers."
},
"llama3.1:405b": {
"description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
},
"llama3.1:70b": {
"description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
},
"llava": {
"description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage."
},
"llava-v1.5-7b-4096-preview": {
"description": "LLaVA 1.5 7B offre une capacité de traitement visuel intégrée, générant des sorties complexes à partir d'entrées d'informations visuelles."
},
"llava:13b": {
"description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage."
},
"llava:34b": {
"description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage."
},
"magistral-medium-latest": {
"description": "Magistral Medium 1.2 est un modèle d'inférence de pointe avec support visuel, publié par Mistral AI en septembre 2025."
},
"magistral-small-2509": {
"description": "Magistral Small 1.2 est un modèle d'inférence open source compact avec support visuel, publié par Mistral AI en septembre 2025."
},
"mathstral": {
"description": "MathΣtral est conçu pour la recherche scientifique et le raisonnement mathématique, offrant des capacités de calcul efficaces et des interprétations de résultats."
},
"max-32k": {
"description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, avec une compréhension contextuelle et des capacités de raisonnement logique renforcées, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de documents longs, aux questions-réponses privées et à d'autres scénarios."
},
"megrez-3b-instruct": {
"description": "Megrez 3B Instruct est un modèle efficace à faible nombre de paramètres lancé par Wuwen Xinqiong."
},
"meituan/longcat-flash-chat": {
"description": "Modèle de base non réflexif open source de Meituan, optimisé pour les interactions conversationnelles et les tâches d'agents intelligents, offrant d'excellentes performances dans les appels d'outils et les scénarios d'interactions complexes à plusieurs tours."
},
"meta-llama-3-70b-instruct": {
"description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges."
},
"meta-llama-3-8b-instruct": {
"description": "Un modèle polyvalent de 8 milliards de paramètres optimisé pour les tâches de dialogue et de génération de texte."
},
"meta-llama-3.1-405b-instruct": {
"description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants."
},
"meta-llama-3.1-70b-instruct": {
"description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants."
},
"meta-llama-3.1-8b-instruct": {
"description": "Les modèles textuels uniquement ajustés par instruction Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de chat open source et fermés disponibles sur les benchmarks industriels courants."
},
"meta-llama/Llama-2-13b-chat-hf": {
"description": "LLaMA-2 Chat (13B) offre d'excellentes capacités de traitement du langage et une expérience interactive exceptionnelle."
},
"meta-llama/Llama-2-70b-hf": {
"description": "LLaMA-2 offre d'excellentes capacités de traitement du langage et une expérience d'interaction exceptionnelle."
},
"meta-llama/Llama-3-70b-chat-hf": {
"description": "LLaMA-3 Chat (70B) est un modèle de chat puissant, prenant en charge des besoins de dialogue complexes."
},
"meta-llama/Llama-3-8b-chat-hf": {
"description": "LLaMA-3 Chat (8B) offre un support multilingue, couvrant un large éventail de connaissances."
},
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
},
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
"description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
},
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
},
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
"description": "Le modèle de langage multilingue Meta Llama 3.3 (LLM) est un modèle génératif pré-entraîné et ajusté par instruction de 70B (entrée/sortie de texte). Le modèle de texte pur ajusté par instruction Llama 3.3 est optimisé pour les cas d'utilisation de dialogue multilingue et surpasse de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
},
"meta-llama/Llama-Vision-Free": {
"description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
},
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
"description": "Llama 3 70B Instruct Lite est adapté aux environnements nécessitant une haute performance et une faible latence."
},
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
"description": "Llama 3 70B Instruct Turbo offre une compréhension et une génération de langage exceptionnelles, adapté aux tâches de calcul les plus exigeantes."
},
"meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
"description": "Llama 3 8B Instruct Lite est adapté aux environnements à ressources limitées, offrant un excellent équilibre de performance."
},
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
"description": "Llama 3 8B Instruct Turbo est un modèle de langage à haute performance, prenant en charge une large gamme de scénarios d'application."
},
"meta-llama/Meta-Llama-3.1-405B-Instruct": {
"description": "LLaMA 3.1 405B est un modèle puissant pour le pré-entraînement et l'ajustement des instructions."
},
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Le modèle Llama 3.1 Turbo 405B offre un support de contexte de très grande capacité pour le traitement de grandes données, se distinguant dans les applications d'intelligence artificielle à très grande échelle."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable aux dialogues complexes, à la traduction multilingue et à l'analyse de données."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
"description": "Le modèle Llama 3.1 70B est finement ajusté pour des applications à forte charge, quantifié en FP8 pour offrir une capacité de calcul et une précision plus efficaces, garantissant des performances exceptionnelles dans des scénarios complexes."
},
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
"description": "Le modèle Llama 3.1 8B utilise la quantification FP8, prenant en charge jusqu'à 131 072 jetons de contexte, se distinguant parmi les modèles open source, adapté aux tâches complexes, surpassant de nombreux benchmarks industriels."
},
"meta-llama/llama-3-70b-instruct": {
"description": "Llama 3 70B Instruct est optimisé pour des scénarios de dialogue de haute qualité, affichant d'excellentes performances dans diverses évaluations humaines."
},
"meta-llama/llama-3-8b-instruct": {
"description": "Llama 3 8B Instruct optimise les scénarios de dialogue de haute qualité, avec des performances supérieures à de nombreux modèles fermés."
},
"meta-llama/llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct est conçu pour des dialogues de haute qualité, se distinguant dans les évaluations humaines, particulièrement adapté aux scénarios d'interaction élevée."
},
"meta-llama/llama-3.1-8b-instruct": {
"description": "Llama 3.1 8B Instruct est la dernière version lancée par Meta, optimisée pour des scénarios de dialogue de haute qualité, surpassant de nombreux modèles fermés de premier plan."
},
"meta-llama/llama-3.1-8b-instruct:free": {
"description": "LLaMA 3.1 offre un support multilingue et est l'un des modèles génératifs les plus avancés de l'industrie."
},
"meta-llama/llama-3.2-11b-vision-instruct": {
"description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
},
"meta-llama/llama-3.2-3b-instruct": {
"description": "meta-llama/llama-3.2-3b-instruct"
},
"meta-llama/llama-3.2-90b-vision-instruct": {
"description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
},
"meta-llama/llama-3.3-70b-instruct": {
"description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles du modèle 405B à un coût très bas. Basé sur une architecture Transformer, il améliore son utilité et sa sécurité grâce à un ajustement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
},
"meta-llama/llama-3.3-70b-instruct:free": {
"description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles du modèle 405B à un coût très bas. Basé sur une architecture Transformer, il améliore son utilité et sa sécurité grâce à un ajustement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
},
"meta.llama3-1-405b-instruct-v1:0": {
"description": "Meta Llama 3.1 405B Instruct est le modèle le plus grand et le plus puissant du modèle Llama 3.1 Instruct. C'est un modèle de génération de données de dialogue et de raisonnement hautement avancé, qui peut également servir de base pour un pré-entraînement ou un ajustement fin spécialisé dans des domaines spécifiques. Les modèles de langage multilingues (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instructions, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instructions de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instructions conviennent aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'amélioration d'autres modèles en utilisant sa sortie, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un ajustement fin supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité."
},
"meta.llama3-1-70b-instruct-v1:0": {
"description": "Meta Llama 3.1 70B Instruct est une version mise à jour, incluant une longueur de contexte étendue de 128K, une multilinguisme et des capacités de raisonnement améliorées. Les modèles de langage à grande échelle (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instruction, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instruction de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instruction sont adaptés aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'utilisation de ses sorties pour améliorer d'autres modèles, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. La version ajustée utilise un affinement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité."
},
"meta.llama3-1-8b-instruct-v1:0": {
"description": "Meta Llama 3.1 8B Instruct est une version mise à jour, incluant une longueur de contexte étendue de 128K, une multilinguisme et des capacités de raisonnement améliorées. Les modèles de langage à grande échelle (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instruction, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instruction de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instruction sont adaptés aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'utilisation de ses sorties pour améliorer d'autres modèles, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. La version ajustée utilise un affinement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité."
},
"meta.llama3-70b-instruct-v1:0": {
"description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté à la création de contenu, à l'IA de dialogue, à la compréhension du langage, à la recherche et aux applications d'entreprise."
},
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides."
},
"meta/Llama-3.2-11B-Vision-Instruct": {
"description": "Excellentes capacités d'inférence d'images haute résolution, adapté aux applications de compréhension visuelle."
},
"meta/Llama-3.2-90B-Vision-Instruct": {
"description": "Capacités avancées d'inférence d'images pour applications d'agents de compréhension visuelle."
},
"meta/Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 est le modèle open source multilingue le plus avancé de la série Llama, offrant des performances comparables à un modèle de 405 milliards de paramètres à très faible coût. Basé sur l'architecture Transformer, il est amélioré par un ajustement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour une meilleure utilité et sécurité. Sa version optimisée pour les instructions est conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et propriétaires sur plusieurs benchmarks industriels. Date de coupure des connaissances : décembre 2023."
},
"meta/Meta-Llama-3-70B-Instruct": {
"description": "Un puissant modèle de 70 milliards de paramètres, excellent en inférence, codage et applications linguistiques étendues."
},
"meta/Meta-Llama-3-8B-Instruct": {
"description": "Un modèle polyvalent de 8 milliards de paramètres, optimisé pour les tâches de dialogue et de génération de texte."
},
"meta/Meta-Llama-3.1-405B-Instruct": {
"description": "Modèle textuel Llama 3.1 ajusté aux instructions, optimisé pour les cas d'usage de dialogue multilingue, performant sur de nombreux benchmarks industriels parmi les modèles de chat open source et propriétaires disponibles."
},
"meta/Meta-Llama-3.1-70B-Instruct": {
"description": "Modèle textuel Llama 3.1 ajusté aux instructions, optimisé pour les cas d'usage de dialogue multilingue, performant sur de nombreux benchmarks industriels parmi les modèles de chat open source et propriétaires disponibles."
},
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Modèle textuel Llama 3.1 ajusté aux instructions, optimisé pour les cas d'usage de dialogue multilingue, performant sur de nombreux benchmarks industriels parmi les modèles de chat open source et propriétaires disponibles."
},
"meta/llama-3-70b": {
"description": "Modèle open source de 70 milliards de paramètres finement ajusté par Meta pour le suivi des instructions. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"meta/llama-3-8b": {
"description": "Modèle open source de 8 milliards de paramètres finement ajusté par Meta pour le suivi des instructions. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avancé, prenant en charge la génération de données synthétiques, la distillation de connaissances et le raisonnement, adapté aux chatbots, à la programmation et aux tâches spécifiques."
},
"meta/llama-3.1-70b": {
"description": "Version mise à jour de Meta Llama 3 70B Instruct, incluant une longueur de contexte étendue à 128K, multilingue et capacités de raisonnement améliorées."
},
"meta/llama-3.1-70b-instruct": {
"description": "Permet des dialogues complexes, avec une excellente compréhension du contexte, des capacités de raisonnement et de génération de texte."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B supporte une fenêtre de contexte de 128K, idéal pour les interfaces de dialogue en temps réel et l'analyse de données, tout en offrant des économies de coûts significatives par rapport aux modèles plus grands. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modèle de pointe avancé, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-11b": {
"description": "Modèle de génération d'inférence d'image ajusté par instruction (entrée texte + image / sortie texte), optimisé pour la reconnaissance visuelle, l'inférence d'image, la génération de légendes et la réponse aux questions générales sur les images."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
},
"meta/llama-3.2-1b": {
"description": "Modèle uniquement textuel, supportant les cas d'usage sur appareil tels que la recherche locale multilingue, le résumé et la réécriture."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-3b": {
"description": "Modèle uniquement textuel, finement ajusté pour supporter les cas d'usage sur appareil tels que la recherche locale multilingue, le résumé et la réécriture."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-90b": {
"description": "Modèle de génération d'inférence d'image ajusté par instruction (entrée texte + image / sortie texte), optimisé pour la reconnaissance visuelle, l'inférence d'image, la génération de légendes et la réponse aux questions générales sur les images."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
},
"meta/llama-3.3-70b": {
"description": "Combinaison parfaite de performance et d'efficacité. Ce modèle supporte une IA conversationnelle haute performance, conçu pour la création de contenu, les applications d'entreprise et la recherche, offrant des capacités avancées de compréhension du langage, incluant résumé de texte, classification, analyse de sentiment et génération de code."
},
"meta/llama-3.3-70b-instruct": {
"description": "LLM avancé, spécialisé dans le raisonnement, les mathématiques, le bon sens et les appels de fonction."
},
"meta/llama-4-maverick": {
"description": "La collection de modèles Llama 4 est une IA multimodale native, supportant les expériences textuelles et multimodales. Ces modèles utilisent une architecture d'experts hybrides pour offrir des performances de pointe en compréhension de texte et d'image. Llama 4 Maverick, un modèle de 17 milliards de paramètres avec 128 experts, est servi par DeepInfra."
},
"meta/llama-4-scout": {
"description": "La collection de modèles Llama 4 est une IA multimodale native, supportant les expériences textuelles et multimodales. Ces modèles utilisent une architecture d'experts hybrides pour offrir des performances de pointe en compréhension de texte et d'image. Llama 4 Scout, un modèle de 17 milliards de paramètres avec 16 experts, est servi par DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Même modèle Phi-3-medium, mais avec une taille de contexte plus grande, adapté au RAG ou aux prompts courts."
},
"microsoft/Phi-3-medium-4k-instruct": {
"description": "Modèle de 14 milliards de paramètres, de meilleure qualité que Phi-3-mini, axé sur des données de haute qualité et à forte intensité d'inférence."
},
"microsoft/Phi-3-mini-128k-instruct": {
"description": "Même modèle Phi-3-mini, mais avec une taille de contexte plus grande, adapté au RAG ou aux prompts courts."
},
"microsoft/Phi-3-mini-4k-instruct": {
"description": "Le plus petit membre de la famille Phi-3, optimisé pour la qualité et la faible latence."
},
"microsoft/Phi-3-small-128k-instruct": {
"description": "Même modèle Phi-3-small, mais avec une taille de contexte plus grande, adapté au RAG ou aux prompts courts."
},
"microsoft/Phi-3-small-8k-instruct": {
"description": "Modèle de 7 milliards de paramètres, de meilleure qualité que Phi-3-mini, axé sur des données de haute qualité et à forte intensité d'inférence."
},
"microsoft/Phi-3.5-mini-instruct": {
"description": "Version mise à jour du modèle Phi-3-mini."
},
"microsoft/Phi-3.5-vision-instruct": {
"description": "Version mise à jour du modèle Phi-3-vision."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, qui excelle dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
},
"microsoft/wizardlm-2-8x22b": {
"description": "WizardLM-2 8x22B est le modèle Wizard le plus avancé de Microsoft AI, montrant des performances extrêmement compétitives."
},
"minicpm-v": {
"description": "MiniCPM-V est un nouveau modèle multimodal de nouvelle génération lancé par OpenBMB, offrant d'excellentes capacités de reconnaissance OCR et de compréhension multimodale, prenant en charge une large gamme d'applications."
},
"minimax-m2": {
"description": "MiniMax M2 est un modèle de langage de grande taille, efficace et conçu pour les flux de travail en codage et en automatisation."
},
"minimax/minimax-m2": {
"description": "MiniMax-M2 est un modèle performant et économique pour les tâches de codage et dagent, adapté à divers scénarios dingénierie."
},
"minimaxai/minimax-m2": {
"description": "MiniMax-M2 est un modèle MoE (Mixture of Experts) compact, rapide et économique, doté de 230 milliards de paramètres totaux et de 10 milliards de paramètres actifs. Il est conçu pour offrir des performances optimales dans les tâches de codage et d'agents, tout en maintenant une intelligence générale robuste. Ce modèle excelle dans l'édition multi-fichiers, les boucles de codage-exécution-correction, la vérification et la correction de tests, ainsi que dans les chaînes d'outils complexes à long terme, ce qui en fait un choix idéal pour les flux de travail des développeurs."
},
"ministral-3b-latest": {
"description": "Ministral 3B est le modèle de pointe de Mistral sur le marché."
},
"ministral-8b-latest": {
"description": "Ministral 8B est un modèle à excellent rapport qualité-prix de Mistral."
},
"mistral": {
"description": "Mistral est le modèle 7B lancé par Mistral AI, adapté aux besoins variés de traitement du langage."
},
"mistral-ai/Mistral-Large-2411": {
"description": "Le modèle phare de Mistral, adapté aux tâches complexes nécessitant une inférence à grande échelle ou une spécialisation élevée (génération de texte synthétique, génération de code, RAG ou agents)."
},
"mistral-ai/Mistral-Nemo": {
"description": "Mistral Nemo est un modèle de langage de pointe (LLM) offrant les meilleures performances en inférence, connaissances mondiales et capacités de codage dans sa catégorie de taille."
},
"mistral-ai/mistral-small-2503": {
"description": "Mistral Small est adapté à toute tâche linguistique nécessitant haute efficacité et faible latence."
},
"mistral-large": {
"description": "Mixtral Large est le modèle phare de Mistral, combinant des capacités de génération de code, de mathématiques et de raisonnement, prenant en charge une fenêtre de contexte de 128k."
},
"mistral-large-instruct": {
"description": "Mistral-Large-Instruct-2407 est un modèle de langage avancé (LLM) dense de grande taille, doté de 123 milliards de paramètres, offrant des capacités de raisonnement, de connaissances et de codage à la pointe de la technologie."
},
"mistral-large-latest": {
"description": "Mistral Large est le modèle phare, excellent pour les tâches multilingues, le raisonnement complexe et la génération de code, idéal pour des applications haut de gamme."
},
"mistral-medium-latest": {
"description": "Mistral Medium 3 offre des performances de pointe à un coût 8 fois inférieur et simplifie fondamentalement le déploiement en entreprise."
},
"mistral-nemo": {
"description": "Mistral Nemo, développé en collaboration entre Mistral AI et NVIDIA, est un modèle de 12B à performance efficace."
},
"mistral-nemo-instruct": {
"description": "Mistral-Nemo-Instruct-2407 est un grand modèle de langage (LLM) qui est une version affinée par instructions de Mistral-Nemo-Base-2407."
},
"mistral-small": {
"description": "Mistral Small peut être utilisé pour toute tâche basée sur le langage nécessitant une haute efficacité et une faible latence."
},
"mistral-small-latest": {
"description": "Mistral Small est une option rentable, rapide et fiable, adaptée aux cas d'utilisation tels que la traduction, le résumé et l'analyse des sentiments."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 est un modèle de codage de pointe, optimisé pour les cas d'usage à faible latence et haute fréquence. Maîtrisant plus de 80 langages de programmation, il excelle dans les tâches de remplissage intermédiaire (FIM), correction de code et génération de tests."
},
"mistral/codestral-embed": {
"description": "Modèle d'embedding de code pouvant être intégré dans des bases de données et dépôts de code pour soutenir les assistants de codage."
},
"mistral/devstral-small": {
"description": "Devstral est un grand modèle de langage agent pour les tâches d'ingénierie logicielle, en faisant un excellent choix pour les agents en ingénierie logicielle."
},
"mistral/magistral-medium": {
"description": "Pensée complexe soutenue par une compréhension profonde, avec un raisonnement transparent que vous pouvez suivre et vérifier. Ce modèle maintient un raisonnement fidèle dans de nombreuses langues, même lors de changements de langue en cours de tâche."
},
"mistral/magistral-small": {
"description": "Pensée complexe soutenue par une compréhension profonde, avec un raisonnement transparent que vous pouvez suivre et vérifier. Ce modèle maintient un raisonnement fidèle dans de nombreuses langues, même lors de changements de langue en cours de tâche."
},
"mistral/ministral-3b": {
"description": "Un modèle compact et efficace pour les tâches sur appareil telles qu'assistants intelligents et analyses locales, offrant une faible latence."
},
"mistral/ministral-8b": {
"description": "Un modèle plus puissant avec un raisonnement plus rapide et économe en mémoire, idéal pour les flux de travail complexes et les applications exigeantes en périphérie."
},
"mistral/mistral-embed": {
"description": "Modèle d'embedding textuel universel pour la recherche sémantique, la similarité, le clustering et les workflows RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large est idéal pour les tâches complexes nécessitant une grande capacité de raisonnement ou une spécialisation élevée, telles que la génération de texte synthétique, le codage, le RAG ou les agents."
},
"mistral/mistral-small": {
"description": "Mistral Small est idéal pour les tâches simples pouvant être traitées en lots, telles que la classification, le support client ou la génération de texte. Il offre d'excellentes performances à un prix abordable."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Modèle 8x22b Instruct. 8x22b est un modèle open source à experts hybrides servi par Mistral."
},
"mistral/pixtral-12b": {
"description": "Un modèle de 12 milliards de paramètres avec capacités de compréhension d'image et de texte."
},
"mistral/pixtral-large": {
"description": "Pixtral Large est le deuxième modèle de notre famille multimodale, démontrant un niveau avancé de compréhension d'image. En particulier, il peut comprendre documents, graphiques et images naturelles, tout en conservant les capacités de compréhension textuelle de pointe de Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct est réputé pour ses performances élevées, adapté à diverses tâches linguistiques."
},
"mistralai/Mistral-7B-Instruct-v0.2": {
"description": "Mistral 7B est un modèle fine-tuné à la demande, offrant des réponses optimisées pour les tâches."
},
"mistralai/Mistral-7B-Instruct-v0.3": {
"description": "Mistral (7B) Instruct v0.3 offre une capacité de calcul efficace et une compréhension du langage naturel, adapté à un large éventail d'applications."
},
"mistralai/Mistral-7B-v0.1": {
"description": "Mistral 7B est un modèle compact mais performant, excellent pour le traitement par lot et les tâches simples, comme la classification et la génération de texte, avec de bonnes capacités d'inférence."
},
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
"description": "Mixtral-8x22B Instruct (141B) est un super grand modèle de langage, prenant en charge des besoins de traitement extrêmement élevés."
},
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
"description": "Mixtral 8x7B est un modèle de mélange d'experts pré-entraîné, utilisé pour des tâches textuelles générales."
},
"mistralai/Mixtral-8x7B-v0.1": {
"description": "Mixtral 8x7B est un modèle d'experts clairsemés qui utilise de multiples paramètres pour améliorer la vitesse d'inférence, adapté au traitement des tâches multilingues et de génération de code."
},
"mistralai/mistral-nemo": {
"description": "Mistral Nemo est un modèle de 7,3 milliards de paramètres, offrant un support multilingue et une programmation haute performance."
},
"mixtral": {
"description": "Mixtral est le modèle d'expert de Mistral AI, avec des poids open source, offrant un soutien dans la génération de code et la compréhension du langage."
},
"mixtral-8x7b-32768": {
"description": "Mixtral 8x7B offre une capacité de calcul parallèle à haute tolérance aux pannes, adaptée aux tâches complexes."
},
"mixtral:8x22b": {
"description": "Mixtral est le modèle d'expert de Mistral AI, avec des poids open source, offrant un soutien dans la génération de code et la compréhension du langage."
},
"moonshot-v1-128k": {
"description": "Moonshot V1 128K est un modèle doté d'une capacité de traitement de contexte ultra-long, adapté à la génération de textes très longs, répondant aux besoins de tâches de génération complexes, capable de traiter jusqu'à 128 000 tokens, idéal pour la recherche, l'académie et la génération de documents volumineux."
},
"moonshot-v1-128k-vision-preview": {
"description": "Le modèle visuel Kimi (y compris moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) est capable de comprendre le contenu des images, y compris le texte des images, les couleurs des images et les formes des objets."
},
"moonshot-v1-32k": {
"description": "Moonshot V1 32K offre une capacité de traitement de contexte de longueur moyenne, capable de traiter 32 768 tokens, particulièrement adapté à la génération de divers documents longs et de dialogues complexes, utilisé dans la création de contenu, la génération de rapports et les systèmes de dialogue."
},
"moonshot-v1-32k-vision-preview": {
"description": "Le modèle visuel Kimi (y compris moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) est capable de comprendre le contenu des images, y compris le texte des images, les couleurs des images et les formes des objets."
},
"moonshot-v1-8k": {
"description": "Moonshot V1 8K est conçu pour des tâches de génération de courts textes, avec des performances de traitement efficaces, capable de traiter 8 192 tokens, idéal pour des dialogues courts, des prises de notes et une génération rapide de contenu."
},
"moonshot-v1-8k-vision-preview": {
"description": "Le modèle visuel Kimi (y compris moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) est capable de comprendre le contenu des images, y compris le texte des images, les couleurs des images et les formes des objets."
},
"moonshot-v1-auto": {
"description": "Moonshot V1 Auto peut choisir le modèle approprié en fonction du nombre de tokens utilisés dans le contexte actuel."
},
"moonshotai/Kimi-Dev-72B": {
"description": "Kimi-Dev-72B est un grand modèle de code open source, optimisé par un apprentissage par renforcement à grande échelle, capable de générer des correctifs robustes et directement exploitables en production. Ce modèle a atteint un nouveau score record de 60,4 % sur SWE-bench Verified, établissant un nouveau standard pour les modèles open source dans les tâches d'ingénierie logicielle automatisée telles que la correction de bugs et la revue de code."
},
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking est le modèle de raisonnement open source le plus récent et le plus puissant. Il repousse les limites du raisonnement multi-étapes tout en maintenant une stabilité remarquable lors de 200 à 300 appels d'outils consécutifs. Il établit de nouvelles références dans des benchmarks tels que Humanity's Last Exam (HLE), BrowseComp, entre autres. K2 Thinking excelle également en programmation, mathématiques, raisonnement logique et scénarios d'agents. Basé sur une architecture à experts mixtes (MoE), il comprend environ 1T de paramètres, prend en charge une fenêtre contextuelle de 256K et les appels d'outils."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 est un modèle de langage à experts hybrides (MoE) à grande échelle développé par Moonshot AI, avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés par passage avant. Il est optimisé pour les capacités d'agent, incluant l'utilisation avancée d'outils, le raisonnement et la synthèse de code."
},
"moonshotai/kimi-k2-0711": {
"description": "Kimi K2 0711 est la version Instruct de la série Kimi, adaptée aux scénarios de codage de haute qualité et dappel doutils."
},
"moonshotai/kimi-k2-0905": {
"description": "Kimi K2 0905 est la mise à jour 0905 de la série Kimi, avec un contexte étendu et des performances de raisonnement améliorées, optimisée pour les scénarios de codage."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
},
"moonshotai/kimi-k2-thinking": {
"description": "Kimi K2 Thinking est un modèle de raisonnement optimisé par Moonshot pour les tâches de raisonnement profond, avec des capacités dagent généralistes."
},
"moonshotai/kimi-k2-thinking-turbo": {
"description": "Kimi K2 Thinking Turbo est la version rapide de Kimi K2 Thinking, conservant les capacités de raisonnement profond tout en réduisant considérablement la latence de réponse."
},
"morph/morph-v3-fast": {
"description": "Morph propose un modèle IA spécialisé qui applique rapidement les modifications de code suggérées par des modèles de pointe (comme Claude ou GPT-4o) à vos fichiers de code existants - RAPIDE - plus de 4500 tokens/seconde. Il agit comme la dernière étape dans le flux de travail de codage IA. Supporte 16k tokens d'entrée et 16k tokens de sortie."
},
"morph/morph-v3-large": {
"description": "Morph propose un modèle IA spécialisé qui applique les modifications de code suggérées par des modèles de pointe (comme Claude ou GPT-4o) à vos fichiers de code existants - RAPIDE - plus de 2500 tokens/seconde. Il agit comme la dernière étape dans le flux de travail de codage IA. Supporte 16k tokens d'entrée et 16k tokens de sortie."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
},
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B est un modèle de langage à grande échelle personnalisé par NVIDIA, conçu pour améliorer l'aide fournie par les réponses générées par LLM aux requêtes des utilisateurs. Ce modèle a excellé dans des tests de référence tels que Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant premier dans les trois tests d'alignement automatique au 1er octobre 2024. Le modèle utilise RLHF (en particulier REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference pour l'entraînement sur la base du modèle Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Modèle de langage unique, offrant une précision et une efficacité inégalées."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct est un modèle de langage de grande taille personnalisé par NVIDIA, conçu pour améliorer l'utilité des réponses générées par LLM."
},
"o1": {
"description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris les tâches mathématiques et scientifiques. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail d'agent."
},
"o1-mini": {
"description": "Plus petit et plus rapide que o1-preview, avec un coût réduit de 80 %, il offre de bonnes performances en génération de code et en traitement de petits contextes."
},
"o1-preview": {
"description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris des tâches mathématiques et scientifiques. Particulièrement adapté aux applications nécessitant une compréhension approfondie du contexte et des flux de travail autonomes."
},
"o1-pro": {
"description": "La série de modèles o1 est entraînée par apprentissage par renforcement, capable de réfléchir avant de répondre et d'exécuter des tâches de raisonnement complexes. Le modèle o1-pro utilise plus de ressources de calcul pour une réflexion plus approfondie, fournissant ainsi des réponses de qualité supérieure de manière continue."
},
"o3": {
"description": "o3 est un modèle polyvalent et puissant, performant dans de nombreux domaines. Il établit de nouvelles normes pour les tâches de mathématiques, de sciences, de programmation et de raisonnement visuel. Il excelle également dans la rédaction technique et le respect des instructions. Les utilisateurs peuvent l'utiliser pour analyser des textes, du code et des images, et résoudre des problèmes complexes en plusieurs étapes."
},
"o3-2025-04-16": {
"description": "o3 est le nouveau modèle de raisonnement d'OpenAI, supportant les entrées texte et image et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues."
},
"o3-deep-research": {
"description": "o3-deep-research est notre modèle de recherche approfondie le plus avancé, conçu spécialement pour gérer des tâches de recherche complexes en plusieurs étapes. Il peut rechercher et synthétiser des informations sur Internet, ainsi qu'accéder et exploiter vos propres données via le connecteur MCP."
},
"o3-mini": {
"description": "o3-mini est notre dernier modèle d'inférence compact, offrant une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
},
"o3-pro": {
"description": "Le modèle o3-pro utilise davantage de calculs pour réfléchir plus profondément et fournir constamment de meilleures réponses, uniquement disponible via l'API Responses."
},
"o3-pro-2025-06-10": {
"description": "o3 Pro est le nouveau modèle de raisonnement d'OpenAI, supportant les entrées texte et image et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues."
},
"o4-mini": {
"description": "o4-mini est notre dernier modèle de la série o de petite taille. Il est optimisé pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
},
"o4-mini-2025-04-16": {
"description": "o4-mini est un modèle de raisonnement d'OpenAI, supportant les entrées texte et image et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200 000 tokens."
},
"o4-mini-deep-research": {
"description": "o4-mini-deep-research est notre modèle de recherche approfondie plus rapide et plus abordable — idéal pour traiter des tâches de recherche complexes en plusieurs étapes. Il peut rechercher et synthétiser des informations sur Internet, ainsi qu'accéder et exploiter vos propres données via le connecteur MCP."
},
"open-codestral-mamba": {
"description": "Codestral Mamba est un modèle de langage Mamba 2 axé sur la génération de code, offrant un soutien puissant pour des tâches avancées de codage et de raisonnement."
},
"open-mistral-7b": {
"description": "Mistral 7B est un modèle compact mais performant, excellent pour le traitement par lots et les tâches simples, telles que la classification et la génération de texte, avec de bonnes capacités de raisonnement."
},
"open-mistral-nemo": {
"description": "Mistral Nemo est un modèle de 12B développé en collaboration avec Nvidia, offrant d'excellentes performances de raisonnement et de codage, facile à intégrer et à remplacer."
},
"open-mixtral-8x22b": {
"description": "Mixtral 8x22B est un modèle d'expert plus grand, axé sur des tâches complexes, offrant d'excellentes capacités de raisonnement et un débit plus élevé."
},
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B est un modèle d'expert épars, utilisant plusieurs paramètres pour améliorer la vitesse de raisonnement, adapté au traitement de tâches multilingues et de génération de code."
},
"openai/gpt-3.5-turbo": {
"description": "Le modèle le plus performant et rentable de la série GPT-3.5 d'OpenAI, optimisé pour le chat mais également performant pour les tâches de complétion traditionnelles."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Capacités similaires aux modèles de l'ère GPT-3. Compatible avec les points de terminaison de complétion traditionnels, pas les complétions de chat."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo d'OpenAI possède une vaste connaissance générale et une expertise sectorielle, capable de suivre des instructions complexes en langage naturel et de résoudre précisément des problèmes difficiles. Sa date de coupure des connaissances est avril 2023, avec une fenêtre de contexte de 128 000 tokens."
},
"openai/gpt-4.1": {
"description": "La série GPT-4.1 offre un contexte étendu ainsi quune meilleure capacité dingénierie et de raisonnement."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 Mini propose une latence réduite et un excellent rapport qualité-prix, idéal pour des contextes de taille moyenne."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 Nano est une option à très faible coût et faible latence, adaptée aux dialogues courts et fréquents ou aux scénarios de classification."
},
"openai/gpt-4o": {
"description": "La série GPT-4o est le modèle Omni dOpenAI, prenant en charge les entrées texte + image et les sorties textuelles."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o-mini est une version rapide et compacte de GPT-4o, idéale pour les scénarios multimodaux à faible latence."
},
"openai/gpt-5": {
"description": "GPT-5 est le modèle haute performance dOpenAI, adapté à une large gamme de tâches de production et de recherche."
},
"openai/gpt-5-chat": {
"description": "GPT-5 Chat est une sous-version de GPT-5 optimisée pour les dialogues, avec une latence réduite pour une meilleure expérience interactive."
},
"openai/gpt-5-codex": {
"description": "GPT-5-Codex est une variante de GPT-5 spécialement optimisée pour les scénarios de codage, adaptée aux flux de travail de programmation à grande échelle."
},
"openai/gpt-5-mini": {
"description": "GPT-5 Mini est une version allégée de la famille GPT-5, conçue pour des scénarios à faible coût et faible latence."
},
"openai/gpt-5-nano": {
"description": "GPT-5 Nano est la version ultra-compacte de la famille, idéale pour les cas dusage exigeant des performances optimales en termes de coût et de latence."
},
"openai/gpt-5-pro": {
"description": "GPT-5 Pro est le modèle phare dOpenAI, offrant des capacités avancées de raisonnement, de génération de code et des fonctionnalités de niveau entreprise, avec prise en charge du routage en phase de test et de politiques de sécurité renforcées."
},
"openai/gpt-5.1": {
"description": "GPT-5.1 est le dernier modèle phare de la série GPT-5, avec des améliorations significatives en raisonnement général, suivi dinstructions et fluidité des dialogues, adapté à un large éventail de tâches."
},
"openai/gpt-5.1-chat": {
"description": "GPT-5.1 Chat est un membre léger de la famille GPT-5.1, optimisé pour les dialogues à faible latence tout en conservant de solides capacités de raisonnement et dexécution dinstructions."
},
"openai/gpt-5.1-codex": {
"description": "GPT-5.1-Codex est une variante de GPT-5.1 optimisée pour lingénierie logicielle et les flux de travail de codage, adaptée aux refactorisations complexes, au débogage avancé et aux tâches de codage autonomes de longue durée."
},
"openai/gpt-5.1-codex-mini": {
"description": "GPT-5.1-Codex-Mini est une version compacte et accélérée de GPT-5.1-Codex, mieux adaptée aux scénarios de codage sensibles à la latence et au coût."
},
"openai/gpt-oss-120b": {
"description": "Modèle de langage général extrêmement performant avec des capacités de raisonnement puissantes et contrôlables."
},
"openai/gpt-oss-20b": {
"description": "Modèle de langage compact avec poids open source, optimisé pour la faible latence et les environnements à ressources limitées, incluant le déploiement local et en périphérie."
},
"openai/o1": {
"description": "o1 d'OpenAI est un modèle de raisonnement phare, conçu pour les problèmes complexes nécessitant une réflexion approfondie. Il offre un raisonnement puissant et une précision accrue pour les tâches complexes à plusieurs étapes."
},
"openai/o1-mini": {
"description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
},
"openai/o1-preview": {
"description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
},
"openai/o3": {
"description": "o3 d'OpenAI est le modèle de raisonnement le plus puissant, établissant de nouveaux standards en codage, mathématiques, sciences et perception visuelle. Il excelle dans les requêtes complexes nécessitant une analyse multidimensionnelle, avec un avantage particulier pour l'analyse d'images, graphiques et diagrammes."
},
"openai/o3-mini": {
"description": "o3-mini est le dernier petit modèle de raisonnement d'OpenAI, offrant une intelligence élevée avec les mêmes objectifs de coût et latence que o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini haute version de raisonnement, offrant une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
},
"openai/o4-mini": {
"description": "OpenAI o4-mini est un modèle de raisonnement compact et efficace dOpenAI, conçu pour les scénarios à faible latence."
},
"openai/o4-mini-high": {
"description": "Version à haut niveau d'inférence d'o4-mini, optimisée pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
},
"openai/text-embedding-3-large": {
"description": "Le modèle d'embedding le plus performant d'OpenAI, adapté aux tâches en anglais et non anglaises."
},
"openai/text-embedding-3-small": {
"description": "Version améliorée et plus performante du modèle d'embedding ada d'OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Modèle d'embedding textuel traditionnel d'OpenAI."
},
"openrouter/auto": {
"description": "En fonction de la longueur du contexte, du sujet et de la complexité, votre demande sera envoyée à Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-régulé) ou GPT-4o."
},
"perplexity/sonar": {
"description": "Produit léger de Perplexity avec capacité de recherche ancrée, plus rapide et moins cher que Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Produit phare de Perplexity avec capacité de recherche ancrée, supportant des requêtes avancées et des suivis."
},
"perplexity/sonar-reasoning": {
"description": "Modèle axé sur le raisonnement, produisant des chaînes de pensée (CoT) dans les réponses, offrant des explications détaillées avec recherche ancrée."
},
"perplexity/sonar-reasoning-pro": {
"description": "Modèle avancé axé sur le raisonnement, produisant des chaînes de pensée (CoT) dans les réponses, offrant des explications complètes avec capacités de recherche améliorées et multiples requêtes de recherche par demande."
},
"phi3": {
"description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle."
},
"phi3:14b": {
"description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle."
},
"pixtral-12b-2409": {
"description": "Le modèle Pixtral montre de puissantes capacités dans des tâches telles que la compréhension des graphiques et des images, le questionnement de documents, le raisonnement multimodal et le respect des instructions, capable d'ingérer des images à résolution naturelle et à rapport d'aspect, tout en traitant un nombre quelconque d'images dans une fenêtre de contexte longue allant jusqu'à 128K tokens."
},
"pixtral-large-latest": {
"description": "Pixtral Large est un modèle multimodal open source avec 124 milliards de paramètres, basé sur Mistral Large 2. C'est notre deuxième modèle de la famille multimodale, démontrant des capacités de compréhension d'image à la pointe de la technologie."
},
"pro-128k": {
"description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
},
"pro-deepseek-r1": {
"description": "Modèle dédié aux services d'entreprise, incluant les services en parallèle."
},
"pro-deepseek-v3": {
"description": "Modèle dédié aux services d'entreprise, incluant les services en parallèle."
},
"qianfan-70b": {
"description": "Qianfan 70B, un modèle chinois de grande taille, idéal pour la génération de contenu de haute qualité et les tâches de raisonnement complexes."
},
"qianfan-8b": {
"description": "Qianfan 8B, un modèle généraliste de taille moyenne, adapté à la génération de texte et aux scénarios de questions-réponses avec un bon équilibre entre coût et performance."
},
"qianfan-agent-intent-32k": {
"description": "Qianfan Agent Intent 32K, un modèle conçu pour la reconnaissance dintention et lorchestration dagents, prenant en charge des contextes longs."
},
"qianfan-agent-lite-8k": {
"description": "Qianfan Agent Lite 8K, un modèle dagent léger, adapté aux dialogues multi-tours à faible coût et à lorchestration de processus métier."
},
"qianfan-agent-speed-32k": {
"description": "Qianfan Agent Speed 32K, un modèle dagent à haut débit, conçu pour des applications dagents à grande échelle et multi-tâches."
},
"qianfan-agent-speed-8k": {
"description": "Qianfan Agent Speed 8K, un modèle dagent à haute concurrence, optimisé pour les dialogues courts et les réponses rapides."
},
"qianfan-check-vl": {
"description": "Qianfan Check VL, un modèle de vérification multimodale, prenant en charge la conformité et la détection dans les contenus image-texte."
},
"qianfan-composition": {
"description": "Qianfan Composition, un modèle de création multimodale, capable de comprendre et de générer des contenus combinant texte et image."
},
"qianfan-engcard-vl": {
"description": "Qianfan EngCard VL, un modèle de reconnaissance multimodale spécialisé pour les scénarios en anglais."
},
"qianfan-lightning-128b-a19b": {
"description": "Qianfan Lightning 128B A19B, un modèle chinois haute performance, adapté aux questions complexes et au raisonnement à grande échelle."
},
"qianfan-llama-vl-8b": {
"description": "Qianfan Llama VL 8B, un modèle multimodal basé sur Llama, conçu pour les tâches générales de compréhension image-texte."
},
"qianfan-multipicocr": {
"description": "Qianfan MultiPicOCR, un modèle OCR multi-images, capable de détecter et reconnaître du texte sur plusieurs images."
},
"qianfan-qi-vl": {
"description": "Qianfan QI VL, un modèle de questions-réponses multimodal, optimisé pour la recherche précise et les réponses dans des contextes image-texte complexes."
},
"qianfan-singlepicocr": {
"description": "Qianfan SinglePicOCR, un modèle OCR pour image unique, offrant une reconnaissance de caractères haute précision."
},
"qianfan-vl-70b": {
"description": "Qianfan VL 70B, un modèle visuel-langagier de grande taille, adapté aux scénarios complexes de compréhension image-texte."
},
"qianfan-vl-8b": {
"description": "Qianfan VL 8B, un modèle visuel-langagier léger, idéal pour les questions-réponses et analyses image-texte du quotidien."
},
"qvq-72b-preview": {
"description": "Le modèle QVQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement visuel, en particulier dans le domaine du raisonnement mathématique."
},
"qvq-max": {
"description": "Modèle de raisonnement visuel QVQ de Tongyi Qianwen, supportant lentrée visuelle et la sortie en chaîne de pensée, démontrant des capacités renforcées en mathématiques, programmation, analyse visuelle, création et tâches générales."
},
"qvq-plus": {
"description": "Modèle de raisonnement visuel. Prend en charge les entrées visuelles et les sorties en chaîne de pensée. Version plus avancée du modèle qvq-max, offrant une vitesse de raisonnement plus rapide et un meilleur équilibre entre performance et coût."
},
"qwen-3-32b": {
"description": "Qwen 3 32B : un modèle de la série Qwen performant dans les tâches multilingues et de codage, adapté à une utilisation en production à échelle moyenne."
},
"qwen-coder-plus": {
"description": "Modèle de code Tongyi Qianwen."
},
"qwen-coder-turbo": {
"description": "Modèle de code Tongyi Qianwen."
},
"qwen-coder-turbo-latest": {
"description": "Le modèle de code Tongyi Qwen."
},
"qwen-flash": {
"description": "La série Tongyi Qianwen propose les modèles les plus rapides et les plus économiques, adaptés aux tâches simples."
},
"qwen-image": {
"description": "Qwen-Image est un modèle polyvalent de génération d'images, prenant en charge de nombreux styles artistiques et excelling particulièrement dans le rendu de textes complexes, notamment en chinois et en anglais. Le modèle gère les mises en page multilignes, la génération de texte au niveau des paragraphes et le rendu de détails fins, permettant de créer des compositions complexes mêlant texte et image."
},
"qwen-image-edit": {
"description": "Qwen Image Edit est un modèle de génération d'images à partir d'images, permettant l'édition et la modification d'images basées sur une image d'entrée et des indications textuelles. Il peut ajuster précisément et transformer de manière créative l'image originale selon les besoins de l'utilisateur."
},
"qwen-long": {
"description": "Qwen est un modèle de langage à grande échelle, prenant en charge un contexte de texte long, ainsi que des fonctionnalités de dialogue basées sur des documents longs et multiples."
},
"qwen-math-plus": {
"description": "Modèle mathématique Tongyi Qianwen spécialement conçu pour la résolution de problèmes mathématiques."
},
"qwen-math-plus-latest": {
"description": "Le modèle de langage Tongyi Qwen pour les mathématiques, spécialement conçu pour résoudre des problèmes mathématiques."
},
"qwen-math-turbo": {
"description": "Modèle mathématique Tongyi Qianwen spécialement conçu pour la résolution de problèmes mathématiques."
},
"qwen-math-turbo-latest": {
"description": "Le modèle de langage Tongyi Qwen pour les mathématiques, spécialement conçu pour résoudre des problèmes mathématiques."
},
"qwen-max": {
"description": "Modèle de langage à grande échelle de niveau milliard Qwen, prenant en charge des entrées dans différentes langues telles que le chinois et l'anglais, représentant actuellement le modèle API derrière la version 2.5 de Qwen."
},
"qwen-omni-turbo": {
"description": "La série Qwen-Omni supporte lentrée de données multimodales variées, incluant vidéo, audio, images et texte, et produit en sortie de laudio et du texte."
},
"qwen-plus": {
"description": "Version améliorée du modèle de langage à grande échelle Qwen, prenant en charge des entrées dans différentes langues telles que le chinois et l'anglais."
},
"qwen-turbo": {
"description": "Le modèle 通义千问 Turbo ne sera plus mis à jour ; il est recommandé de le remplacer par 通义千问 Flash. 通义千问 est un modèle de langage à très grande échelle, prenant en charge des entrées en chinois, en anglais et dans d'autres langues."
},
"qwen-vl-chat-v1": {
"description": "Qwen VL prend en charge des modes d'interaction flexibles, y compris la capacité de poser des questions à plusieurs images, des dialogues multi-tours, et plus encore."
},
"qwen-vl-max": {
"description": "Modèle visuel-langage Tongyi Qianwen de très grande échelle. Par rapport à la version améliorée, il renforce encore les capacités de raisonnement visuel et de conformité aux instructions, offrant un niveau supérieur de perception et de cognition visuelle."
},
"qwen-vl-max-latest": {
"description": "Modèle de langage visuel à très grande échelle Tongyi Qianwen. Par rapport à la version améliorée, il améliore encore les capacités de raisonnement visuel et de suivi des instructions, offrant un niveau de perception visuelle et de cognition plus élevé."
},
"qwen-vl-ocr": {
"description": "Tongyi Qianwen OCR est un modèle spécialisé dans lextraction de texte, focalisé sur les images de documents, tableaux, questions dexamen, écriture manuscrite, etc. Il peut reconnaître plusieurs langues, notamment : chinois, anglais, français, japonais, coréen, allemand, russe, italien, vietnamien et arabe."
},
"qwen-vl-plus": {
"description": "Version améliorée du grand modèle visuel-langage Tongyi Qianwen. Amélioration significative des capacités de reconnaissance des détails et de reconnaissance optique de caractères, supportant des images à résolution supérieure à un million de pixels et des formats dimage de proportions arbitraires."
},
"qwen-vl-plus-latest": {
"description": "Version améliorée du modèle de langage visuel à grande échelle Tongyi Qianwen. Amélioration significative des capacités de reconnaissance des détails et de reconnaissance de texte, prenant en charge des résolutions d'image de plus d'un million de pixels et des rapports d'aspect de n'importe quelle taille."
},
"qwen-vl-v1": {
"description": "Initialisé avec le modèle de langage Qwen-7B, ajoutant un modèle d'image, un modèle pré-entraîné avec une résolution d'entrée d'image de 448."
},
"qwen/qwen-2-7b-instruct": {
"description": "Qwen2 est la toute nouvelle série de modèles de langage de grande taille Qwen. Qwen2 7B est un modèle basé sur le transformateur, qui excelle dans la compréhension du langage, les capacités multilingues, la programmation, les mathématiques et le raisonnement."
},
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, offrant des capacités de compréhension et de génération plus puissantes."
},
"qwen/qwen-2-vl-72b-instruct": {
"description": "Qwen2-VL est la dernière version itérée du modèle Qwen-VL, atteignant des performances de pointe dans les benchmarks de compréhension visuelle, y compris MathVista, DocVQA, RealWorldQA et MTVQA. Qwen2-VL peut comprendre des vidéos de plus de 20 minutes pour des questions-réponses, des dialogues et de la création de contenu de haute qualité basés sur la vidéo. Il possède également des capacités de raisonnement et de décision complexes, pouvant être intégré à des appareils mobiles, des robots, etc., pour des opérations automatiques basées sur l'environnement visuel et des instructions textuelles. En plus de l'anglais et du chinois, Qwen2-VL prend désormais en charge la compréhension du texte dans différentes langues dans les images, y compris la plupart des langues européennes, le japonais, le coréen, l'arabe et le vietnamien."
},
"qwen/qwen-2.5-72b-instruct": {
"description": "Qwen2.5-72B-Instruct est l'un des derniers modèles de langage de grande taille publiés par Alibaba Cloud. Ce modèle de 72B présente des capacités significativement améliorées dans des domaines tels que le codage et les mathématiques. Le modèle offre également un support multilingue, couvrant plus de 29 langues, y compris le chinois et l'anglais. Il a montré des améliorations significatives dans le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (en particulier JSON)."
},
"qwen/qwen2.5-32b-instruct": {
"description": "Qwen2.5-32B-Instruct est l'un des derniers modèles de langage de grande taille publiés par Alibaba Cloud. Ce modèle de 32B présente des capacités significativement améliorées dans des domaines tels que le codage et les mathématiques. Le modèle offre un support multilingue, couvrant plus de 29 langues, y compris le chinois et l'anglais. Il a montré des améliorations significatives dans le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (en particulier JSON)."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM orienté vers le chinois et l'anglais, ciblant des domaines tels que la langue, la programmation, les mathématiques et le raisonnement."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "LLM avancé, prenant en charge la génération de code, le raisonnement et la correction, couvrant les langages de programmation courants."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Modèle de code puissant de taille moyenne, prenant en charge une longueur de contexte de 32K, spécialisé dans la programmation multilingue."
},
"qwen/qwen3-14b": {
"description": "Qwen3-14B est la version 14B de la série Qwen, adaptée aux scénarios de raisonnement général et de dialogue."
},
"qwen/qwen3-14b:free": {
"description": "Qwen3-14B est un modèle de langage causal dense de 14 milliards de paramètres dans la série Qwen3, conçu pour un raisonnement complexe et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour des tâches telles que les mathématiques, la programmation et le raisonnement logique, et un mode non-pensant pour des dialogues généraux. Ce modèle a été affiné pour le suivi des instructions, l'utilisation d'outils d'agents, l'écriture créative et des tâches multilingues dans plus de 100 langues et dialectes. Il gère nativement un contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
},
"qwen/qwen3-235b-a22b": {
"description": "Qwen3-235B-A22B est un modèle de mélange d'experts (MoE) de 235 milliards de paramètres développé par Qwen, activant 22 milliards de paramètres à chaque passage avant. Il permet un passage sans effort entre un mode de pensée pour des tâches complexes de raisonnement, de mathématiques et de code, et un mode non-pensant pour une efficacité dans les dialogues généraux. Ce modèle démontre de solides capacités de raisonnement, un support multilingue (plus de 100 langues et dialectes), un suivi avancé des instructions et des capacités d'appel d'outils d'agents. Il gère nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
},
"qwen/qwen3-235b-a22b-2507": {
"description": "Qwen3-235B-A22B-Instruct-2507 est la version Instruct de la série Qwen3, équilibrant les instructions multilingues et les contextes longs."
},
"qwen/qwen3-235b-a22b-thinking-2507": {
"description": "Qwen3-235B-A22B-Thinking-2507 est une variante Thinking de Qwen3, renforcée pour les tâches complexes de mathématiques et de raisonnement."
},
"qwen/qwen3-235b-a22b:free": {
"description": "Qwen3-235B-A22B est un modèle de mélange d'experts (MoE) de 235 milliards de paramètres développé par Qwen, activant 22 milliards de paramètres à chaque passage avant. Il permet un passage sans effort entre un mode de pensée pour des tâches complexes de raisonnement, de mathématiques et de code, et un mode non-pensant pour une efficacité dans les dialogues généraux. Ce modèle démontre de solides capacités de raisonnement, un support multilingue (plus de 100 langues et dialectes), un suivi avancé des instructions et des capacités d'appel d'outils d'agents. Il gère nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
},
"qwen/qwen3-30b-a3b": {
"description": "Qwen3 est la dernière génération de la série de modèles de langage Qwen, dotée d'une architecture dense et de mélange d'experts (MoE), offrant d'excellentes performances en matière de raisonnement, de support multilingue et de tâches avancées d'agent. Sa capacité unique à passer sans effort entre un mode de pensée pour le raisonnement complexe et un mode non-pensant pour des dialogues efficaces garantit des performances polyvalentes et de haute qualité.\n\nQwen3 surpasse de manière significative les modèles précédents tels que QwQ et Qwen2.5, offrant des capacités exceptionnelles en mathématiques, en codage, en raisonnement de bon sens, en écriture créative et en dialogue interactif. La variante Qwen3-30B-A3B contient 30,5 milliards de paramètres (3,3 milliards de paramètres activés), 48 couches, 128 experts (8 activés par tâche) et prend en charge un contexte allant jusqu'à 131K tokens (utilisant YaRN), établissant une nouvelle norme pour les modèles open source."
},
"qwen/qwen3-30b-a3b:free": {
"description": "Qwen3 est la dernière génération de la série de modèles de langage Qwen, dotée d'une architecture dense et de mélange d'experts (MoE), offrant d'excellentes performances en matière de raisonnement, de support multilingue et de tâches avancées d'agent. Sa capacité unique à passer sans effort entre un mode de pensée pour le raisonnement complexe et un mode non-pensant pour des dialogues efficaces garantit des performances polyvalentes et de haute qualité.\n\nQwen3 surpasse de manière significative les modèles précédents tels que QwQ et Qwen2.5, offrant des capacités exceptionnelles en mathématiques, en codage, en raisonnement de bon sens, en écriture créative et en dialogue interactif. La variante Qwen3-30B-A3B contient 30,5 milliards de paramètres (3,3 milliards de paramètres activés), 48 couches, 128 experts (8 activés par tâche) et prend en charge un contexte allant jusqu'à 131K tokens (utilisant YaRN), établissant une nouvelle norme pour les modèles open source."
},
"qwen/qwen3-32b": {
"description": "Qwen3-32B est un modèle de langage causal dense de 32 milliards de paramètres dans la série Qwen3, optimisé pour un raisonnement complexe et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour des tâches telles que les mathématiques, le codage et le raisonnement logique, et un mode non-pensant pour des dialogues plus rapides et généraux. Ce modèle montre de solides performances dans le suivi des instructions, l'utilisation d'outils d'agents, l'écriture créative et des tâches multilingues dans plus de 100 langues et dialectes. Il gère nativement un contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
},
"qwen/qwen3-32b:free": {
"description": "Qwen3-32B est un modèle de langage causal dense de 32 milliards de paramètres dans la série Qwen3, optimisé pour un raisonnement complexe et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour des tâches telles que les mathématiques, le codage et le raisonnement logique, et un mode non-pensant pour des dialogues plus rapides et généraux. Ce modèle montre de solides performances dans le suivi des instructions, l'utilisation d'outils d'agents, l'écriture créative et des tâches multilingues dans plus de 100 langues et dialectes. Il gère nativement un contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
},
"qwen/qwen3-8b:free": {
"description": "Qwen3-8B est un modèle de langage causal dense de 8 milliards de paramètres dans la série Qwen3, conçu pour des tâches intensives en raisonnement et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour les mathématiques, le codage et le raisonnement logique, et un mode non-pensant pour des dialogues généraux. Ce modèle a été affiné pour le suivi des instructions, l'intégration d'agents, l'écriture créative et l'utilisation multilingue dans plus de 100 langues et dialectes. Il prend en charge nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via YaRN."
},
"qwen/qwen3-coder": {
"description": "Qwen3-Coder est la famille de générateurs de code de Qwen3, spécialisée dans la compréhension et la génération de code dans de longs documents."
},
"qwen/qwen3-coder-plus": {
"description": "Qwen3-Coder-Plus est un modèle dagent de codage spécialement optimisé de la série Qwen, prenant en charge des appels doutils plus complexes et des conversations prolongées."
},
"qwen/qwen3-max": {
"description": "Qwen3 Max est le modèle de raisonnement haut de gamme de la série Qwen3, adapté au raisonnement multilingue et à lintégration doutils."
},
"qwen/qwen3-max-preview": {
"description": "Qwen3 Max (aperçu) est la version Max de la série Qwen, axée sur le raisonnement avancé et lintégration doutils (version préliminaire)."
},
"qwen/qwen3-vl-plus": {
"description": "Qwen3 VL-Plus est la version enrichie en capacités visuelles de Qwen3, améliorant le raisonnement multimodal et le traitement vidéo."
},
"qwen2": {
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
},
"qwen2.5": {
"description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
},
"qwen2.5-14b-instruct": {
"description": "Le modèle de 14B de Tongyi Qwen 2.5, open source."
},
"qwen2.5-14b-instruct-1m": {
"description": "Le modèle de 72B de Qwen2.5 est ouvert au public."
},
"qwen2.5-32b-instruct": {
"description": "Le modèle de 32B de Tongyi Qwen 2.5, open source."
},
"qwen2.5-72b-instruct": {
"description": "Le modèle de 72B de Tongyi Qwen 2.5, open source."
},
"qwen2.5-7b-instruct": {
"description": "Qwen2.5 7B Instruct, un modèle open source mature basé sur des instructions, adapté aux dialogues et à la génération dans divers contextes."
},
"qwen2.5-coder-1.5b-instruct": {
"description": "Version open-source du modèle de code Qwen."
},
"qwen2.5-coder-14b-instruct": {
"description": "Version open source du modèle de code Tongyi Qianwen."
},
"qwen2.5-coder-32b-instruct": {
"description": "Version open source du modèle de code Qwen universel."
},
"qwen2.5-coder-7b-instruct": {
"description": "Version open source du modèle de code Tongyi Qwen."
},
"qwen2.5-coder-instruct": {
"description": "Qwen2.5-Coder est le dernier modèle de langage de grande taille spécialisé dans le code de la série Qwen (anciennement connu sous le nom de CodeQwen)."
},
"qwen2.5-instruct": {
"description": "Qwen2.5 est la dernière série de modèles de langage à grande échelle Qwen. Pour Qwen2.5, nous avons publié plusieurs modèles de langage de base et des modèles de langage affinés par instruction, avec des paramètres allant de 0,5 à 72 milliards."
},
"qwen2.5-math-1.5b-instruct": {
"description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
},
"qwen2.5-math-72b-instruct": {
"description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
},
"qwen2.5-math-7b-instruct": {
"description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
},
"qwen2.5-omni-7b": {
"description": "La série de modèles Qwen-Omni prend en charge l'entrée de données multimodales, y compris des vidéos, de l'audio, des images et du texte, et produit de l'audio et du texte en sortie."
},
"qwen2.5-vl-32b-instruct": {
"description": "Qwen2.5 VL 32B Instruct, un modèle multimodal open source, adapté au déploiement privé et à des applications variées."
},
"qwen2.5-vl-72b-instruct": {
"description": "Amélioration globale des capacités de suivi des instructions, mathématiques, résolution de problèmes et code, amélioration des capacités de reconnaissance, support de divers formats pour un positionnement précis des éléments visuels, compréhension de fichiers vidéo longs (jusqu'à 10 minutes) et localisation d'événements en temps réel, capable de comprendre l'ordre temporel et la vitesse, supportant le contrôle d'agents OS ou Mobile basé sur des capacités d'analyse et de localisation, avec une forte capacité d'extraction d'informations clés et de sortie au format Json. Cette version est la version 72B, la plus puissante de cette série."
},
"qwen2.5-vl-7b-instruct": {
"description": "Qwen2.5 VL 7B Instruct, un modèle multimodal léger, équilibrant coût de déploiement et capacité de reconnaissance."
},
"qwen2.5-vl-instruct": {
"description": "Qwen2.5-VL est la dernière version du modèle de langage visuel de la famille de modèles Qwen."
},
"qwen2.5:0.5b": {
"description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
},
"qwen2.5:1.5b": {
"description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
},
"qwen2.5:72b": {
"description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
},
"qwen2:0.5b": {
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
},
"qwen2:1.5b": {
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
},
"qwen2:72b": {
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
},
"qwen3": {
"description": "Qwen3 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
},
"qwen3-0.6b": {
"description": "Qwen3 0.6B, un modèle dentrée de gamme, adapté au raisonnement simple et aux environnements à ressources très limitées."
},
"qwen3-1.7b": {
"description": "Qwen3 1.7B, un modèle ultra-léger, facile à déployer sur les dispositifs en périphérie ou terminaux."
},
"qwen3-14b": {
"description": "Qwen3 14B, un modèle de taille moyenne, adapté aux questions-réponses multilingues et à la génération de texte."
},
"qwen3-235b-a22b": {
"description": "Qwen3 235B A22B, un grand modèle généraliste, conçu pour une variété de tâches complexes."
},
"qwen3-235b-a22b-instruct-2507": {
"description": "Qwen3 235B A22B Instruct 2507, un modèle Instruct phare, adapté à la génération et au raisonnement dans divers scénarios."
},
"qwen3-235b-a22b-thinking-2507": {
"description": "Qwen3 235B A22B Thinking 2507, un modèle de raisonnement à très grande échelle, conçu pour les tâches de réflexion avancée."
},
"qwen3-30b-a3b": {
"description": "Qwen3 30B A3B, un modèle généraliste de taille moyenne à grande, équilibrant coût et performance."
},
"qwen3-30b-a3b-instruct-2507": {
"description": "Qwen3 30B A3B Instruct 2507, un modèle Instruct de taille moyenne à grande, adapté à la génération de haute qualité et aux questions-réponses."
},
"qwen3-30b-a3b-thinking-2507": {
"description": "Qwen3 30B A3B Thinking 2507, un modèle de réflexion de taille moyenne à grande, alliant précision et maîtrise des coûts."
},
"qwen3-32b": {
"description": "Qwen3 32B, un modèle généraliste adapté aux tâches nécessitant une compréhension approfondie."
},
"qwen3-4b": {
"description": "Qwen3 4B, adapté aux applications de petite à moyenne taille et aux scénarios dinférence locale."
},
"qwen3-8b": {
"description": "Qwen3 8B, un modèle léger et flexible, idéal pour les services à haute concurrence."
},
"qwen3-coder-30b-a3b-instruct": {
"description": "Version open source du modèle de génération de code Qwen. Le dernier qwen3-coder-30b-a3b-instruct, basé sur Qwen3, est un modèle puissant de génération de code doté de capacités avancées dagent de codage. Il excelle dans lappel doutils et linteraction avec lenvironnement, permettant une programmation autonome tout en conservant des compétences générales solides."
},
"qwen3-coder-480b-a35b-instruct": {
"description": "Qwen3 Coder 480B A35B Instruct, un modèle de codage de niveau phare, prenant en charge la programmation multilingue et la compréhension de code complexe."
},
"qwen3-coder-flash": {
"description": "Modèle de code Tongyi Qianwen. La dernière série de modèles Qwen3-Coder est basée sur Qwen3 pour la génération de code, avec une puissante capacité d'agent de codage, maîtrisant l'appel d'outils et l'interaction avec l'environnement, capable de programmation autonome, alliant excellence en codage et polyvalence."
},
"qwen3-coder-plus": {
"description": "Modèle de code Tongyi Qianwen. La dernière série de modèles Qwen3-Coder est basée sur Qwen3 pour la génération de code, avec une puissante capacité d'agent de codage, maîtrisant l'appel d'outils et l'interaction avec l'environnement, capable de programmation autonome, alliant excellence en codage et polyvalence."
},
"qwen3-coder:480b": {
"description": "Modèle à contexte long haute performance d'Alibaba, conçu pour les tâches d'agents et de codage."
},
"qwen3-max": {
"description": "La série Max de Tongyi Qianwen 3 offre une amélioration significative par rapport à la série 2.5 en termes de capacités générales. Elle renforce notablement la compréhension du texte en chinois et en anglais, la capacité à suivre des instructions complexes, les tâches ouvertes subjectives, les compétences multilingues et l'appel d'outils ; le modèle présente également moins d'hallucinations de connaissances. La dernière version du modèle qwen3-max, comparée à la version preview, a bénéficié d'une mise à niveau spécifique en programmation d'agents et en appel d'outils. La version officielle publiée atteint un niveau SOTA dans son domaine, adaptée aux besoins plus complexes des agents intelligents."
},
"qwen3-max-preview": {
"description": "Le modèle le plus performant de la série Tongyi Qianwen, adapté aux tâches complexes et à étapes multiples. La version de prévisualisation prend déjà en charge la réflexion."
},
"qwen3-next-80b-a3b-instruct": {
"description": "Modèle open source de nouvelle génération en mode non réflexif basé sur Qwen3, offrant une meilleure compréhension du texte en chinois, des capacités de raisonnement logique renforcées et de meilleures performances dans les tâches de génération de texte par rapport à la version précédente (Tongyi Qianwen 3-235B-A22B-Instruct-2507)."
},
"qwen3-next-80b-a3b-thinking": {
"description": "Qwen3 Next 80B A3B Thinking, une version de raisonnement phare conçue pour les tâches complexes."
},
"qwen3-omni-flash": {
"description": "Le modèle Qwen-Omni accepte des entrées combinées de texte, image, audio et vidéo, et génère des réponses sous forme de texte ou de voix. Il propose plusieurs voix synthétiques réalistes, prend en charge plusieurs langues et dialectes, et peut être utilisé dans des scénarios tels que la création de contenu, la reconnaissance visuelle et les assistants vocaux."
},
"qwen3-vl-235b-a22b-instruct": {
"description": "Qwen3 VL 235B A22B Instruct, un modèle multimodal phare, destiné aux scénarios exigeants de compréhension et de création."
},
"qwen3-vl-235b-a22b-thinking": {
"description": "Qwen3 VL 235B A22B Thinking, version de réflexion phare, conçue pour le raisonnement et la planification multimodale complexes."
},
"qwen3-vl-30b-a3b-instruct": {
"description": "Qwen3 VL 30B A3B Instruct, un grand modèle multimodal, équilibrant précision et performance de raisonnement."
},
"qwen3-vl-30b-a3b-thinking": {
"description": "Qwen3 VL 30B A3B Thinking, version de réflexion approfondie pour les tâches multimodales complexes."
},
"qwen3-vl-32b-instruct": {
"description": "Qwen3 VL 32B Instruct, un modèle multimodal affiné par instruction, adapté aux questions-réponses image-texte de haute qualité et à la création."
},
"qwen3-vl-32b-thinking": {
"description": "Qwen3 VL 32B Thinking, version de réflexion multimodale, renforçant le raisonnement complexe et lanalyse à long terme."
},
"qwen3-vl-8b-instruct": {
"description": "Qwen3 VL 8B Instruct, un modèle multimodal léger, idéal pour les questions-réponses visuelles quotidiennes et lintégration applicative."
},
"qwen3-vl-8b-thinking": {
"description": "Qwen3 VL 8B Thinking, un modèle de chaîne de pensée multimodale, adapté au raisonnement détaillé sur les informations visuelles."
},
"qwen3-vl-flash": {
"description": "Qwen3 VL Flash : version allégée à inférence rapide, idéale pour les scénarios sensibles à la latence ou les requêtes en grand volume."
},
"qwen3-vl-plus": {
"description": "Tongyi Qianwen VL est un modèle de génération de texte doté de capacités de compréhension visuelle (images). Il peut non seulement effectuer de l'OCR (reconnaissance de texte sur images), mais aussi résumer et raisonner davantage, par exemple extraire des attributs à partir de photos de produits ou résoudre des exercices à partir d'images."
},
"qwq": {
"description": "QwQ est un modèle de recherche expérimental, axé sur l'amélioration des capacités de raisonnement de l'IA."
},
"qwq-32b": {
"description": "Le modèle d'inférence QwQ, entraîné sur le modèle Qwen2.5-32B, a considérablement amélioré ses capacités d'inférence grâce à l'apprentissage par renforcement. Les indicateurs clés du modèle, tels que le code mathématique (AIME 24/25, LiveCodeBench) ainsi que certains indicateurs généraux (IFEval, LiveBench, etc.), atteignent le niveau de la version complète de DeepSeek-R1, avec des performances nettement supérieures à celles de DeepSeek-R1-Distill-Qwen-32B, également basé sur Qwen2.5-32B."
},
"qwq-32b-preview": {
"description": "Le modèle QwQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA."
},
"qwq-plus": {
"description": "Modèle dinférence QwQ entraîné sur la base du modèle Qwen2.5, avec un renforcement par apprentissage qui améliore considérablement les capacités de raisonnement. Les indicateurs clés en mathématiques et code (AIME 24/25, LiveCodeBench) ainsi que certains indicateurs généraux (IFEval, LiveBench, etc.) atteignent le niveau complet de DeepSeek-R1."
},
"qwq_32b": {
"description": "Modèle de raisonnement de taille moyenne de la série Qwen. Comparé aux modèles d'ajustement d'instructions traditionnels, QwQ, avec ses capacités de réflexion et de raisonnement, peut considérablement améliorer les performances dans les tâches en aval, en particulier lors de la résolution de problèmes difficiles."
},
"r1-1776": {
"description": "R1-1776 est une version du modèle DeepSeek R1, après un entraînement supplémentaire, fournissant des informations factuelles non filtrées et impartiales."
},
"solar-mini": {
"description": "Solar Mini est un LLM compact, offrant des performances supérieures à celles de GPT-3.5, avec de puissantes capacités multilingues, prenant en charge l'anglais et le coréen, et fournissant une solution efficace et compacte."
},
"solar-mini-ja": {
"description": "Solar Mini (Ja) étend les capacités de Solar Mini, se concentrant sur le japonais tout en maintenant une efficacité et des performances exceptionnelles dans l'utilisation de l'anglais et du coréen."
},
"solar-pro": {
"description": "Solar Pro est un LLM hautement intelligent lancé par Upstage, axé sur la capacité de suivi des instructions sur un seul GPU, avec un score IFEval supérieur à 80. Actuellement, il supporte l'anglais, et la version officielle est prévue pour novembre 2024, avec une extension du support linguistique et de la longueur du contexte."
},
"sonar": {
"description": "Produit de recherche léger basé sur le contexte de recherche, plus rapide et moins cher que Sonar Pro."
},
"sonar-deep-research": {
"description": "Deep Research effectue des recherches approfondies de niveau expert et les synthétise en rapports accessibles et exploitables."
},
"sonar-pro": {
"description": "Produit de recherche avancé prenant en charge le contexte de recherche, avec des requêtes avancées et un suivi."
},
"sonar-reasoning": {
"description": "Nouveau produit API soutenu par le modèle de raisonnement DeepSeek."
},
"sonar-reasoning-pro": {
"description": "Nouveau produit API soutenu par le modèle de raisonnement DeepSeek."
},
"spark-x": {
"description": "Présentation des capacités de X1.5 : (1) Ajout dun mode de pensée dynamique contrôlé via le champ thinking ; (2) Longueur de contexte augmentée : 64K en entrée et en sortie ; (3) Prise en charge de la fonctionnalité FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Le dernier grand modèle de génération d'images à partir de texte lancé par Stability AI. Cette version améliore significativement la qualité d'image, la compréhension du texte et la diversité des styles, tout en héritant des avantages des versions précédentes. Il interprète plus précisément les invites en langage naturel complexes et génère des images plus précises et variées."
},
"stable-diffusion-3.5-large": {
"description": "stable-diffusion-3.5-large est un modèle de génération d'images à partir de texte multimodal à base de transformateur de diffusion (MMDiT) avec 800 millions de paramètres, offrant une qualité d'image exceptionnelle et une correspondance précise aux invites, capable de générer des images haute résolution jusqu'à 1 million de pixels, tout en fonctionnant efficacement sur du matériel grand public."
},
"stable-diffusion-3.5-large-turbo": {
"description": "stable-diffusion-3.5-large-turbo est un modèle basé sur stable-diffusion-3.5-large utilisant la technique de distillation par diffusion antagoniste (ADD), offrant une vitesse accrue."
},
"stable-diffusion-v1.5": {
"description": "stable-diffusion-v1.5 est initialisé avec les poids du checkpoint stable-diffusion-v1.2 et affiné pendant 595k étapes à une résolution de 512x512 sur \"laion-aesthetics v2 5+\", avec une réduction de 10 % de la condition textuelle pour améliorer l'échantillonnage guidé sans classificateur."
},
"stable-diffusion-xl": {
"description": "stable-diffusion-xl apporte des améliorations majeures par rapport à la version v1.5, avec des performances comparables au modèle open source SOTA midjourney. Les améliorations incluent un backbone unet trois fois plus grand, un module de raffinement pour améliorer la qualité des images générées, et des techniques d'entraînement plus efficaces."
},
"stable-diffusion-xl-base-1.0": {
"description": "Grand modèle open source de génération d'images à partir de texte développé par Stability AI, avec des capacités créatives de premier plan dans l'industrie. Il possède une excellente compréhension des instructions et supporte la définition de prompts inversés pour une génération précise du contenu."
},
"step-1-128k": {
"description": "Équilibre entre performance et coût, adapté à des scénarios généraux."
},
"step-1-256k": {
"description": "Capacité de traitement de contexte ultra long, particulièrement adapté à l'analyse de documents longs."
},
"step-1-32k": {
"description": "Prend en charge des dialogues de longueur moyenne, adapté à divers scénarios d'application."
},
"step-1-8k": {
"description": "Modèle de petite taille, adapté aux tâches légères."
},
"step-1-flash": {
"description": "Modèle à haute vitesse, adapté aux dialogues en temps réel."
},
"step-1.5v-mini": {
"description": "Ce modèle possède de puissantes capacités de compréhension vidéo."
},
"step-1o-turbo-vision": {
"description": "Ce modèle possède de puissantes capacités de compréhension d'image, surpassant le 1o dans les domaines mathématiques et de codage. Le modèle est plus petit que le 1o et offre une vitesse de sortie plus rapide."
},
"step-1o-vision-32k": {
"description": "Ce modèle possède de puissantes capacités de compréhension d'image. Par rapport à la série de modèles step-1v, il offre des performances visuelles supérieures."
},
"step-1v-32k": {
"description": "Prend en charge les entrées visuelles, améliorant l'expérience d'interaction multimodale."
},
"step-1v-8k": {
"description": "Modèle visuel compact, adapté aux tâches de base en texte et image."
},
"step-1x-edit": {
"description": "Ce modèle est spécialisé dans les tâches d'édition d'images, capable de modifier et d'améliorer des images selon les descriptions textuelles et les images fournies par l'utilisateur. Il supporte plusieurs formats d'entrée, comprenant descriptions textuelles et images d'exemple. Le modèle comprend l'intention de l'utilisateur et génère des résultats d'édition conformes aux exigences."
},
"step-1x-medium": {
"description": "Ce modèle possède de puissantes capacités de génération d'images, supportant les descriptions textuelles comme entrée. Il offre un support natif du chinois, permettant une meilleure compréhension et traitement des descriptions textuelles en chinois, capturant plus précisément la sémantique pour la transformer en caractéristiques d'image, réalisant ainsi une génération d'images plus précise. Le modèle génère des images haute résolution et de haute qualité, avec une certaine capacité de transfert de style."
},
"step-2-16k": {
"description": "Prend en charge des interactions contextuelles à grande échelle, adapté aux scénarios de dialogue complexes."
},
"step-2-16k-exp": {
"description": "Version expérimentale du modèle step-2, contenant les dernières fonctionnalités, en cours de mise à jour. Non recommandé pour une utilisation en production officielle."
},
"step-2-mini": {
"description": "Un modèle de grande taille ultra-rapide basé sur la nouvelle architecture d'attention auto-développée MFA, atteignant des résultats similaires à ceux de step1 à un coût très bas, tout en maintenant un débit plus élevé et un temps de réponse plus rapide. Capable de traiter des tâches générales, avec des compétences particulières en matière de codage."
},
"step-2x-large": {
"description": "Modèle de nouvelle génération Step Star, spécialisé dans la génération d'images, capable de créer des images de haute qualité à partir de descriptions textuelles fournies par l'utilisateur. Le nouveau modèle produit des images avec une texture plus réaliste et une meilleure capacité de génération de texte en chinois et en anglais."
},
"step-3": {
"description": "Ce modèle dispose d'une puissante perception visuelle et d'une capacité de raisonnement complexe. Il peut accomplir avec précision la compréhension de connaissances complexes inter-domaines, l'analyse croisée d'informations mathématiques et visuelles, ainsi que divers problèmes d'analyse visuelle rencontrés dans la vie quotidienne."
},
"step-r1-v-mini": {
"description": "Ce modèle est un grand modèle de raisonnement avec de puissantes capacités de compréhension d'image, capable de traiter des informations visuelles et textuelles, produisant du texte après une réflexion approfondie. Ce modèle se distingue dans le domaine du raisonnement visuel, tout en possédant des capacités de raisonnement mathématique, de code et de texte de premier plan. La longueur du contexte est de 100k."
},
"stepfun-ai/step3": {
"description": "Step3 est un modèle de raisonnement multimodal de pointe publié par StepFun (阶跃星辰). Il est construit sur une architecture Mixture-of-Experts (MoE) comportant 321 milliards de paramètres au total et 38 milliards de paramètres d'activation. Le modèle adopte une conception bout en bout visant à minimiser le coût de décodage tout en offrant des performances de premier plan en raisonnement visuel et linguistique. Grâce à la conception synergique de l'attention par décomposition multi-matrice (MFA) et du découplage attentionFFN (AFD), Step3 conserve une grande efficacité aussi bien sur des accélérateurs haut de gamme que sur des accélérateurs d'entrée de gamme. Lors de la préentraînement, Step3 a traité plus de 20 000 milliards de tokens textuels et 4 000 milliards de tokens mixtes imagetexte, couvrant une dizaine de langues. Le modèle atteint des niveaux de référence parmi les meilleurs des modèles open source sur plusieurs benchmarks, notamment en mathématiques, en code et en multimodalité."
},
"taichu_llm": {
"description": "Le modèle de langage Taichu Zidong possède une forte capacité de compréhension linguistique ainsi que des compétences en création de texte, questions-réponses, programmation, calcul mathématique, raisonnement logique, analyse des sentiments, et résumé de texte. Il combine de manière innovante le pré-entraînement sur de grandes données avec des connaissances riches provenant de multiples sources, en perfectionnant continuellement la technologie algorithmique et en intégrant de nouvelles connaissances sur le vocabulaire, la structure, la grammaire et le sens à partir de vastes ensembles de données textuelles, offrant aux utilisateurs des informations et des services plus pratiques ainsi qu'une expérience plus intelligente."
},
"taichu_o1": {
"description": "taichu_o1 est un nouveau modèle de raisonnement de grande taille, réalisant une chaîne de pensée semblable à celle des humains grâce à des interactions multimodales et à l'apprentissage par renforcement, prenant en charge des déductions de décisions complexes, tout en montrant des chemins de raisonnement modélisés avec une sortie de haute précision, adapté à des scénarios d'analyse stratégique et de réflexion approfondie."
},
"taichu_vl": {
"description": "Intègre des capacités de compréhension d'image, de transfert de connaissances et de raisonnement logique, se distinguant dans le domaine des questions-réponses textuelles et visuelles."
},
"tencent/Hunyuan-A13B-Instruct": {
"description": "Hunyuan-A13B-Instruct compte 80 milliards de paramètres, avec seulement 13 milliards activés pour rivaliser avec des modèles plus grands, supportant un raisonnement hybride « pensée rapide/pensée lente » ; compréhension stable des textes longs ; validé par BFCL-v3 et τ-Bench, ses capacités dagent sont en avance ; combinant GQA et plusieurs formats de quantification, il réalise un raisonnement efficace."
},
"tencent/Hunyuan-MT-7B": {
"description": "Le modèle de traduction Hunyuan est composé du modèle Hunyuan-MT-7B et du modèle intégré Hunyuan-MT-Chimera. Hunyuan-MT-7B est un modèle de traduction léger avec 7 milliards de paramètres, conçu pour traduire des textes sources vers des langues cibles. Il prend en charge la traduction entre 33 langues ainsi que 5 langues des minorités ethniques chinoises. Lors du concours international de traduction automatique WMT25, Hunyuan-MT-7B a obtenu la première place dans 30 des 31 catégories linguistiques auxquelles il a participé, démontrant ses capacités de traduction exceptionnelles. Pour les scénarios de traduction, Tencent Hunyuan a proposé un paradigme d'entraînement complet allant de la pré-formation à l'ajustement supervisé, puis au renforcement par traduction et à l'intégration renforcée, atteignant des performances de pointe parmi les modèles de taille équivalente. Ce modèle est efficace en calcul, facile à déployer et adapté à divers cas d'utilisation."
},
"text-embedding-3-large": {
"description": "Le modèle de vectorisation le plus puissant, adapté aux tâches en anglais et non-anglais."
},
"text-embedding-3-small": {
"description": "Un modèle d'Embedding de nouvelle génération, efficace et économique, adapté à la recherche de connaissances, aux applications RAG, etc."
},
"thudm/glm-4-32b": {
"description": "GLM-4-32B-0414 est un modèle de langage à poids ouvert de 32B bilingue (chinois-anglais), optimisé pour la génération de code, les appels de fonctions et les tâches d'agents. Il a été pré-entraîné sur 15T de données de haute qualité et de réinférence, et perfectionné par un alignement des préférences humaines, un échantillonnage de rejet et un apprentissage par renforcement. Ce modèle excelle dans le raisonnement complexe, la génération d'artefacts et les tâches de sortie structurée, atteignant des performances comparables à celles de GPT-4o et DeepSeek-V3-0324 dans plusieurs tests de référence."
},
"thudm/glm-4-32b:free": {
"description": "GLM-4-32B-0414 est un modèle de langage à poids ouvert de 32B bilingue (chinois-anglais), optimisé pour la génération de code, les appels de fonctions et les tâches d'agents. Il a été pré-entraîné sur 15T de données de haute qualité et de réinférence, et perfectionné par un alignement des préférences humaines, un échantillonnage de rejet et un apprentissage par renforcement. Ce modèle excelle dans le raisonnement complexe, la génération d'artefacts et les tâches de sortie structurée, atteignant des performances comparables à celles de GPT-4o et DeepSeek-V3-0324 dans plusieurs tests de référence."
},
"thudm/glm-4-9b-chat": {
"description": "Version open source de la dernière génération de modèles pré-entraînés de la série GLM-4 publiée par Zhizhu AI."
},
"thudm/glm-z1-32b": {
"description": "GLM-Z1-32B-0414 est une variante de raisonnement améliorée de GLM-4-32B, construite pour résoudre des problèmes de mathématiques profondes, de logique et orientés code. Il applique un apprentissage par renforcement étendu (spécifique à la tâche et basé sur des préférences par paires générales) pour améliorer les performances sur des tâches complexes à plusieurs étapes. Par rapport au modèle de base GLM-4-32B, Z1 améliore considérablement les capacités de raisonnement structuré et de domaine formel.\n\nCe modèle prend en charge l'exécution des étapes de 'pensée' via l'ingénierie des invites et offre une cohérence améliorée pour les sorties au format long. Il est optimisé pour les flux de travail d'agents et prend en charge un long contexte (via YaRN), des appels d'outils JSON et une configuration d'échantillonnage de granularité fine pour un raisonnement stable. Idéal pour les cas d'utilisation nécessitant une réflexion approfondie, un raisonnement à plusieurs étapes ou une déduction formelle."
},
"thudm/glm-z1-rumination-32b": {
"description": "THUDM : GLM Z1 Rumination 32B est un modèle de raisonnement profond de 32 milliards de paramètres dans la série GLM-4-Z1, optimisé pour des tâches complexes et ouvertes nécessitant une réflexion prolongée. Il est construit sur la base de glm-4-32b-0414, ajoutant une phase d'apprentissage par renforcement supplémentaire et une stratégie d'alignement multi-étapes, introduisant une capacité de \"réflexion\" destinée à simuler un traitement cognitif étendu. Cela inclut un raisonnement itératif, une analyse multi-sauts et des flux de travail améliorés par des outils, tels que la recherche, la récupération et la synthèse consciente des citations.\n\nCe modèle excelle dans l'écriture de recherche, l'analyse comparative et les questions complexes. Il prend en charge les appels de fonction pour les primitives de recherche et de navigation (`search`, `click`, `open`, `finish`), permettant son utilisation dans des pipelines d'agents. Le comportement de réflexion est façonné par un contrôle cyclique multi-tours avec des récompenses basées sur des règles et un mécanisme de décision différée, et est étalonné sur des cadres de recherche approfondie tels que la pile d'alignement interne d'OpenAI. Cette variante est adaptée aux scénarios nécessitant de la profondeur plutôt que de la vitesse."
},
"tngtech/deepseek-r1t-chimera:free": {
"description": "DeepSeek-R1T-Chimera est créé en combinant DeepSeek-R1 et DeepSeek-V3 (0324), alliant la capacité de raisonnement de R1 et les améliorations d'efficacité des tokens de V3. Il est basé sur l'architecture DeepSeek-MoE Transformer et optimisé pour des tâches générales de génération de texte.\n\nCe modèle fusionne les poids pré-entraînés des deux modèles sources pour équilibrer les performances en raisonnement, en efficacité et en suivi des instructions. Il est publié sous la licence MIT, destiné à un usage de recherche et commercial."
},
"togethercomputer/StripedHyena-Nous-7B": {
"description": "StripedHyena Nous (7B) offre une capacité de calcul améliorée grâce à des stratégies et une architecture de modèle efficaces."
},
"tts-1": {
"description": "Le dernier modèle de synthèse vocale, optimisé pour la vitesse dans des scénarios en temps réel."
},
"tts-1-hd": {
"description": "Le dernier modèle de synthèse vocale, optimisé pour la qualité."
},
"upstage/SOLAR-10.7B-Instruct-v1.0": {
"description": "Upstage SOLAR Instruct v1 (11B) est adapté aux tâches d'instructions détaillées, offrant d'excellentes capacités de traitement du langage."
},
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
},
"us.anthropic.claude-3-7-sonnet-20250219-v1:0": {
"description": "Claude 3.7 sonnet est le modèle de prochaine génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, Claude 3.7 Sonnet a amélioré ses compétences dans divers domaines et a surpassé le plus grand modèle de la génération précédente, Claude 3 Opus, dans de nombreux tests de référence intellectuels."
},
"us.anthropic.claude-haiku-4-5-20251001-v1:0": {
"description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, offrant une vitesse fulgurante et une capacité de raisonnement étendue."
},
"us.anthropic.claude-sonnet-4-5-20250929-v1:0": {
"description": "Claude Sonnet 4.5 est le modèle le plus intelligent jamais conçu par Anthropic."
},
"v0-1.0-md": {
"description": "Le modèle v0-1.0-md est une version ancienne proposée via l'API v0"
},
"v0-1.5-lg": {
"description": "Le modèle v0-1.5-lg est adapté aux tâches de réflexion avancée ou de raisonnement"
},
"v0-1.5-md": {
"description": "Le modèle v0-1.5-md convient aux tâches quotidiennes et à la génération d'interfaces utilisateur (UI)"
},
"vercel/v0-1.0-md": {
"description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
},
"vercel/v0-1.5-md": {
"description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
},
"volcengine/doubao-seed-code": {
"description": "Doubao-Seed-Code est un grand modèle optimisé par Volcengine pour la programmation agentique, performant sur de nombreux benchmarks de codage et dagents, avec prise en charge de contextes jusquà 256K."
},
"wan2.2-t2i-flash": {
"description": "Version ultra-rapide Wanxiang 2.2, le modèle le plus récent à ce jour. Améliorations globales en créativité, stabilité et réalisme, avec une vitesse de génération rapide et un excellent rapport qualité-prix."
},
"wan2.2-t2i-plus": {
"description": "Version professionnelle Wanxiang 2.2, le modèle le plus récent à ce jour. Améliorations globales en créativité, stabilité et réalisme, avec des détails de génération riches."
},
"wanx-v1": {
"description": "Modèle de base de génération d'images à partir de texte, correspondant au modèle général 1.0 officiel de Tongyi Wanxiang."
},
"wanx2.0-t2i-turbo": {
"description": "Spécialisé dans les portraits réalistes, vitesse moyenne et coût réduit. Correspond au modèle ultra-rapide 2.0 officiel de Tongyi Wanxiang."
},
"wanx2.1-t2i-plus": {
"description": "Version entièrement améliorée. Génère des images avec des détails plus riches, vitesse légèrement plus lente. Correspond au modèle professionnel 2.1 officiel de Tongyi Wanxiang."
},
"wanx2.1-t2i-turbo": {
"description": "Version entièrement améliorée. Vitesse de génération rapide, résultats complets, excellent rapport qualité-prix. Correspond au modèle ultra-rapide 2.1 officiel de Tongyi Wanxiang."
},
"whisper-1": {
"description": "Modèle universel de reconnaissance vocale, prenant en charge la reconnaissance vocale multilingue, la traduction vocale et la reconnaissance de langue."
},
"wizardlm2": {
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
},
"wizardlm2:8x22b": {
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
},
"x-ai/grok-4": {
"description": "Grok 4 est le modèle phare de raisonnement de xAI, offrant de puissantes capacités de raisonnement et de traitement multimodal."
},
"x-ai/grok-4-fast": {
"description": "Grok 4 Fast est un modèle à haut débit et faible coût de xAI (prise en charge dune fenêtre de contexte de 2M), idéal pour les scénarios nécessitant une forte concurrence et de longs contextes."
},
"x-ai/grok-4-fast-non-reasoning": {
"description": "Grok 4 Fast (Non-Reasoning) est un modèle multimodal à haut débit et faible coût de xAI (prise en charge dune fenêtre de contexte de 2M), destiné aux scénarios sensibles à la latence et au coût ne nécessitant pas de raisonnement intégré. Il fonctionne en parallèle avec la version reasoning de Grok 4 Fast, et le raisonnement peut être activé via le paramètre reasoning enable de lAPI. Les prompts et complétions peuvent être utilisés par xAI ou OpenRouter pour améliorer les modèles futurs."
},
"x-ai/grok-4.1-fast": {
"description": "Grok 4.1 Fast est un modèle à haut débit et faible coût de xAI (prise en charge dune fenêtre de contexte de 2M), idéal pour les scénarios nécessitant une forte concurrence et de longs contextes."
},
"x-ai/grok-4.1-fast-non-reasoning": {
"description": "Grok 4.1 Fast (Non-Reasoning) est un modèle multimodal à haut débit et faible coût de xAI (prise en charge dune fenêtre de contexte de 2M), destiné aux scénarios sensibles à la latence et au coût ne nécessitant pas de raisonnement intégré. Il fonctionne en parallèle avec la version reasoning de Grok 4.1 Fast, et le raisonnement peut être activé via le paramètre reasoning enable de lAPI. Les prompts et complétions peuvent être utilisés par xAI ou OpenRouter pour améliorer les modèles futurs."
},
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 est le modèle de code rapide de xAI, produisant des sorties lisibles et adaptées à lingénierie."
},
"xai/grok-2": {
"description": "Grok 2 est un modèle de langage de pointe avec des capacités de raisonnement avancées. Il excelle en chat, codage et raisonnement, surpassant Claude 3.5 Sonnet et GPT-4-Turbo dans le classement LMSYS."
},
"xai/grok-2-vision": {
"description": "Le modèle visuel Grok 2 excelle dans les tâches basées sur la vision, offrant des performances de pointe en raisonnement mathématique visuel (MathVista) et en questions-réponses basées sur documents (DocVQA). Il peut traiter diverses informations visuelles, y compris documents, graphiques, diagrammes, captures d'écran et photos."
},
"xai/grok-3": {
"description": "Modèle phare de xAI, performant pour les cas d'usage d'entreprise tels que l'extraction de données, le codage et le résumé de texte. Il possède une expertise approfondie dans les domaines financier, médical, juridique et scientifique."
},
"xai/grok-3-fast": {
"description": "Modèle phare de xAI, performant pour les cas d'usage d'entreprise tels que l'extraction de données, le codage et le résumé de texte. La variante rapide est servie sur une infrastructure plus rapide, offrant des temps de réponse bien supérieurs au standard, au coût accru par token de sortie."
},
"xai/grok-3-mini": {
"description": "Modèle léger de xAI, réfléchissant avant de répondre. Idéal pour les tâches simples ou logiques ne nécessitant pas une expertise approfondie. La trajectoire de pensée brute est accessible."
},
"xai/grok-3-mini-fast": {
"description": "Modèle léger de xAI, réfléchissant avant de répondre. Idéal pour les tâches simples ou logiques ne nécessitant pas une expertise approfondie. La trajectoire de pensée brute est accessible. La variante rapide est servie sur une infrastructure plus rapide, offrant des temps de réponse bien supérieurs au standard, au coût accru par token de sortie."
},
"xai/grok-4": {
"description": "Le dernier et meilleur modèle phare de xAI, offrant des performances inégalées en langage naturel, mathématiques et raisonnement — un véritable modèle polyvalent."
},
"yi-large": {
"description": "Un modèle de nouvelle génération avec des milliards de paramètres, offrant des capacités de question-réponse et de génération de texte exceptionnelles."
},
"yi-large-fc": {
"description": "Basé sur le modèle yi-large, il prend en charge et renforce les capacités d'appel d'outils, adapté à divers scénarios d'affaires nécessitant la création d'agents ou de workflows."
},
"yi-large-preview": {
"description": "Version préliminaire, il est recommandé d'utiliser yi-large (nouvelle version)."
},
"yi-large-rag": {
"description": "Un service de haut niveau basé sur le modèle yi-large, combinant des techniques de recherche et de génération pour fournir des réponses précises, avec un service de recherche d'informations en temps réel sur le web."
},
"yi-large-turbo": {
"description": "Un excellent rapport qualité-prix avec des performances exceptionnelles. Optimisé pour un équilibre de haute précision en fonction des performances, de la vitesse de raisonnement et des coûts."
},
"yi-lightning": {
"description": "Modèle haute performance dernier cri, garantissant une sortie de haute qualité tout en améliorant considérablement la vitesse d'inférence."
},
"yi-lightning-lite": {
"description": "Version allégée, l'utilisation de yi-lightning est recommandée."
},
"yi-medium": {
"description": "Modèle de taille moyenne, optimisé et ajusté, offrant un équilibre de capacités et un bon rapport qualité-prix. Optimisation approfondie des capacités de suivi des instructions."
},
"yi-medium-200k": {
"description": "Fenêtre de contexte ultra longue de 200K, offrant une compréhension et une génération de texte en profondeur."
},
"yi-spark": {
"description": "Petit mais puissant, un modèle léger et rapide. Offre des capacités renforcées en calcul mathématique et en rédaction de code."
},
"yi-vision": {
"description": "Modèle pour des tâches visuelles complexes, offrant des capacités de compréhension et d'analyse d'images de haute performance."
},
"yi-vision-v2": {
"description": "Modèle pour des tâches visuelles complexes, offrant des capacités de compréhension et d'analyse de haute performance basées sur plusieurs images."
},
"z-ai/glm-4.5": {
"description": "GLM 4.5 est le modèle phare de Z.AI, prenant en charge les modes de raisonnement hybrides et optimisé pour les tâches dingénierie et de long contexte."
},
"z-ai/glm-4.5-air": {
"description": "GLM 4.5 Air est une version allégée de GLM 4.5, adaptée aux scénarios sensibles au coût tout en conservant de solides capacités de raisonnement."
},
"z-ai/glm-4.6": {
"description": "GLM 4.6 est le modèle phare de Z.AI, avec des capacités étendues de longueur de contexte et de codage."
},
"zai-glm-4.6": {
"description": "Excellente performance en programmation et en tâches de raisonnement, avec prise en charge du streaming et des appels d'outils. Idéal pour le codage agentique et les scénarios de raisonnement complexe."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 est un modèle de base conçu pour les applications d'agents intelligents, utilisant une architecture Mixture-of-Experts (MoE). Il est profondément optimisé pour l'appel d'outils, la navigation web, l'ingénierie logicielle et la programmation front-end, supportant une intégration transparente avec des agents de code tels que Claude Code et Roo Code. GLM-4.5 utilise un mode d'inférence hybride, adapté à des scénarios variés allant du raisonnement complexe à l'usage quotidien."
},
"zai-org/GLM-4.5-Air": {
"description": "GLM-4.5-Air est un modèle de base conçu pour les applications d'agents intelligents, utilisant une architecture Mixture-of-Experts (MoE). Il est profondément optimisé pour l'appel d'outils, la navigation web, l'ingénierie logicielle et la programmation front-end, supportant une intégration transparente avec des agents de code tels que Claude Code et Roo Code. GLM-4.5 utilise un mode d'inférence hybride, adapté à des scénarios variés allant du raisonnement complexe à l'usage quotidien."
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V est la dernière génération de modèle langage-visuel (VLM) publiée par Zhipu AI. Ce modèle est construit sur le modèle texte phare GLM-4.5-Air, qui compte 106 milliards de paramètres au total et 12 milliards de paramètres d'activation, et adopte une architecture de mixture d'experts (MoE) afin d'obtenir des performances excellentes à un coût d'inférence réduit. Sur le plan technique, GLM-4.5V prolonge la lignée de GLM-4.1V-Thinking et introduit des innovations telles que l'encodage de position rotatif en 3D (3D-RoPE), renforçant de façon significative la perception et le raisonnement des relations spatiales tridimensionnelles. Grâce aux optimisations apportées lors des phases de pré-entraînement, d'affinage supervisé et d'apprentissage par renforcement, ce modèle est capable de traiter divers contenus visuels, notamment des images, des vidéos et des documents longs, et atteint un niveau de pointe parmi les modèles open source de la même catégorie sur 41 benchmarks multimodaux publics. De plus, le modèle intègre un interrupteur « mode réflexion » permettant aux utilisateurs de choisir de manière flexible entre réponses rapides et raisonnement approfondi, pour équilibrer efficacité et qualité."
},
"zai-org/GLM-4.6": {
"description": "Par rapport à GLM-4.5, GLM-4.6 apporte plusieurs améliorations clés. Sa fenêtre contextuelle sétend de 128K à 200K tokens, permettant au modèle de gérer des tâches dagents plus complexes. Le modèle obtient de meilleurs scores aux benchmarks de code et montre des performances renforcées dans des applications telles que Claude Code, Cline, Roo Code et Kilo Code, notamment dans la génération de pages frontales visuellement raffinées. GLM-4.6 améliore nettement les performances dinférence et supporte lutilisation doutils durant linférence, offrant ainsi une capacité globale renforcée. Il excelle dans lutilisation doutils et les agents basés sur la recherche, et sintègre plus efficacement dans les cadres dagents. En écriture, ce modèle correspond davantage aux préférences humaines en termes de style et de lisibilité, et se comporte de manière plus naturelle dans les scénarios de jeu de rôle."
},
"zai/glm-4.5": {
"description": "La série de modèles GLM-4.5 est conçue spécifiquement pour les agents. Le modèle phare GLM-4.5 intègre 355 milliards de paramètres totaux (32 milliards actifs), unifiant raisonnement, codage et capacités d'agent pour répondre à des besoins applicatifs complexes. En tant que système de raisonnement hybride, il offre deux modes d'opération."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 et GLM-4.5-Air sont nos derniers modèles phares, conçus comme modèles de base pour les applications d'agents. Les deux utilisent une architecture d'experts hybrides (MoE). GLM-4.5 compte 355 milliards de paramètres totaux avec 32 milliards actifs par passage avant, tandis que GLM-4.5-Air adopte une conception plus simplifiée avec 106 milliards de paramètres totaux et 12 milliards actifs."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V est construit sur le modèle de base GLM-4.5-Air, héritant des techniques éprouvées de GLM-4.1V-Thinking, tout en réalisant une mise à l'échelle efficace grâce à une puissante architecture MoE de 106 milliards de paramètres."
},
"zenmux/auto": {
"description": "La fonction de routage automatique de ZenMux sélectionne automatiquement le modèle le plus performant et le plus rentable parmi les modèles pris en charge, en fonction du contenu de votre requête."
}
}