lobehub/locales/it-IT/models.json
2025-12-05 01:35:20 +08:00

3632 lines
344 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"01-ai/yi-1.5-34b-chat": {
"description": "Zero One Everything, il più recente modello open source fine-tuned, con 34 miliardi di parametri, supporta vari scenari di dialogo, con dati di addestramento di alta qualità, allineati alle preferenze umane."
},
"01-ai/yi-1.5-9b-chat": {
"description": "Zero One Everything, il più recente modello open source fine-tuned, con 9 miliardi di parametri, supporta vari scenari di dialogo, con dati di addestramento di alta qualità, allineati alle preferenze umane."
},
"360/deepseek-r1": {
"description": "【Versione 360】DeepSeek-R1 ha utilizzato tecniche di apprendimento rinforzato su larga scala nella fase di post-addestramento, migliorando notevolmente la capacità di inferenza del modello con pochissimi dati etichettati. Le prestazioni sono paragonabili alla versione ufficiale OpenAI o1 in compiti di matematica, codice e ragionamento in linguaggio naturale."
},
"360gpt-pro": {
"description": "360GPT Pro, come membro importante della serie di modelli AI di 360, soddisfa le diverse applicazioni del linguaggio naturale con un'efficace capacità di elaborazione del testo, supportando la comprensione di testi lunghi e conversazioni a più turni."
},
"360gpt-pro-trans": {
"description": "Modello dedicato alla traduzione, ottimizzato con un profondo affinamento, con risultati di traduzione all'avanguardia."
},
"360gpt-turbo": {
"description": "360GPT Turbo offre potenti capacità di calcolo e dialogo, con un'eccellente comprensione semantica e efficienza di generazione, rappresentando una soluzione ideale per assistenti intelligenti per aziende e sviluppatori."
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K enfatizza la sicurezza semantica e l'orientamento alla responsabilità, progettato specificamente per scenari applicativi con elevati requisiti di sicurezza dei contenuti, garantendo l'accuratezza e la robustezza dell'esperienza utente."
},
"360gpt2-o1": {
"description": "360gpt2-o1 utilizza la ricerca ad albero per costruire catene di pensiero e introduce un meccanismo di riflessione, addestrato tramite apprendimento rinforzato, dotando il modello della capacità di auto-riflessione e correzione degli errori."
},
"360gpt2-pro": {
"description": "360GPT2 Pro è un modello avanzato di elaborazione del linguaggio naturale lanciato da 360, con eccellenti capacità di generazione e comprensione del testo, in particolare nel campo della generazione e creazione, capace di gestire compiti complessi di conversione linguistica e interpretazione di ruoli."
},
"360zhinao2-o1": {
"description": "360zhinao2-o1 utilizza la ricerca ad albero per costruire catene di pensiero e introduce un meccanismo di riflessione, addestrato tramite apprendimento rinforzato, dotando il modello della capacità di auto-riflessione e correzione degli errori."
},
"4.0Ultra": {
"description": "Spark4.0 Ultra è la versione più potente della serie di modelli Spark, migliorando la comprensione e la sintesi del contenuto testuale mentre aggiorna il collegamento alla ricerca online. È una soluzione completa per migliorare la produttività lavorativa e rispondere con precisione alle esigenze, rappresentando un prodotto intelligente all'avanguardia nel settore."
},
"AnimeSharp": {
"description": "AnimeSharp (noto anche come “4xAnimeSharp”) è un modello open source di super-risoluzione sviluppato da Kim2091 basato sull'architettura ESRGAN, focalizzato sull'ingrandimento e l'affilatura di immagini in stile anime. Nel febbraio 2022 è stato rinominato da “4x-TextSharpV1”, originariamente adatto anche per immagini di testo, ma con prestazioni ottimizzate significativamente per contenuti anime."
},
"Baichuan2-Turbo": {
"description": "Utilizza tecnologie di ricerca avanzate per collegare completamente il grande modello con la conoscenza di settore e la conoscenza globale. Supporta il caricamento di vari documenti come PDF, Word e l'immissione di URL, con acquisizione di informazioni tempestiva e completa, e risultati di output accurati e professionali."
},
"Baichuan3-Turbo": {
"description": "Ottimizzato per scenari aziendali ad alta frequenza, con un notevole miglioramento delle prestazioni e un ottimo rapporto qualità-prezzo. Rispetto al modello Baichuan2, la creazione di contenuti è migliorata del 20%, le domande di conoscenza del 17% e le capacità di interpretazione di ruoli del 40%. Le prestazioni complessive superano quelle di GPT3.5."
},
"Baichuan3-Turbo-128k": {
"description": "Dotato di una finestra di contesto ultra lunga di 128K, ottimizzato per scenari aziendali ad alta frequenza, con un notevole miglioramento delle prestazioni e un ottimo rapporto qualità-prezzo. Rispetto al modello Baichuan2, la creazione di contenuti è migliorata del 20%, le domande di conoscenza del 17% e le capacità di interpretazione di ruoli del 40%. Le prestazioni complessive superano quelle di GPT3.5."
},
"Baichuan4": {
"description": "Il modello ha la migliore capacità in Cina, superando i modelli mainstream esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Ha anche capacità multimodali leader nel settore, con prestazioni eccellenti in vari benchmark di valutazione."
},
"Baichuan4-Air": {
"description": "Il modello con le migliori capacità in patria, supera i modelli principali esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Possiede anche capacità multimodali leader del settore, con prestazioni eccellenti in vari benchmark di valutazione."
},
"Baichuan4-Turbo": {
"description": "Il modello con le migliori capacità in patria, supera i modelli principali esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Possiede anche capacità multimodali leader del settore, con prestazioni eccellenti in vari benchmark di valutazione."
},
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
"description": "Seed-OSS è una serie di modelli linguistici di grandi dimensioni open source sviluppati dal team Seed di ByteDance, progettati specificamente per la gestione di contesti lunghi, ragionamento, agenti intelligenti e capacità generali. Il modello Seed-OSS-36B-Instruct di questa serie è un modello di fine-tuning con 36 miliardi di parametri, che supporta nativamente contesti ultra lunghi, permettendo di elaborare grandi quantità di documenti o complessi repository di codice in un'unica volta. Questo modello è ottimizzato per il ragionamento, la generazione di codice e i compiti degli agenti (come l'uso di strumenti), mantenendo un equilibrio e un'eccellente capacità generale. Una caratteristica distintiva di questo modello è la funzione \"Thinking Budget\" (budget di pensiero), che consente agli utenti di regolare flessibilmente la lunghezza del ragionamento secondo necessità, migliorando così l'efficienza del ragionamento nelle applicazioni pratiche."
},
"DeepSeek-R1": {
"description": "LLM avanzato ed efficiente, specializzato in ragionamento, matematica e programmazione."
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1—il modello più grande e intelligente del pacchetto DeepSeek—è stato distillato nell'architettura Llama 70B. Basato su benchmark e valutazioni umane, questo modello è più intelligente del Llama 70B originale, eccellendo in particolare in compiti che richiedono precisione matematica e fattuale."
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-Math-1.5B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-14B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "La serie DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source, superando il livello di OpenAI-o1-mini."
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-Math-7B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
},
"DeepSeek-V3": {
"description": "DeepSeek-V3 è un modello MoE sviluppato internamente dalla DeepSeek Company. I risultati di DeepSeek-V3 in molte valutazioni superano quelli di altri modelli open source come Qwen2.5-72B e Llama-3.1-405B, e si confronta alla pari con i modelli closed source di punta a livello mondiale come GPT-4o e Claude-3.5-Sonnet."
},
"DeepSeek-V3-1": {
"description": "DeepSeek V3.1: modello di inferenza di nuova generazione, migliora le capacità di ragionamento complesso e pensiero a catena, adatto a compiti che richiedono un'analisi approfondita."
},
"DeepSeek-V3-Fast": {
"description": "Il fornitore del modello è la piattaforma sophnet. DeepSeek V3 Fast è la versione ad alta velocità TPS del modello DeepSeek V3 0324, completamente non quantificata, con capacità di codice e matematica potenziate e risposte più rapide!"
},
"DeepSeek-V3.1-Fast": {
"description": "DeepSeek V3.1 Fast è la versione ad alta TPS e alta velocità del modello DeepSeek V3.1. Modalità di pensiero ibrida: modificando il template di chat, un singolo modello può supportare sia la modalità con pensiero che quella senza pensiero. Chiamata degli strumenti più intelligente: grazie all'ottimizzazione post-addestramento, le prestazioni del modello nell'uso degli strumenti e nei compiti degli agenti sono significativamente migliorate."
},
"DeepSeek-V3.1-Think": {
"description": "DeepSeek-V3.1 - modalità con pensiero; DeepSeek-V3.1 è un nuovo modello di ragionamento ibrido lanciato da DeepSeek, che supporta due modalità di ragionamento: con e senza pensiero, con un'efficienza di pensiero superiore rispetto a DeepSeek-R1-0528. Ottimizzato post-addestramento, l'uso degli strumenti Agent e le prestazioni nei compiti degli agenti sono notevolmente migliorati."
},
"Doubao-lite-128k": {
"description": "Doubao-lite offre una velocità di risposta eccezionale e un miglior rapporto qualità-prezzo, fornendo ai clienti scelte più flessibili per diversi scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 128k."
},
"Doubao-lite-32k": {
"description": "Doubao-lite offre una velocità di risposta eccezionale e un miglior rapporto qualità-prezzo, fornendo ai clienti scelte più flessibili per diversi scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 32k."
},
"Doubao-lite-4k": {
"description": "Doubao-lite offre una velocità di risposta eccezionale e un miglior rapporto qualità-prezzo, fornendo ai clienti scelte più flessibili per diversi scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 4k."
},
"Doubao-pro-128k": {
"description": "Il modello principale con le migliori prestazioni, adatto per gestire compiti complessi, con ottimi risultati in domande di riferimento, sintesi, creazione, classificazione del testo, role-playing e altri scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 128k."
},
"Doubao-pro-32k": {
"description": "Il modello principale con le migliori prestazioni, adatto per gestire compiti complessi, con ottimi risultati in domande di riferimento, sintesi, creazione, classificazione del testo, role-playing e altri scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 32k."
},
"Doubao-pro-4k": {
"description": "Il modello principale con le migliori prestazioni, adatto per gestire compiti complessi, con ottimi risultati in domande di riferimento, sintesi, creazione, classificazione del testo, role-playing e altri scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 4k."
},
"DreamO": {
"description": "DreamO è un modello open source di generazione di immagini personalizzate sviluppato congiuntamente da ByteDance e l'Università di Pechino, progettato per supportare la generazione di immagini multitasking tramite un'architettura unificata. Utilizza un metodo di modellazione combinata efficiente per generare immagini altamente coerenti e personalizzate in base a molteplici condizioni specificate dall'utente, come identità, soggetto, stile e sfondo."
},
"ERNIE-3.5-128K": {
"description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
},
"ERNIE-3.5-8K": {
"description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
},
"ERNIE-3.5-8K-Preview": {
"description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
},
"ERNIE-4.0-8K-Latest": {
"description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
},
"ERNIE-4.0-8K-Preview": {
"description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "Il modello linguistico ultra grande di Baidu, auto-sviluppato, offre eccellenti prestazioni generali, ampiamente utilizzabile in scenari complessi di vari settori; supporta l'integrazione automatica dei plugin di ricerca di Baidu, garantendo l'attualità delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
},
"ERNIE-Character-8K": {
"description": "Modello di linguaggio verticale sviluppato da Baidu, adatto per applicazioni come NPC nei giochi, dialoghi di assistenza clienti, e interpretazione di ruoli nei dialoghi, con uno stile di personaggio più distintivo e coerente, capacità di seguire le istruzioni più forte e prestazioni di inferenza superiori."
},
"ERNIE-Lite-Pro-128K": {
"description": "Modello di linguaggio leggero sviluppato da Baidu, che combina prestazioni eccellenti del modello con prestazioni di inferenza, con risultati migliori rispetto a ERNIE Lite, adatto per l'uso in schede di accelerazione AI a bassa potenza."
},
"ERNIE-Speed-128K": {
"description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali."
},
"ERNIE-Speed-Pro-128K": {
"description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, risultati migliori rispetto a ERNIE Speed, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali."
},
"FLUX-1.1-pro": {
"description": "FLUX.1.1 Pro"
},
"FLUX.1-Kontext-dev": {
"description": "FLUX.1-Kontext-dev è un modello multimodale di generazione e modifica di immagini sviluppato da Black Forest Labs, basato sull'architettura Rectified Flow Transformer, con una scala di 12 miliardi di parametri. Si concentra sulla generazione, ricostruzione, miglioramento o modifica di immagini in base a condizioni contestuali fornite. Combina i vantaggi della generazione controllata dei modelli di diffusione con la capacità di modellazione contestuale dei Transformer, supportando output di alta qualità e applicazioni estese come il restauro, il completamento e la ricostruzione di scene visive."
},
"FLUX.1-Kontext-pro": {
"description": "FLUX.1 Kontext [pro]"
},
"FLUX.1-dev": {
"description": "FLUX.1-dev è un modello linguistico multimodale open source sviluppato da Black Forest Labs, ottimizzato per compiti testo-immagine, che integra capacità di comprensione e generazione sia visive che testuali. Basato su modelli linguistici avanzati come Mistral-7B, utilizza un codificatore visivo progettato con cura e un raffinamento a più fasi tramite istruzioni per realizzare capacità collaborative testo-immagine e ragionamento su compiti complessi."
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi."
},
"HelloMeme": {
"description": "HelloMeme è uno strumento AI che genera automaticamente meme, GIF o brevi video basati sulle immagini o azioni fornite dall'utente. Non richiede alcuna competenza in disegno o programmazione; basta fornire un'immagine di riferimento e lo strumento creerà contenuti belli, divertenti e coerenti nello stile."
},
"HiDream-I1-Full": {
"description": "HiDream-E1-Full, lanciato da HiDream.ai, è un modello open source multimodale avanzato per l'editing di immagini, basato sull'architettura Diffusion Transformer e integrato con potenti capacità di comprensione linguistica (incluso LLaMA 3.1-8B-Instruct). Supporta la generazione di immagini, il trasferimento di stile, l'editing locale e la ridipintura tramite comandi in linguaggio naturale, offrendo eccellenti capacità di comprensione ed esecuzione testo-immagine."
},
"HunyuanDiT-v1.2-Diffusers-Distilled": {
"description": "hunyuandit-v1.2-distilled è un modello leggero di generazione di immagini da testo, ottimizzato tramite distillazione per produrre rapidamente immagini di alta qualità, particolarmente adatto a ambienti con risorse limitate e a compiti di generazione in tempo reale."
},
"InstantCharacter": {
"description": "InstantCharacter, rilasciato dal team AI di Tencent nel 2025, è un modello di generazione di personaggi personalizzati senza necessità di tuning, progettato per generare personaggi coerenti e ad alta fedeltà in diversi scenari. Supporta la modellazione del personaggio basata su una singola immagine di riferimento e consente di trasferire il personaggio in vari stili, pose e sfondi in modo flessibile."
},
"InternVL2-8B": {
"description": "InternVL2-8B è un potente modello linguistico visivo, supporta l'elaborazione multimodale di immagini e testo, in grado di riconoscere con precisione il contenuto delle immagini e generare descrizioni o risposte correlate."
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B è un potente modello linguistico visivo, supporta l'elaborazione multimodale di immagini e testo, in grado di riconoscere con precisione il contenuto delle immagini e generare descrizioni o risposte correlate."
},
"Kolors": {
"description": "Kolors è un modello di generazione di immagini da testo sviluppato dal team Kolors di Kuaishou. Addestrato su miliardi di parametri, eccelle nella qualità visiva, nella comprensione semantica del cinese e nella resa del testo."
},
"Kwai-Kolors/Kolors": {
"description": "Kolors, sviluppato dal team Kolors di Kuaishou, è un modello di generazione di immagini da testo su larga scala basato su diffusione latente. Addestrato su miliardi di coppie testo-immagine, mostra vantaggi significativi nella qualità visiva, accuratezza semantica complessa e resa dei caratteri in cinese e inglese. Supporta input in entrambe le lingue e si distingue nella comprensione e generazione di contenuti specifici in cinese."
},
"Kwaipilot/KAT-Dev": {
"description": "KAT-Dev (32B) è un modello open source con 32 miliardi di parametri, progettato specificamente per compiti di ingegneria del software. Ha raggiunto un tasso di risoluzione del 62,4% nel benchmark SWE-Bench Verified, classificandosi al quinto posto tra tutti i modelli open source di varie dimensioni. Il modello è stato ottimizzato attraverso più fasi, tra cui addestramento intermedio, fine-tuning supervisionato (SFT) e apprendimento per rinforzo (RL), con l'obiettivo di offrire un supporto potente per attività complesse di programmazione come il completamento del codice, la correzione di bug e la revisione del codice."
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "Eccellenti capacità di ragionamento visivo su immagini ad alta risoluzione, adatte per applicazioni di comprensione visiva."
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "Capacità avanzate di ragionamento visivo per applicazioni di agenti di comprensione visiva."
},
"Meta-Llama-3-3-70B-Instruct": {
"description": "Llama 3.3 70B: modello Transformer versatile, adatto per compiti di dialogo e generazione."
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "Modello di linguaggio di piccole dimensioni all'avanguardia, dotato di comprensione linguistica, eccellenti capacità di ragionamento e generazione di testo."
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "Modello di linguaggio di piccole dimensioni all'avanguardia, dotato di comprensione linguistica, eccellenti capacità di ragionamento e generazione di testo."
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer e migliorato tramite fine-tuning supervisionato (SFT) e apprendimento rinforzato con feedback umano (RLHF) per aumentarne l'utilità e la sicurezza. La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue, superando molti modelli di chat open source e chiusi in vari benchmark di settore. La data di conoscenza è dicembre 2023."
},
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
"description": "Llama 4 Maverick: modello su larga scala basato su Mixture-of-Experts, offre una strategia efficiente di attivazione degli esperti per eccellere nell'inferenza."
},
"MiniMax-M1": {
"description": "Nuovo modello di inferenza sviluppato internamente. Leader a livello globale: 80K catene di pensiero x 1M input, prestazioni paragonabili ai migliori modelli internazionali."
},
"MiniMax-M2": {
"description": "Progettato per una codifica efficiente e flussi di lavoro con agenti."
},
"MiniMax-M2-Stable": {
"description": "Progettato per una codifica efficiente e flussi di lavoro agentici, con alta concorrenza e uso commerciale."
},
"MiniMax-Text-01": {
"description": "Nella serie di modelli MiniMax-01, abbiamo fatto un'innovazione audace: per la prima volta abbiamo implementato su larga scala un meccanismo di attenzione lineare, rendendo l'architettura Transformer tradizionale non più l'unica opzione. Questo modello ha un numero di parametri che raggiunge i 456 miliardi, con un'attivazione singola di 45,9 miliardi. Le prestazioni complessive del modello sono paragonabili a quelle dei migliori modelli internazionali, mentre è in grado di gestire in modo efficiente contesti globali lunghi fino a 4 milioni di token, 32 volte rispetto a GPT-4o e 20 volte rispetto a Claude-3.5-Sonnet."
},
"MiniMaxAI/MiniMax-M1-80k": {
"description": "MiniMax-M1 è un modello di inferenza a grande scala con pesi open source e attenzione mista, con 456 miliardi di parametri, di cui circa 45,9 miliardi attivati per ogni token. Il modello supporta nativamente un contesto ultra-lungo di 1 milione di token e, grazie al meccanismo di attenzione lampo, riduce del 75% il carico computazionale in operazioni floating point rispetto a DeepSeek R1 in compiti di generazione con 100.000 token. Inoltre, MiniMax-M1 adotta un'architettura MoE (Mixture of Experts), combinando l'algoritmo CISPO e un design di attenzione mista per un addestramento efficiente tramite apprendimento rinforzato, raggiungendo prestazioni leader nel settore per inferenze con input lunghi e scenari reali di ingegneria software."
},
"MiniMaxAI/MiniMax-M2": {
"description": "MiniMax-M2 ridefinisce l'efficienza per gli agenti intelligenti. È un modello MoE compatto, veloce ed economico, con 230 miliardi di parametri totali e 10 miliardi di parametri attivi, progettato per offrire prestazioni di alto livello nei compiti di codifica e agenti, mantenendo al contempo una solida intelligenza generale. Con soli 10 miliardi di parametri attivi, MiniMax-M2 offre prestazioni paragonabili a quelle dei modelli su larga scala, rendendolo la scelta ideale per applicazioni ad alta efficienza."
},
"Moonshot-Kimi-K2-Instruct": {
"description": "Con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi, questo modello non pensante raggiunge livelli d'eccellenza in conoscenze all'avanguardia, matematica e programmazione, ed è particolarmente adatto a compiti di agenti generici. Ottimizzato per attività di agenti, non solo risponde a domande ma può anche agire. Ideale per chat improvvisate, conversazioni generiche e esperienze di agenti, è un modello riflessivo che non richiede lunghi tempi di elaborazione."
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) è un modello di istruzioni ad alta precisione, adatto per calcoli complessi."
},
"OmniConsistency": {
"description": "OmniConsistency migliora la coerenza stilistica e la generalizzazione nei compiti di immagine a immagine introducendo Diffusion Transformers (DiTs) su larga scala e dati stilizzati accoppiati, prevenendo il degrado dello stile."
},
"Phi-3-medium-128k-instruct": {
"description": "Stesso modello Phi-3-medium, ma con una dimensione di contesto più grande per RAG o prompting a pochi colpi."
},
"Phi-3-medium-4k-instruct": {
"description": "Un modello con 14 miliardi di parametri, dimostra una qualità migliore rispetto a Phi-3-mini, con un focus su dati densi di ragionamento di alta qualità."
},
"Phi-3-mini-128k-instruct": {
"description": "Stesso modello Phi-3-mini, ma con una dimensione di contesto più grande per RAG o prompting a pochi colpi."
},
"Phi-3-mini-4k-instruct": {
"description": "Il membro più piccolo della famiglia Phi-3. Ottimizzato sia per qualità che per bassa latenza."
},
"Phi-3-small-128k-instruct": {
"description": "Stesso modello Phi-3-small, ma con una dimensione di contesto più grande per RAG o prompting a pochi colpi."
},
"Phi-3-small-8k-instruct": {
"description": "Un modello con 7 miliardi di parametri, dimostra una qualità migliore rispetto a Phi-3-mini, con un focus su dati densi di ragionamento di alta qualità."
},
"Phi-3.5-mini-instruct": {
"description": "Versione aggiornata del modello Phi-3-mini."
},
"Phi-3.5-vision-instrust": {
"description": "Versione aggiornata del modello Phi-3-vision."
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct è un modello linguistico di grandi dimensioni con fine-tuning per istruzioni nella serie Qwen2, con una dimensione di 7B parametri. Questo modello si basa sull'architettura Transformer, utilizzando funzioni di attivazione SwiGLU, bias QKV di attenzione e attenzione a query di gruppo. È in grado di gestire input di grandi dimensioni. Ha dimostrato prestazioni eccellenti in comprensione linguistica, generazione, capacità multilingue, codifica, matematica e ragionamento in vari benchmark, superando la maggior parte dei modelli open source e mostrando competitività paragonabile a modelli proprietari in alcuni compiti. Qwen2-7B-Instruct ha mostrato miglioramenti significativi in vari test rispetto a Qwen1.5-7B-Chat."
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct è uno dei più recenti modelli linguistici di grandi dimensioni rilasciati da Alibaba Cloud. Questo modello da 7B ha capacità notevolmente migliorate in codifica e matematica. Il modello offre anche supporto multilingue, coprendo oltre 29 lingue, tra cui cinese e inglese. Ha mostrato miglioramenti significativi nel seguire istruzioni, comprendere dati strutturati e generare output strutturati (soprattutto JSON)."
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct è l'ultima versione della serie di modelli linguistici di grandi dimensioni specifici per il codice rilasciata da Alibaba Cloud. Questo modello, basato su Qwen2.5, ha migliorato significativamente le capacità di generazione, ragionamento e riparazione del codice grazie all'addestramento su 55 trilioni di token. Ha potenziato non solo le capacità di codifica, ma ha anche mantenuto i vantaggi nelle abilità matematiche e generali. Il modello fornisce una base più completa per applicazioni pratiche come agenti di codice."
},
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
"description": "Qwen2.5-VL è il nuovo membro della serie Qwen, dotato di potenti capacità di comprensione visiva. È in grado di analizzare il testo, i grafici e il layout all'interno delle immagini, nonché di comprendere video lunghi e catturare eventi. Può effettuare ragionamenti, manipolare strumenti, supportare la localizzazione di oggetti in diversi formati e generare output strutturati. Inoltre, è stato ottimizzato per la formazione dinamica di risoluzione e frame rate nella comprensione video, migliorando l'efficienza dell'encoder visivo."
},
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking è un modello di linguaggio visivo open source (VLM) rilasciato congiuntamente da Zhipu AI e dal laboratorio KEG dell'Università di Tsinghua, progettato specificamente per gestire compiti cognitivi multimodali complessi. Basato sul modello di base GLM-4-9B-0414, il modello introduce il meccanismo di ragionamento \"Catena di Pensiero\" (Chain-of-Thought) e utilizza strategie di apprendimento rinforzato, migliorando significativamente la capacità di ragionamento cross-modale e la stabilità."
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat è la versione open source del modello pre-addestrato GLM-4 della serie sviluppata da Zhipu AI. Questo modello ha dimostrato prestazioni eccellenti in vari aspetti, tra cui semantica, matematica, ragionamento, codice e conoscenza. Oltre a supportare conversazioni multi-turno, GLM-4-9B-Chat offre anche funzionalità avanzate come navigazione web, esecuzione di codice, chiamate a strumenti personalizzati (Function Call) e ragionamento su testi lunghi. Il modello supporta 26 lingue, tra cui cinese, inglese, giapponese, coreano e tedesco. Ha mostrato prestazioni eccellenti in vari benchmark, come AlignBench-v2, MT-Bench, MMLU e C-Eval. Questo modello supporta una lunghezza di contesto massima di 128K, rendendolo adatto per ricerche accademiche e applicazioni commerciali."
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 è un modello di inferenza guidato dall'apprendimento per rinforzo (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva grazie a metodi di addestramento ben progettati."
},
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B è un modello ottenuto attraverso il distillamento del knowledge da Qwen2.5-Math-7B. Questo modello è stato fine-tunato utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, dimostrando un'ottima capacità di inferenza. Ha ottenuto risultati eccellenti in diversi benchmark, raggiungendo una precisione del 92,8% su MATH-500, un tasso di passaggio del 55,5% su AIME 2024 e una valutazione di 1189 su CodeForces, dimostrando una forte capacità matematica e di programmazione per un modello di 7B."
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 è un modello di linguaggio con 6710 miliardi di parametri, basato su un'architettura di esperti misti (MoE) che utilizza attenzione multilivello (MLA) e la strategia di bilanciamento del carico senza perdite ausiliarie, ottimizzando l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato tramite supervisione e apprendimento per rinforzo, DeepSeek-V3 supera altri modelli open source, avvicinandosi ai modelli chiusi di punta."
},
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
"description": "DeepSeek-V3.1-Terminus è una versione aggiornata del modello V3.1 rilasciata da DeepSeek, concepita come un modello linguistico di grandi dimensioni con agenti ibridi. Questo aggiornamento mantiene le capacità originali del modello, concentrandosi sulla risoluzione dei problemi segnalati dagli utenti e sul miglioramento della stabilità. Migliora significativamente la coerenza linguistica, riducendo l'uso misto di cinese e inglese e la presenza di caratteri anomali. Il modello integra la “Modalità di pensiero” (Thinking Mode) e la “Modalità non di pensiero” (Non-thinking Mode), permettendo agli utenti di passare agevolmente tra le modalità tramite template di chat per adattarsi a diversi compiti. Come ottimizzazione importante, V3.1-Terminus potenzia le prestazioni degli agenti di codice (Code Agent) e di ricerca (Search Agent), rendendoli più affidabili nell'invocazione di strumenti e nell'esecuzione di compiti complessi multi-step."
},
"Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
"description": "DeepSeek-V3.2-Exp è la versione sperimentale V3.2 rilasciata da DeepSeek, concepita come una tappa intermedia verso la prossima generazione di architettura. Basata su V3.1-Terminus, introduce il meccanismo DeepSeek Sparse Attention (DSA) per migliorare l'efficienza nell'addestramento e nel ragionamento su contesti lunghi. È stata ottimizzata specificamente per l'invocazione di strumenti, la comprensione di documenti estesi e il ragionamento multi-step. V3.2-Exp funge da ponte tra ricerca e applicazione commerciale, ideale per utenti che desiderano esplorare una maggiore efficienza di ragionamento in scenari con ampio budget di contesto."
},
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 è l'ultima e più potente versione di Kimi K2. Si tratta di un modello linguistico di esperti misti (MoE) all'avanguardia, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi. Le caratteristiche principali del modello includono: intelligenza potenziata per la codifica degli agenti, con miglioramenti significativi nelle prestazioni sia nei test di riferimento pubblici sia nelle attività di codifica degli agenti nel mondo reale; esperienza di codifica frontend migliorata, con progressi sia nell'estetica che nella praticità della programmazione frontend."
},
"Pro/moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking Turbo è la versione Turbo della serie Kimi K2, ottimizzata per velocità di inferenza e throughput, mantenendo le capacità di ragionamento multi-step e utilizzo di strumenti di K2 Thinking. Basato su un'architettura a esperti misti (MoE), il modello ha circa 1 trilione di parametri, supporta nativamente un contesto di 256K token ed esegue in modo stabile chiamate a strumenti su larga scala. Ideale per scenari produttivi con elevate esigenze di latenza e concorrenza."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview è un modello di elaborazione del linguaggio naturale innovativo, in grado di gestire in modo efficiente compiti complessi di generazione di dialoghi e comprensione del contesto."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview è un modello di ricerca sviluppato dal team Qwen, focalizzato sulle capacità di inferenza visiva, con vantaggi unici nella comprensione di scenari complessi e nella risoluzione di problemi matematici legati alla visione."
},
"Qwen/QwQ-32B": {
"description": "QwQ è il modello di inferenza della serie Qwen. Rispetto ai tradizionali modelli di ottimizzazione delle istruzioni, QwQ possiede capacità di pensiero e ragionamento, consentendo prestazioni significativamente migliorate nei compiti downstream, specialmente nella risoluzione di problemi complessi. QwQ-32B è un modello di inferenza di medie dimensioni, in grado di ottenere prestazioni competitive rispetto ai modelli di inferenza all'avanguardia (come DeepSeek-R1, o1-mini). Questo modello utilizza tecnologie come RoPE, SwiGLU, RMSNorm e Attention QKV bias, con una struttura di rete a 64 strati e 40 teste di attenzione Q (nel GQA, KV è 8)."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview è l'ultimo modello di ricerca sperimentale di Qwen, focalizzato sul miglioramento delle capacità di ragionamento dell'IA. Esplorando meccanismi complessi come la mescolanza linguistica e il ragionamento ricorsivo, i principali vantaggi includono potenti capacità di analisi del ragionamento, abilità matematiche e di programmazione. Tuttavia, ci sono anche problemi di cambio linguistico, cicli di ragionamento, considerazioni di sicurezza e differenze in altre capacità."
},
"Qwen/Qwen-Image": {
"description": "Qwen-Image è un modello di base per la generazione di immagini sviluppato dal team Tongyi Qianwen di Alibaba, con 20 miliardi di parametri. Il modello ha compiuto notevoli progressi nella resa complessa del testo e nell'editing preciso delle immagini, eccellendo in particolare nella generazione di immagini contenenti testi in cinese e inglese ad alta fedeltà. Qwen-Image è in grado di gestire layout su più righe e testi a livello di paragrafo, mantenendo coerenza tipografica e armonia contestuale durante la generazione delle immagini. Oltre alle sue eccellenti capacità di resa testuale, il modello supporta un'ampia gamma di stili artistici, dalle fotografie realistiche all'estetica anime, adattandosi con flessibilità a diverse esigenze creative. Inoltre, possiede potenti capacità di editing e comprensione delle immagini, supportando operazioni avanzate come trasferimento di stile, aggiunta o rimozione di oggetti, miglioramento dei dettagli, editing del testo e persino manipolazione della postura umana. L'obiettivo è quello di diventare un modello di base completo per la creazione e l'elaborazione visiva intelligente, integrando linguaggio, layout e immagine."
},
"Qwen/Qwen-Image-Edit-2509": {
"description": "Qwen-Image-Edit-2509 è l'ultima versione per l'editing di immagini del modello Qwen-Image, rilasciata dal team Tongyi Qianwen di Alibaba. Basato sul modello Qwen-Image da 20 miliardi di parametri, è stato ulteriormente addestrato per estendere le sue eccezionali capacità di resa testuale al campo dell'editing delle immagini, consentendo modifiche precise del testo all'interno delle immagini. Qwen-Image-Edit adotta un'architettura innovativa che invia l'immagine in input sia a Qwen2.5-VL (per il controllo semantico visivo) sia al VAE Encoder (per il controllo dell'aspetto visivo), ottenendo così una doppia capacità di editing semantico e visivo. Questo significa che il modello supporta non solo modifiche locali dell'aspetto, come aggiunta, rimozione o modifica di elementi, ma anche editing semantico avanzato che richiede coerenza concettuale, come la creazione IP o il trasferimento di stile. Il modello ha dimostrato prestazioni all'avanguardia (SOTA) in numerosi benchmark pubblici, rendendolo una potente base per l'editing di immagini."
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen2 è un modello di linguaggio universale avanzato, supportando vari tipi di istruzioni."
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct è un modello linguistico di grandi dimensioni con fine-tuning per istruzioni nella serie Qwen2, con una dimensione di 72B parametri. Questo modello si basa sull'architettura Transformer, utilizzando funzioni di attivazione SwiGLU, bias QKV di attenzione e attenzione a query di gruppo. È in grado di gestire input di grandi dimensioni. Ha dimostrato prestazioni eccellenti in comprensione linguistica, generazione, capacità multilingue, codifica, matematica e ragionamento in vari benchmark, superando la maggior parte dei modelli open source e mostrando competitività paragonabile a modelli proprietari in alcuni compiti."
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL è l'ultima iterazione del modello Qwen-VL, che ha raggiunto prestazioni all'avanguardia nei benchmark di comprensione visiva."
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5 è una nuova serie di modelli di linguaggio di grandi dimensioni, progettata per ottimizzare l'elaborazione di compiti istruzionali."
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5 è una nuova serie di modelli di linguaggio di grandi dimensioni, progettata per ottimizzare l'elaborazione di compiti istruzionali."
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "Un grande modello linguistico sviluppato dal team di Alibaba Cloud Tongyi Qianwen"
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 è una nuova serie di modelli linguistici di grandi dimensioni, con una maggiore capacità di comprensione e generazione."
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 è una nuova serie di modelli linguistici di grandi dimensioni, progettata per ottimizzare l'elaborazione dei compiti istruzionali."
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5 è una nuova serie di modelli di linguaggio di grandi dimensioni, progettata per ottimizzare l'elaborazione di compiti istruzionali."
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 è una nuova serie di modelli linguistici di grandi dimensioni, progettata per ottimizzare l'elaborazione dei compiti istruzionali."
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder si concentra sulla scrittura di codice."
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct è l'ultima versione della serie di modelli linguistici di grandi dimensioni specifici per il codice rilasciata da Alibaba Cloud. Questo modello, basato su Qwen2.5, ha migliorato significativamente le capacità di generazione, ragionamento e riparazione del codice grazie all'addestramento su 55 trilioni di token. Ha potenziato non solo le capacità di codifica, ma ha anche mantenuto i vantaggi nelle abilità matematiche e generali. Il modello fornisce una base più completa per applicazioni pratiche come agenti di codice."
},
"Qwen/Qwen2.5-VL-32B-Instruct": {
"description": "Qwen2.5-VL-32B-Instruct è un modello multimodale di grande dimensione sviluppato dal team di Qwen2.5-VL, parte della serie Qwen2.5-VL. Questo modello non solo è in grado di riconoscere oggetti comuni, ma può anche analizzare testo, grafici, icone, disegni e layout all'interno delle immagini. Funziona come un agente visivo, capace di ragionare e manipolare strumenti in modo dinamico, con la capacità di utilizzare computer e telefoni cellulari. Inoltre, questo modello può localizzare con precisione gli oggetti all'interno delle immagini e generare output strutturati per fatture, tabelle e altro ancora. Rispetto al modello precedente Qwen2-VL, questa versione ha visto un miglioramento nelle capacità matematiche e di risoluzione di problemi grazie al learning by reinforcement, e il suo stile di risposta è più allineato alle preferenze umane."
},
"Qwen/Qwen2.5-VL-72B-Instruct": {
"description": "Qwen2.5-VL è un modello di linguaggio visivo della serie Qwen2.5. Questo modello presenta miglioramenti significativi in diversi aspetti: dispone di una capacità di comprensione visiva migliore, in grado di riconoscere oggetti comuni, analizzare testi, grafici e layout; come agente visivo, può ragionare e guidare dinamicamente l'uso degli strumenti; supporta la comprensione di video di durata superiore a un'ora e la cattura di eventi chiave; può localizzare oggetti nelle immagini con precisione attraverso la generazione di bounding box o punti; supporta la generazione di output strutturati, particolarmente adatti a dati scannerizzati come fatture e tabelle."
},
"Qwen/Qwen3-14B": {
"description": "Qwen3 è un nuovo modello di Tongyi Qianwen con capacità notevolmente migliorate, raggiungendo livelli leader del settore in ragionamento, generico, agenti e multilingue, e supporta il passaggio della modalità di pensiero."
},
"Qwen/Qwen3-235B-A22B": {
"description": "Qwen3 è un nuovo modello di Tongyi Qianwen con capacità notevolmente migliorate, raggiungendo livelli leader del settore in ragionamento, generico, agenti e multilingue, e supporta il passaggio della modalità di pensiero."
},
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
"description": "Qwen3-235B-A22B-Instruct-2507 è un modello linguistico di grandi dimensioni ibrido esperto (MoE) di punta sviluppato dal team Tongyi Qianwen di Alibaba Cloud. Con 235 miliardi di parametri totali e 22 miliardi attivi per inferenza, è una versione aggiornata del modello non pensante Qwen3-235B-A22B, focalizzata su miglioramenti significativi in aderenza alle istruzioni, ragionamento logico, comprensione testuale, matematica, scienza, programmazione e uso di strumenti. Inoltre, amplia la copertura di conoscenze multilingue e allinea meglio le preferenze degli utenti in compiti soggettivi e aperti, generando testi più utili e di alta qualità."
},
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
"description": "Qwen3-235B-A22B-Thinking-2507 è un modello linguistico di grandi dimensioni della serie Qwen3 sviluppato dal team Tongyi Qianwen di Alibaba, specializzato in compiti di ragionamento complessi. Basato su architettura MoE con 235 miliardi di parametri totali e circa 22 miliardi attivi per token, combina alta efficienza computazionale con prestazioni elevate. Come modello di “pensiero”, eccelle in ragionamento logico, matematica, scienza, programmazione e test accademici, raggiungendo livelli top tra i modelli open source di ragionamento. Migliora anche capacità generali come aderenza alle istruzioni, uso di strumenti e generazione testuale, supportando nativamente contesti lunghi fino a 256K token, ideale per scenari di ragionamento profondo e gestione di documenti estesi."
},
"Qwen/Qwen3-30B-A3B": {
"description": "Qwen3 è un nuovo modello di Tongyi Qianwen con capacità notevolmente migliorate, raggiungendo livelli leader del settore in ragionamento, generico, agenti e multilingue, e supporta il passaggio della modalità di pensiero."
},
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
"description": "Qwen3-30B-A3B-Instruct-2507 è una versione aggiornata della modalità non pensante di Qwen3-30B-A3B. Si tratta di un modello esperto misto (MoE) con un totale di 30,5 miliardi di parametri e 3,3 miliardi di parametri attivi. Il modello presenta miglioramenti chiave in diversi ambiti, tra cui un significativo potenziamento nella capacità di seguire istruzioni, ragionamento logico, comprensione del testo, matematica, scienze, programmazione e utilizzo di strumenti. Inoltre, ha fatto progressi sostanziali nella copertura della conoscenza multilingue a coda lunga e si allinea meglio alle preferenze degli utenti in compiti soggettivi e aperti, permettendo di generare risposte più utili e testi di qualità superiore. La capacità di comprensione di testi lunghi è stata estesa fino a 256K. Questo modello supporta esclusivamente la modalità non pensante e non genera tag `<think></think>` nell'output."
},
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
"description": "Qwen3-30B-A3B-Thinking-2507 è l'ultimo modello dedicato al pensiero della serie Qwen3 pubblicato dal team Tongyi Qianwen di Alibaba. In qualità di modello Mixture-of-Experts (MoE) con 30,5 miliardi di parametri totali e 3,3 miliardi di parametri attivi, è progettato per migliorare la capacità di affrontare compiti complessi. Il modello mostra miglioramenti significativi in benchmark accademici che richiedono ragionamento logico, matematica, scienze, programmazione e competenze specialistiche umane. Allo stesso tempo, le capacità generali sono state sensibilmente potenziate in ambiti quali l'aderenza alle istruzioni, l'uso di strumenti, la generazione di testo e l'allineamento alle preferenze umane. Il modello supporta nativamente la comprensione di contesti lunghi fino a 256K e può essere esteso fino a 1.000.000 di token. Questa versione è progettata per la modalità di pensiero, mirata a risolvere compiti altamente complessi tramite un ragionamento passo dopo passo approfondito, e dimostra inoltre ottime capacità come agente."
},
"Qwen/Qwen3-32B": {
"description": "Qwen3 è un nuovo modello di Tongyi Qianwen con capacità notevolmente migliorate, raggiungendo livelli leader del settore in ragionamento, generico, agenti e multilingue, e supporta il passaggio della modalità di pensiero."
},
"Qwen/Qwen3-8B": {
"description": "Qwen3 è un nuovo modello di Tongyi Qianwen con capacità notevolmente migliorate, raggiungendo livelli leader del settore in ragionamento, generico, agenti e multilingue, e supporta il passaggio della modalità di pensiero."
},
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
"description": "Qwen3-Coder-30B-A3B-Instruct è un modello per codice della serie Qwen3 sviluppato dal team Tongyi Qianwen di Alibaba. Come modello snellito e ottimizzato, mantiene elevate prestazioni ed efficienza concentrandosi sul miglioramento delle capacità di elaborazione del codice. Questo modello mostra vantaggi prestazionali significativi rispetto ai modelli open source in compiti complessi quali programmazione agentica (Agentic Coding), automazione delle operazioni del browser e invocazione di strumenti. Supporta nativamente contesti lunghi fino a 256K token ed è estendibile fino a 1M token, consentendo una comprensione e una gestione migliori a livello di repository di codice. Inoltre, il modello offre un solido supporto per la codifica agentica su piattaforme come Qwen Code e CLINE ed è progettato con un formato dedicato per le chiamate di funzione."
},
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
"description": "Qwen3-Coder-480B-A35B-Instruct è un modello di codice rilasciato da Alibaba, finora il più dotato di capacità agentiche. Si tratta di un modello Mixture-of-Experts (MoE) con 480 miliardi di parametri totali e 35 miliardi di parametri attivi, che bilancia efficienza e prestazioni. Il modello supporta nativamente una lunghezza di contesto di 256K (circa 260.000) token e può essere esteso fino a 1 milione di token tramite metodi di estrapolazione come YaRN, permettendogli di gestire codebase di grandi dimensioni e compiti di programmazione complessi. Qwen3-Coder è progettato per flussi di lavoro di codifica basati su agenti: non solo genera codice, ma può anche interagire autonomamente con strumenti e ambienti di sviluppo per risolvere problemi di programmazione complessi. In diversi benchmark su compiti di codifica e agent, il modello si colloca ai vertici tra i modelli open source, con prestazioni comparabili a quelle di modelli di riferimento come Claude Sonnet 4."
},
"Qwen/Qwen3-Next-80B-A3B-Instruct": {
"description": "Qwen3-Next-80B-A3B-Instruct è un modello di base di nuova generazione rilasciato dal team Tongyi Qianwen di Alibaba. Basato sulla nuova architettura Qwen3-Next, mira a raggiungere un'efficienza estrema in addestramento e inferenza. Il modello utilizza un innovativo meccanismo di attenzione ibrida (Gated DeltaNet e Gated Attention), una struttura di esperti misti ad alta sparsità (MoE) e numerose ottimizzazioni per la stabilità dell'addestramento. Come modello sparso con un totale di 80 miliardi di parametri, attiva solo circa 3 miliardi di parametri durante l'inferenza, riducendo significativamente i costi computazionali. Nelle attività con contesti lunghi oltre 32K token, la sua capacità di throughput supera di oltre 10 volte quella del modello Qwen3-32B. Questa versione è ottimizzata per l'istruzione e progettata per compiti generali, senza supporto per la modalità catena di pensiero (Thinking). In termini di prestazioni, si comporta in modo comparabile al modello di punta Tongyi Qianwen Qwen3-235B in alcuni benchmark, mostrando un vantaggio evidente nelle attività con contesti ultra lunghi."
},
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
"description": "Qwen3-Next-80B-A3B-Thinking è un modello di base di nuova generazione rilasciato dal team Tongyi Qianwen di Alibaba, progettato specificamente per compiti di ragionamento complesso. Basato sull'innovativa architettura Qwen3-Next, che integra un meccanismo di attenzione ibrida (Gated DeltaNet e Gated Attention) e una struttura di esperti misti ad alta sparsità (MoE), mira a massimizzare l'efficienza di addestramento e inferenza. Come modello sparso con un totale di 80 miliardi di parametri, attiva solo circa 3 miliardi di parametri durante l'inferenza, riducendo notevolmente i costi computazionali. Nelle attività con contesti lunghi oltre 32K token, il throughput supera di oltre 10 volte quello del modello Qwen3-32B. Questa versione “Thinking” è ottimizzata per eseguire compiti multi-step complessi come dimostrazioni matematiche, sintesi di codice, analisi logica e pianificazione, e produce di default il processo di ragionamento in forma strutturata di “catena di pensiero”. In termini di prestazioni, supera non solo modelli più costosi come Qwen3-32B-Thinking, ma anche Gemini-2.5-Flash-Thinking in diversi benchmark."
},
"Qwen/Qwen3-Omni-30B-A3B-Captioner": {
"description": "Qwen3-Omni-30B-A3B-Captioner è un modello linguistico-visivo (VLM) della serie Qwen3 sviluppata dal team Qwen di Alibaba Tongyi. È progettato per generare descrizioni di immagini di alta qualità, dettagliate e accurate. Basato su un'architettura MoE (Mixture of Experts) con 30 miliardi di parametri totali, il modello è in grado di comprendere a fondo il contenuto visivo e trasformarlo in descrizioni testuali fluide e naturali. Eccelle nella cattura dei dettagli visivi, comprensione delle scene, riconoscimento degli oggetti e ragionamento sulle relazioni, rendendolo ideale per applicazioni che richiedono una comprensione e descrizione precisa delle immagini."
},
"Qwen/Qwen3-Omni-30B-A3B-Instruct": {
"description": "Qwen3-Omni-30B-A3B-Instruct è un modello della nuova serie Qwen3 sviluppata dal team Qwen di Alibaba Tongyi. Si tratta di un modello MoE (Mixture of Experts) con 30 miliardi di parametri totali e 3 miliardi di parametri attivi, che mantiene elevate prestazioni riducendo al contempo i costi di inferenza. Addestrato su dati di alta qualità, multilingue e provenienti da fonti diverse, il modello possiede una forte capacità generale e supporta input multimodali, inclusi testo, immagini, audio e video, permettendo la comprensione e generazione di contenuti cross-modali."
},
"Qwen/Qwen3-Omni-30B-A3B-Thinking": {
"description": "Qwen3-Omni-30B-A3B-Thinking è il componente \"pensante\" (Thinker) centrale del modello multimodale Qwen3-Omni. È specializzato nell'elaborazione di input multimodali, tra cui testo, audio, immagini e video, ed esegue catene di ragionamento complesse. Come cervello dell'inferenza, unifica tutti gli input in uno spazio di rappresentazione comune, consentendo una comprensione profonda e un ragionamento complesso tra modalità diverse. Basato su un'architettura MoE con 30 miliardi di parametri totali e 3 miliardi di parametri attivi, ottimizza l'efficienza computazionale mantenendo una potente capacità di ragionamento."
},
"Qwen/Qwen3-VL-235B-A22B-Instruct": {
"description": "Qwen3-VL-235B-A22B-Instruct è un modello di grandi dimensioni della serie Qwen3-VL, ottimizzato tramite fine-tuning su istruzioni. Basato su un'architettura a esperti misti (MoE), offre eccellenti capacità di comprensione e generazione multimodale, supportando nativamente un contesto di 256K token. È adatto a servizi multimodali di livello produttivo con alta concorrenza."
},
"Qwen/Qwen3-VL-235B-A22B-Thinking": {
"description": "Qwen3-VL-235B-A22B-Thinking è la versione di punta della serie Qwen3-VL focalizzata sul ragionamento. Ottimizzata per il ragionamento multimodale complesso, il ragionamento su contesti lunghi e l'interazione con agenti intelligenti, è ideale per scenari aziendali che richiedono capacità avanzate di pensiero e inferenza visiva."
},
"Qwen/Qwen3-VL-30B-A3B-Instruct": {
"description": "Qwen3-VL-30B-A3B-Instruct è una versione della serie Qwen3-VL ottimizzata su istruzioni, con potenti capacità di comprensione e generazione linguistico-visiva. Supporta nativamente una lunghezza di contesto di 256K token, ed è adatta a dialoghi multimodali e compiti di generazione condizionata da immagini."
},
"Qwen/Qwen3-VL-30B-A3B-Thinking": {
"description": "Qwen3-VL-30B-A3B-Thinking è la versione potenziata per il ragionamento della serie Qwen3-VL. Ottimizzata per compiti di inferenza multimodale, conversione da immagine a codice e comprensione visiva complessa, supporta un contesto di 256K token e offre capacità avanzate di ragionamento a catena."
},
"Qwen/Qwen3-VL-32B-Instruct": {
"description": "Qwen3-VL-32B-Instruct è un modello linguistico-visivo sviluppato dal team Qwen di Alibaba Tongyi, che ha raggiunto prestazioni SOTA in numerosi benchmark VLM. Supporta input di immagini ad alta risoluzione a livello di megapixel e offre una potente comprensione visiva generale, OCR multilingue, localizzazione visiva fine-grained e capacità di dialogo visivo. Come modello VLM della serie Qwen3, è in grado di gestire compiti multimodali complessi e supporta funzionalità avanzate come l'invocazione di strumenti e la continuazione di prefissi."
},
"Qwen/Qwen3-VL-32B-Thinking": {
"description": "Qwen3-VL-32B-Thinking è una versione ottimizzata per compiti di ragionamento visivo complesso del modello linguistico-visivo sviluppato dal team Qwen di Alibaba Tongyi. Integra una \"modalità pensiero\" che consente di generare passaggi intermedi di ragionamento prima di rispondere, migliorando significativamente le prestazioni in compiti che richiedono logica multi-step, pianificazione e ragionamento complesso. Supporta input di immagini ad alta risoluzione a livello di megapixel, con forti capacità di comprensione visiva generale, OCR multilingue, localizzazione visiva fine-grained e dialogo visivo, oltre a supportare l'invocazione di strumenti e la continuazione di prefissi."
},
"Qwen/Qwen3-VL-8B-Instruct": {
"description": "Qwen3-VL-8B-Instruct è un modello linguistico-visivo della serie Qwen3, sviluppato a partire da Qwen3-8B-Instruct e addestrato su un ampio corpus di dati immagine-testo. È specializzato nella comprensione visiva generale, nel dialogo centrato sulla visione e nel riconoscimento multilingue del testo all'interno delle immagini. È adatto a scenari come domande e risposte visive, descrizione di immagini, esecuzione di istruzioni multimodali e utilizzo di strumenti."
},
"Qwen/Qwen3-VL-8B-Thinking": {
"description": "Qwen3-VL-8B-Thinking è la versione di ragionamento visivo della serie Qwen3, ottimizzata per compiti complessi di ragionamento multi-step. Per impostazione predefinita, genera una catena di pensiero (thinking chain) prima di rispondere, al fine di migliorare l'accuratezza del ragionamento. È ideale per scenari che richiedono ragionamento approfondito, come domande e risposte visive complesse o analisi dettagliate del contenuto di un'immagine."
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 è l'ultima serie del modello Qwen, supporta un contesto di 128k, e rispetto ai modelli open source attualmente migliori, Qwen2-72B supera significativamente i modelli leader attuali in comprensione del linguaggio naturale, conoscenza, codice, matematica e capacità multilingue."
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 è l'ultima serie del modello Qwen, in grado di superare i modelli open source ottimali di dimensioni simili e anche modelli di dimensioni maggiori. Qwen2 7B ha ottenuto vantaggi significativi in vari test, in particolare nella comprensione del codice e del cinese."
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B è un potente modello di linguaggio visivo, supporta l'elaborazione multimodale di immagini e testo, in grado di riconoscere con precisione il contenuto delle immagini e generare descrizioni o risposte correlate."
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct è un grande modello linguistico con 14 miliardi di parametri, con prestazioni eccellenti, ottimizzato per scenari in cinese e multilingue, supporta applicazioni di domande e risposte intelligenti, generazione di contenuti e altro."
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct è un grande modello linguistico con 32 miliardi di parametri, con prestazioni equilibrate, ottimizzato per scenari in cinese e multilingue, supporta applicazioni di domande e risposte intelligenti, generazione di contenuti e altro."
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct supporta un contesto di 16k, generando testi lunghi oltre 8K. Supporta chiamate di funzione e interazioni senza soluzione di continuità con sistemi esterni, aumentando notevolmente flessibilità e scalabilità. La conoscenza del modello è notevolmente aumentata e ha migliorato significativamente le capacità di codifica e matematica, con supporto per oltre 29 lingue."
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct è un grande modello linguistico con 7 miliardi di parametri, supporta chiamate di funzione e interazioni senza soluzione di continuità con sistemi esterni, aumentando notevolmente flessibilità e scalabilità. Ottimizzato per scenari in cinese e multilingue, supporta applicazioni di domande e risposte intelligenti, generazione di contenuti e altro."
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct è un modello di istruzioni per la programmazione basato su un pre-addestramento su larga scala, con potenti capacità di comprensione e generazione del codice, in grado di gestire in modo efficiente vari compiti di programmazione, particolarmente adatto per la scrittura intelligente di codice, la generazione di script automatizzati e la risoluzione di problemi di programmazione."
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct è un grande modello linguistico progettato per la generazione di codice, la comprensione del codice e scenari di sviluppo efficienti, con una scala di 32 miliardi di parametri all'avanguardia nel settore, in grado di soddisfare esigenze di programmazione diversificate."
},
"Qwen3-235B": {
"description": "Qwen3-235B-A22B è un modello MoE (esperto misto) che introduce la “modalità di ragionamento ibrido”, consentendo agli utenti di passare senza soluzione di continuità tra la modalità “pensante” e quella “non pensante”. Supporta la comprensione e il ragionamento in 119 lingue e dialetti, dispone di potenti capacità di chiamata di strumenti e compete con i principali modelli di mercato come DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro in vari benchmark relativi a capacità generali, codice e matematica, competenze multilingue, conoscenza e ragionamento."
},
"Qwen3-235B-A22B-Instruct-2507-FP8": {
"description": "Qwen3 235B A22B Instruct 2507: modello ottimizzato per ragionamento avanzato e istruzioni di dialogo, con architettura a esperti misti per mantenere l'efficienza nell'inferenza con parametri su larga scala."
},
"Qwen3-32B": {
"description": "Qwen3-32B è un modello denso (Dense Model) che introduce la “modalità di ragionamento ibrido”, permettendo agli utenti di passare senza soluzione di continuità tra la modalità “pensante” e quella “non pensante”. Grazie a miglioramenti nell'architettura del modello, all'aumento dei dati di addestramento e a metodi di training più efficaci, le prestazioni complessive sono comparabili a quelle di Qwen2.5-72B."
},
"SenseChat": {
"description": "Modello di base (V4), lunghezza del contesto di 4K, con potenti capacità generali."
},
"SenseChat-128K": {
"description": "Modello di base (V4), lunghezza del contesto di 128K, si distingue in compiti di comprensione e generazione di testi lunghi."
},
"SenseChat-32K": {
"description": "Modello di base (V4), lunghezza del contesto di 32K, applicabile in vari scenari."
},
"SenseChat-5": {
"description": "Modello dell'ultima versione (V5.5), lunghezza del contesto di 128K, con capacità significativamente migliorate in ragionamento matematico, conversazioni in inglese, seguire istruzioni e comprensione di testi lunghi, paragonabile a GPT-4o."
},
"SenseChat-5-1202": {
"description": "Basato sulla versione V5.5 più recente, mostra miglioramenti significativi rispetto alla versione precedente in capacità di base in cinese e inglese, chat, conoscenze scientifiche e umanistiche, scrittura, logica matematica e controllo della lunghezza del testo."
},
"SenseChat-5-Cantonese": {
"description": "Lunghezza del contesto di 32K, supera GPT-4 nella comprensione delle conversazioni in cantonese, paragonabile a GPT-4 Turbo in vari ambiti come conoscenza, ragionamento, matematica e scrittura di codice."
},
"SenseChat-5-beta": {
"description": "Alcune prestazioni superiori a SenseCat-5-1202"
},
"SenseChat-Character": {
"description": "Modello standard, lunghezza del contesto di 8K, alta velocità di risposta."
},
"SenseChat-Character-Pro": {
"description": "Modello avanzato, lunghezza del contesto di 32K, capacità complessivamente migliorate, supporta conversazioni in cinese/inglese."
},
"SenseChat-Turbo": {
"description": "Adatto per domande e risposte rapide, scenari di micro-ottimizzazione del modello."
},
"SenseChat-Turbo-1202": {
"description": "È l'ultima versione leggera del modello, raggiungendo oltre il 90% delle capacità del modello completo, riducendo significativamente i costi di inferenza."
},
"SenseChat-Vision": {
"description": "L'ultima versione del modello (V5.5) supporta l'input di più immagini, ottimizzando le capacità di base del modello, con notevoli miglioramenti nel riconoscimento delle proprietà degli oggetti, nelle relazioni spaziali, nel riconoscimento degli eventi, nella comprensione delle scene, nel riconoscimento delle emozioni, nel ragionamento logico e nella comprensione e generazione del testo."
},
"SenseNova-V6-5-Pro": {
"description": "Attraverso un aggiornamento completo dei dati multimodali, linguistici e di ragionamento e l'ottimizzazione delle strategie di addestramento, il nuovo modello ha ottenuto miglioramenti significativi nelle capacità di ragionamento multimodale e nel seguire istruzioni generalizzate. Supporta una finestra contestuale fino a 128k e si distingue in compiti specializzati come il riconoscimento OCR e l'identificazione di IP culturali e turistici."
},
"SenseNova-V6-5-Turbo": {
"description": "Attraverso un aggiornamento completo dei dati multimodali, linguistici e di ragionamento e l'ottimizzazione delle strategie di addestramento, il nuovo modello ha ottenuto miglioramenti significativi nelle capacità di ragionamento multimodale e nel seguire istruzioni generalizzate. Supporta una finestra contestuale fino a 128k e si distingue in compiti specializzati come il riconoscimento OCR e l'identificazione di IP culturali e turistici."
},
"SenseNova-V6-Pro": {
"description": "Realizza un'unificazione nativa delle capacità di immagini, testi e video, superando i limiti tradizionali della multimodalità disgiunta, e ha conquistato il doppio campionato nelle valutazioni OpenCompass e SuperCLUE."
},
"SenseNova-V6-Reasoner": {
"description": "Equilibra il ragionamento profondo visivo e linguistico, realizzando un pensiero lento e un ragionamento approfondito, presentando un processo completo della catena di pensiero."
},
"SenseNova-V6-Turbo": {
"description": "Realizza un'unificazione nativa delle capacità di immagini, testi e video, superando i limiti tradizionali della multimodalità disgiunta, e si distingue in modo completo nelle dimensioni fondamentali delle capacità multimodali e linguistiche, eccellendo in molte valutazioni e posizionandosi ripetutamente ai vertici nazionali e internazionali."
},
"Skylark2-lite-8k": {
"description": "Il modello di seconda generazione Skylark (Skylark2-lite) ha un'elevata velocità di risposta, adatto per scenari in cui sono richieste elevate prestazioni in tempo reale, attento ai costi e con requisiti di precisione del modello non elevati, con una lunghezza della finestra di contesto di 8k."
},
"Skylark2-pro-32k": {
"description": "Il modello di seconda generazione Skylark (Skylark2-pro) offre una maggiore precisione, adatto per scenari complessi di generazione di testi, come la scrittura di contenuti in ambito professionale, narrativa e traduzioni di alta qualità, con una lunghezza della finestra di contesto di 32k."
},
"Skylark2-pro-4k": {
"description": "Il modello di seconda generazione Skylark (Skylark2-pro) offre una maggiore precisione, adatto per scenari complessi di generazione di testi, come la scrittura di contenuti in ambito professionale, narrativa e traduzioni di alta qualità, con una lunghezza della finestra di contesto di 4k."
},
"Skylark2-pro-character-4k": {
"description": "Il modello di seconda generazione Skylark (Skylark2-pro-character) presenta eccellenti capacità di role-playing e chat, specializzandosi nel recitare diversi ruoli in base alle richieste dell'utente e nel portare avanti conversazioni naturali e fluide. È adatto per la creazione di chatbot, assistenti virtuali e customer service online, con elevate velocità di risposta."
},
"Skylark2-pro-turbo-8k": {
"description": "Il modello di seconda generazione Skylark (Skylark2-pro-turbo-8k) è più veloce nell'inferenza e più economico, con una lunghezza della finestra di contesto di 8k."
},
"THUDM/GLM-4-32B-0414": {
"description": "GLM-4-32B-0414 è il nuovo modello open source della serie GLM, con 32 miliardi di parametri. Le sue prestazioni sono comparabili a quelle della serie GPT di OpenAI e della serie V3/R1 di DeepSeek."
},
"THUDM/GLM-4-9B-0414": {
"description": "GLM-4-9B-0414 è un modello di piccole dimensioni della serie GLM, con 9 miliardi di parametri. Questo modello eredita le caratteristiche tecniche della serie GLM-4-32B, ma offre opzioni di distribuzione più leggere. Nonostante le dimensioni ridotte, GLM-4-9B-0414 mostra ancora capacità eccezionali in generazione di codice, progettazione di pagine web, generazione di grafica SVG e scrittura basata su ricerca."
},
"THUDM/GLM-4.1V-9B-Thinking": {
"description": "GLM-4.1V-9B-Thinking è un modello di linguaggio visivo open source (VLM) rilasciato congiuntamente da Zhipu AI e dal laboratorio KEG dell'Università di Tsinghua, progettato specificamente per gestire compiti cognitivi multimodali complessi. Basato sul modello di base GLM-4-9B-0414, il modello introduce il meccanismo di ragionamento \"Catena di Pensiero\" (Chain-of-Thought) e utilizza strategie di apprendimento rinforzato, migliorando significativamente la capacità di ragionamento cross-modale e la stabilità."
},
"THUDM/GLM-Z1-32B-0414": {
"description": "GLM-Z1-32B-0414 è un modello di inferenza con capacità di pensiero profondo. Questo modello è stato sviluppato sulla base di GLM-4-32B-0414 attraverso un avvio a freddo e un apprendimento rinforzato esteso, ed è stato ulteriormente addestrato in compiti di matematica, codice e logica. Rispetto al modello di base, GLM-Z1-32B-0414 ha migliorato significativamente le capacità matematiche e la capacità di risolvere compiti complessi."
},
"THUDM/GLM-Z1-9B-0414": {
"description": "GLM-Z1-9B-0414 è un modello di piccole dimensioni della serie GLM, con soli 9 miliardi di parametri, ma mantiene un'incredibile capacità pur rispettando la tradizione open source. Nonostante le dimensioni ridotte, questo modello mostra prestazioni eccezionali in ragionamento matematico e compiti generali, posizionandosi ai vertici tra i modelli open source di dimensioni simili."
},
"THUDM/GLM-Z1-Rumination-32B-0414": {
"description": "GLM-Z1-Rumination-32B-0414 è un modello di inferenza profonda con capacità di riflessione (paragonabile alla Deep Research di OpenAI). A differenza dei modelli tipici di pensiero profondo, il modello di riflessione utilizza un tempo di riflessione più lungo per affrontare problemi più aperti e complessi."
},
"THUDM/glm-4-9b-chat": {
"description": "GLM-4 9B è una versione open source, progettata per fornire un'esperienza di dialogo ottimizzata per applicazioni conversazionali."
},
"Tongyi-Zhiwen/QwenLong-L1-32B": {
"description": "QwenLong-L1-32B è il primo modello di ragionamento a lungo contesto di grandi dimensioni (LRM) addestrato con apprendimento rinforzato, ottimizzato per compiti di ragionamento su testi lunghi. Il modello utilizza un framework di apprendimento rinforzato con espansione progressiva del contesto, garantendo una transizione stabile da contesti brevi a lunghi. Nei sette benchmark di domande su documenti a lungo contesto, QwenLong-L1-32B supera modelli di punta come OpenAI-o3-mini e Qwen3-235B-A22B, con prestazioni comparabili a Claude-3.7-Sonnet-Thinking. Eccelle in ragionamento matematico, logico e multi-hop."
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B, mantenendo le eccellenti capacità linguistiche generali della serie originale, ha notevolmente migliorato la logica matematica e le capacità di codifica attraverso un addestramento incrementale su 500 miliardi di token di alta qualità."
},
"abab5.5-chat": {
"description": "Focalizzato su scenari di produttività, supporta l'elaborazione di compiti complessi e la generazione di testo efficiente, adatto per applicazioni professionali."
},
"abab5.5s-chat": {
"description": "Progettato per scenari di dialogo con personaggi cinesi, offre capacità di generazione di dialoghi di alta qualità, adatto per vari scenari applicativi."
},
"abab6.5g-chat": {
"description": "Progettato per dialoghi con personaggi multilingue, supporta la generazione di dialoghi di alta qualità in inglese e in molte altre lingue."
},
"abab6.5s-chat": {
"description": "Adatto per una vasta gamma di compiti di elaborazione del linguaggio naturale, inclusa la generazione di testo e i sistemi di dialogo."
},
"abab6.5t-chat": {
"description": "Ottimizzato per scenari di dialogo con personaggi cinesi, offre capacità di generazione di dialoghi fluida e conforme alle espressioni cinesi."
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 è un modello linguistico di grandi dimensioni all'avanguardia, ottimizzato tramite apprendimento rinforzato e dati di cold start, con prestazioni eccezionali nel ragionamento, nella matematica e nella programmazione."
},
"accounts/fireworks/models/deepseek-v3": {
"description": "Un potente modello linguistico Mixture-of-Experts (MoE) fornito da Deepseek, con un totale di 671B di parametri, attivando 37B di parametri per ogni token."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Il modello di istruzioni Llama 3 70B è ottimizzato per dialoghi multilingue e comprensione del linguaggio naturale, superando le prestazioni della maggior parte dei modelli concorrenti."
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Il modello di istruzioni Llama 3 8B è ottimizzato per dialoghi e compiti multilingue, offrendo prestazioni eccellenti e alta efficienza."
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "Il modello di istruzioni Llama 3 8B (versione HF) è coerente con i risultati dell'implementazione ufficiale, garantendo alta coerenza e compatibilità cross-platform."
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "Il modello di istruzioni Llama 3.1 405B ha parametri su scala estremamente grande, adatto per compiti complessi e seguimento di istruzioni in scenari ad alto carico."
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "Il modello di istruzioni Llama 3.1 70B offre capacità superiori di comprensione e generazione del linguaggio, ideale per compiti di dialogo e analisi."
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "Il modello di istruzioni Llama 3.1 8B è ottimizzato per dialoghi multilingue, in grado di superare la maggior parte dei modelli open e closed source su benchmark di settore comuni."
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Modello di ragionamento visivo di Meta con 11 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Il modello di istruzioni Llama 3.2 3B è un modello multilingue leggero lanciato da Meta. Questo modello è progettato per migliorare l'efficienza, offrendo miglioramenti significativi in termini di latenza e costi rispetto a modelli più grandi. I casi d'uso esemplari di questo modello includono query e riscrittura di suggerimenti, nonché supporto alla scrittura."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Modello di ragionamento visivo di Meta con 90 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "Llama 3.3 70B Instruct è la versione aggiornata di dicembre di Llama 3.1 70B. Questo modello è stato migliorato rispetto a Llama 3.1 70B (rilasciato a luglio 2024), potenziando le capacità di chiamata degli strumenti, il supporto per testi multilingue, le abilità matematiche e di programmazione. Il modello raggiunge livelli di eccellenza nel ragionamento, nella matematica e nel rispetto delle istruzioni, offrendo prestazioni simili a quelle di 3.1 405B, con vantaggi significativi in termini di velocità e costi."
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "Modello con 24B di parametri, dotato di capacità all'avanguardia comparabili a modelli di dimensioni maggiori."
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Il modello di istruzioni Mixtral MoE 8x22B, con parametri su larga scala e architettura multi-esperto, supporta in modo completo l'elaborazione efficiente di compiti complessi."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Il modello di istruzioni Mixtral MoE 8x7B, con architettura multi-esperto, offre un'elevata efficienza nel seguire e eseguire istruzioni."
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "Il modello MythoMax L2 13B combina tecnologie di fusione innovative, specializzandosi in narrazione e interpretazione di ruoli."
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Il modello di istruzioni Phi 3 Vision è un modello multimodale leggero, in grado di gestire informazioni visive e testuali complesse, con forti capacità di ragionamento."
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "La versione 72B del modello Qwen-VL è il risultato dell'ultima iterazione di Alibaba, rappresentando quasi un anno di innovazione."
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 è una serie di modelli linguistici solo decoder sviluppata dal team Qwen di Alibaba Cloud. Questi modelli offrono dimensioni diverse, tra cui 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, e ci sono varianti base e di istruzione."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct è l'ultima versione della serie di modelli linguistici di grandi dimensioni specifici per il codice rilasciata da Alibaba Cloud. Questo modello, basato su Qwen2.5, ha migliorato significativamente le capacità di generazione, ragionamento e riparazione del codice grazie all'addestramento su 55 trilioni di token. Ha potenziato non solo le capacità di codifica, ma ha anche mantenuto i vantaggi nelle abilità matematiche e generali. Il modello fornisce una base più completa per applicazioni pratiche come agenti di codice."
},
"accounts/yi-01-ai/models/yi-large": {
"description": "Il modello Yi-Large offre capacità eccezionali di elaborazione multilingue, utilizzabile per vari compiti di generazione e comprensione del linguaggio."
},
"ai21-jamba-1.5-large": {
"description": "Un modello multilingue con 398 miliardi di parametri (94 miliardi attivi), offre una finestra di contesto lunga 256K, chiamata di funzione, output strutturato e generazione ancorata."
},
"ai21-jamba-1.5-mini": {
"description": "Un modello multilingue con 52 miliardi di parametri (12 miliardi attivi), offre una finestra di contesto lunga 256K, chiamata di funzione, output strutturato e generazione ancorata."
},
"ai21-labs/AI21-Jamba-1.5-Large": {
"description": "Un modello multilingue con 398 miliardi di parametri (94 miliardi attivi), offre una finestra contestuale lunga 256K token, chiamate di funzione, output strutturati e generazione basata su fatti."
},
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Un modello multilingue con 52 miliardi di parametri (12 miliardi attivi), offre una finestra contestuale lunga 256K token, chiamate di funzione, output strutturati e generazione basata su fatti."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct è il modello di codice più agente di Qwen, con prestazioni significative nella codifica agente, nell'uso di browser agente e in altri compiti di codifica di base, raggiungendo risultati comparabili a Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Un modello multimodale a bassissimo costo, estremamente veloce nell'elaborazione di input di immagini, video e testo."
},
"amazon/nova-micro": {
"description": "Un modello solo testo che offre risposte a latenza minima a costi molto bassi."
},
"amazon/nova-pro": {
"description": "Un modello multimodale altamente capace, con la migliore combinazione di accuratezza, velocità e costo, adatto a una vasta gamma di compiti."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 è un modello di embedding multilingue leggero ed efficiente, disponibile in dimensioni da 1024, 512 e 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando i modelli concorrenti e Claude 3 Opus, dimostrando prestazioni eccezionali in una vasta gamma di valutazioni, mantenendo la velocità e i costi dei nostri modelli di livello medio."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando le prestazioni dei modelli concorrenti e di Claude 3 Opus, dimostrando eccellenza in una vasta gamma di valutazioni, mantenendo al contempo la velocità e i costi dei nostri modelli di livello medio."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, offrendo una velocità di risposta quasi istantanea. Può rispondere rapidamente a query e richieste semplici. I clienti saranno in grado di costruire un'esperienza AI senza soluzione di continuità che imita l'interazione umana. Claude 3 Haiku può gestire immagini e restituire output testuali, con una finestra di contesto di 200K."
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus è il modello AI più potente di Anthropic, con prestazioni all'avanguardia in compiti altamente complessi. Può gestire prompt aperti e scenari mai visti prima, con un'eccellente fluidità e comprensione simile a quella umana. Claude 3 Opus mostra le possibilità all'avanguardia dell'AI generativa. Claude 3 Opus può gestire immagini e restituire output testuali, con una finestra di contesto di 200K."
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Claude 3 Sonnet di Anthropic raggiunge un equilibrio ideale tra intelligenza e velocità, particolarmente adatto per carichi di lavoro aziendali. Offre la massima utilità a un prezzo inferiore rispetto ai concorrenti ed è progettato per essere un pilastro affidabile e durevole, adatto per implementazioni AI su larga scala. Claude 3 Sonnet può gestire immagini e restituire output testuali, con una finestra di contesto di 200K."
},
"anthropic.claude-instant-v1": {
"description": "Un modello veloce, economico e comunque molto capace, in grado di gestire una serie di compiti, tra cui conversazioni quotidiane, analisi testuali, sintesi e domande e risposte su documenti."
},
"anthropic.claude-v2": {
"description": "Un modello di Anthropic che dimostra elevate capacità in una vasta gamma di compiti, dalla conversazione complessa alla generazione di contenuti creativi, fino al seguire istruzioni dettagliate."
},
"anthropic.claude-v2:1": {
"description": "Versione aggiornata di Claude 2, con una finestra di contesto doppia e miglioramenti nella affidabilità, nel tasso di allucinazione e nell'accuratezza basata su prove nei contesti di documenti lunghi e RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku è il modello più veloce di Anthropic finora, progettato per carichi di lavoro aziendali che solitamente coinvolgono prompt lunghi. Haiku può analizzare rapidamente grandi quantità di documenti, come report trimestrali, contratti o casi legali, a metà del costo rispetto ad altri modelli della sua classe di prestazioni."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus è il modello più intelligente di Anthropic, con prestazioni leader di mercato in compiti altamente complessi. Gestisce prompt aperti e scenari mai visti con fluidità eccezionale e comprensione simile a quella umana."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku offre capacità migliorate in velocità, accuratezza nella programmazione e utilizzo degli strumenti. Ideale per scenari che richiedono alta velocità e interazione con strumenti."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet è un modello rapido ed efficiente della famiglia Sonnet, con prestazioni migliorate in codifica e ragionamento. Alcune versioni saranno gradualmente sostituite da Sonnet 3.7 e successivi."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet è una versione avanzata della serie Sonnet, con capacità superiori di ragionamento e codifica, adatta a compiti aziendali complessi."
},
"anthropic/claude-haiku-4.5": {
"description": "Claude Haiku 4.5 è un modello ad alte prestazioni di Anthropic, con latenza estremamente bassa e alta accuratezza."
},
"anthropic/claude-opus-4": {
"description": "Opus 4 è il modello di punta di Anthropic, progettato per compiti complessi e applicazioni aziendali."
},
"anthropic/claude-opus-4.1": {
"description": "Opus 4.1 è un modello avanzato di Anthropic, ottimizzato per programmazione, ragionamento complesso e compiti continuativi."
},
"anthropic/claude-opus-4.5": {
"description": "Claude Opus 4.5 è il modello di punta di Anthropic, che unisce un'intelligenza straordinaria a prestazioni scalabili, ideale per compiti complessi che richiedono risposte di altissima qualità e capacità di ragionamento avanzate."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 è una versione a ragionamento ibrido di Anthropic, che combina capacità cognitive e non cognitive."
},
"anthropic/claude-sonnet-4.5": {
"description": "Claude Sonnet 4.5 è l'ultimo modello a ragionamento ibrido di Anthropic, ottimizzato per ragionamento complesso e codifica."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B è un modello linguistico di grandi dimensioni a parametri sparsi con 72 miliardi di parametri totali e 16 miliardi di parametri attivati, basato sull'architettura Mixture of Group Experts (MoGE). Durante la fase di selezione degli esperti, gli esperti sono raggruppati e il token attiva un numero uguale di esperti all'interno di ogni gruppo, garantendo un bilanciamento del carico degli esperti e migliorando significativamente l'efficienza di distribuzione del modello sulla piattaforma Ascend."
},
"aya": {
"description": "Aya 23 è un modello multilingue lanciato da Cohere, supporta 23 lingue, facilitando applicazioni linguistiche diversificate."
},
"aya:35b": {
"description": "Aya 23 è un modello multilingue lanciato da Cohere, supporta 23 lingue, facilitando applicazioni linguistiche diversificate."
},
"azure-DeepSeek-R1-0528": {
"description": "Distribuito e fornito da Microsoft; il modello DeepSeek R1 ha subito un aggiornamento minore, la versione attuale è DeepSeek-R1-0528. Nell'ultimo aggiornamento, DeepSeek R1 ha migliorato significativamente la profondità di inferenza e la capacità di deduzione aumentando le risorse computazionali e introducendo meccanismi di ottimizzazione algoritmica nella fase post-allenamento. Questo modello eccelle in vari benchmark come matematica, programmazione e logica generale, con prestazioni complessive vicine a modelli leader come O3 e Gemini 2.5 Pro."
},
"baichuan-m2-32b": {
"description": "Baichuan M2 32B è un modello esperto ibrido sviluppato da Baichuan Intelligence, dotato di potenti capacità di ragionamento."
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B è un modello di linguaggio open source sviluppato da Baichuan Intelligence, con 13 miliardi di parametri, che ha ottenuto i migliori risultati nella sua categoria in benchmark autorevoli sia in cinese che in inglese."
},
"baidu/ERNIE-4.5-300B-A47B": {
"description": "ERNIE-4.5-300B-A47B è un modello linguistico di grandi dimensioni sviluppato da Baidu basato sull'architettura Mixture of Experts (MoE). Il modello ha un totale di 300 miliardi di parametri, ma durante l'inferenza attiva solo 47 miliardi di parametri per token, garantendo così un equilibrio tra prestazioni elevate ed efficienza computazionale. Come uno dei modelli principali della serie ERNIE 4.5, eccelle in compiti di comprensione del testo, generazione, ragionamento e programmazione. Il modello utilizza un innovativo metodo di pre-addestramento multimodale eterogeneo MoE, addestrando congiuntamente testo e modalità visive, migliorando efficacemente le capacità complessive, con risultati particolarmente evidenti nell'aderenza alle istruzioni e nella memoria della conoscenza mondiale."
},
"baidu/ernie-5.0-thinking-preview": {
"description": "ERNIE 5.0 Thinking Preview è il nuovo modello multimodale nativo di Baidu, eccelle nella comprensione multimodale, esecuzione di istruzioni, creazione, Q&A fattuale e utilizzo di strumenti."
},
"c4ai-aya-expanse-32b": {
"description": "Aya Expanse è un modello multilingue ad alte prestazioni da 32B, progettato per sfidare le prestazioni dei modelli monolingue attraverso innovazioni in ottimizzazione delle istruzioni, arbitraggio dei dati, addestramento delle preferenze e fusione dei modelli. Supporta 23 lingue."
},
"c4ai-aya-expanse-8b": {
"description": "Aya Expanse è un modello multilingue ad alte prestazioni da 8B, progettato per sfidare le prestazioni dei modelli monolingue attraverso innovazioni in ottimizzazione delle istruzioni, arbitraggio dei dati, addestramento delle preferenze e fusione dei modelli. Supporta 23 lingue."
},
"c4ai-aya-vision-32b": {
"description": "Aya Vision è un modello multimodale all'avanguardia, eccellente in diversi benchmark chiave per capacità linguistiche, testuali e visive. Supporta 23 lingue. Questa versione da 32 miliardi di parametri si concentra sulle prestazioni multilingue all'avanguardia."
},
"c4ai-aya-vision-8b": {
"description": "Aya Vision è un modello multimodale all'avanguardia, eccellente in diversi benchmark chiave per capacità linguistiche, testuali e visive. Questa versione da 8 miliardi di parametri si concentra su bassa latenza e prestazioni ottimali."
},
"charglm-3": {
"description": "CharGLM-3 è progettato per il gioco di ruolo e la compagnia emotiva, supporta una memoria multi-turno ultra-lunga e dialoghi personalizzati, con ampie applicazioni."
},
"charglm-4": {
"description": "CharGLM-4 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati, con ampie applicazioni."
},
"chatgpt-4o-latest": {
"description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico."
},
"claude-2.0": {
"description": "Claude 2 offre progressi nelle capacità chiave per le aziende, inclusi contesti leader del settore fino a 200K token, riduzione significativa della frequenza di allucinazioni del modello, suggerimenti di sistema e una nuova funzionalità di test: chiamate di strumenti."
},
"claude-2.1": {
"description": "Claude 2 offre progressi nelle capacità chiave per le aziende, inclusi contesti leader del settore fino a 200K token, riduzione significativa della frequenza di allucinazioni del modello, suggerimenti di sistema e una nuova funzionalità di test: chiamate di strumenti."
},
"claude-3-5-haiku-20241022": {
"description": "Claude 3.5 Haiku è il modello di prossima generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, Claude 3.5 Haiku ha migliorato le proprie capacità in vari ambiti e ha superato il modello di generazione precedente, Claude 3 Opus, in molti test di intelligenza."
},
"claude-3-5-haiku-latest": {
"description": "Claude 3.5 Haiku offre risposte rapide, ideale per compiti leggeri."
},
"claude-3-7-sonnet-20250219": {
"description": "Claude 3.7 Sonnet è il modello più recente di Anthropic, con prestazioni all'avanguardia in una vasta gamma di valutazioni, superando i modelli concorrenti e Claude 3.5 Sonnet, dimostrando eccellenza in una vasta gamma di valutazioni, mantenendo al contempo la velocità e i costi dei nostri modelli di livello medio."
},
"claude-3-7-sonnet-latest": {
"description": "Claude 3.7 Sonnet è l'ultimo e più potente modello di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e comprensione."
},
"claude-3-haiku-20240307": {
"description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee. Ha prestazioni di orientamento rapide e accurate."
},
"claude-3-opus-20240229": {
"description": "Claude 3 Opus è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e comprensione."
},
"claude-3-sonnet-20240229": {
"description": "Claude 3 Sonnet offre un equilibrio ideale tra intelligenza e velocità per i carichi di lavoro aziendali. Fornisce la massima utilità a un prezzo inferiore, affidabile e adatto per distribuzioni su larga scala."
},
"claude-haiku-4-5-20251001": {
"description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e una notevole capacità di ragionamento esteso."
},
"claude-opus-4-1-20250805": {
"description": "Claude Opus 4.1 è l'ultimo e più potente modello di Anthropic per la gestione di compiti altamente complessi. Si distingue per prestazioni, intelligenza, fluidità e capacità di comprensione eccezionali."
},
"claude-opus-4-1-20250805-thinking": {
"description": "Modello di pensiero Claude Opus 4.1, una versione avanzata che mostra il processo di ragionamento."
},
"claude-opus-4-20250514": {
"description": "Claude Opus 4 è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e comprensione."
},
"claude-opus-4-5-20251101": {
"description": "Claude Opus 4.5 è il modello di punta di Anthropic, che unisce un'intelligenza straordinaria a prestazioni scalabili, ideale per compiti complessi che richiedono risposte di altissima qualità e capacità di ragionamento avanzate."
},
"claude-sonnet-4-20250514": {
"description": "Claude Sonnet 4 può generare risposte quasi istantanee o un pensiero graduale prolungato, permettendo all'utente di vedere chiaramente questi processi."
},
"claude-sonnet-4-20250514-thinking": {
"description": "Modello di pensiero Claude Sonnet 4 che può generare risposte quasi istantanee o un pensiero graduale prolungato, permettendo all'utente di vedere chiaramente questi processi."
},
"claude-sonnet-4-5-20250929": {
"description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi."
},
"codegeex-4": {
"description": "CodeGeeX-4 è un potente assistente di programmazione AI, supporta domande intelligenti e completamento del codice in vari linguaggi di programmazione, migliorando l'efficienza dello sviluppo."
},
"codegeex4-all-9b": {
"description": "CodeGeeX4-ALL-9B è un modello di generazione di codice multilingue, supporta funzionalità complete tra cui completamento e generazione di codice, interprete di codice, ricerca in rete, chiamate di funzione e domande e risposte sul codice a livello di repository, coprendo vari scenari di sviluppo software. È un modello di generazione di codice di punta con meno di 10B di parametri."
},
"codegemma": {
"description": "CodeGemma è un modello linguistico leggero dedicato a vari compiti di programmazione, supporta iterazioni rapide e integrazione."
},
"codegemma:2b": {
"description": "CodeGemma è un modello linguistico leggero dedicato a vari compiti di programmazione, supporta iterazioni rapide e integrazione."
},
"codellama": {
"description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo."
},
"codellama/CodeLlama-34b-Instruct-hf": {
"description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, con un ampio supporto per diversi linguaggi di programmazione, adatto per ambienti di sviluppo."
},
"codellama:13b": {
"description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo."
},
"codellama:34b": {
"description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo."
},
"codellama:70b": {
"description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo."
},
"codeqwen": {
"description": "CodeQwen1.5 è un modello di linguaggio di grandi dimensioni addestrato su un ampio set di dati di codice, progettato per risolvere compiti di programmazione complessi."
},
"codestral": {
"description": "Codestral è il primo modello di codice di Mistral AI, offre un supporto eccezionale per i compiti di generazione di codice."
},
"codestral-latest": {
"description": "Codestral è un modello generativo all'avanguardia focalizzato sulla generazione di codice, ottimizzato per compiti di completamento e riempimento intermedio."
},
"codex-mini-latest": {
"description": "codex-mini-latest è una versione ottimizzata di o4-mini, progettata specificamente per Codex CLI. Per l'uso diretto tramite API, consigliamo di iniziare con gpt-4.1."
},
"cogito-2.1:671b": {
"description": "Cogito v2.1 671B è un modello linguistico open source statunitense a uso commerciale gratuito, con prestazioni comparabili ai modelli top, efficienza di ragionamento superiore, contesto lungo da 128k token e forti capacità generali."
},
"cogview-4": {
"description": "CogView-4 è il primo modello open source di Zhipu che supporta la generazione di caratteri cinesi, con miglioramenti completi nella comprensione semantica, nella qualità della generazione delle immagini e nella capacità di generare testi in cinese e inglese. Supporta input bilingue cinese-inglese di qualsiasi lunghezza e può generare immagini a risoluzione arbitraria entro un intervallo specificato."
},
"cohere-command-r": {
"description": "Command R è un modello generativo scalabile mirato a RAG e all'uso di strumenti per abilitare l'IA su scala aziendale."
},
"cohere-command-r-plus": {
"description": "Command R+ è un modello ottimizzato per RAG all'avanguardia progettato per affrontare carichi di lavoro di livello aziendale."
},
"cohere/Cohere-command-r": {
"description": "Command R è un modello generativo scalabile progettato per l'uso con RAG e strumenti, che consente alle aziende di implementare AI a livello produttivo."
},
"cohere/Cohere-command-r-plus": {
"description": "Command R+ è un modello ottimizzato all'avanguardia per RAG, progettato per gestire carichi di lavoro aziendali."
},
"cohere/command-a": {
"description": "Command A è il modello più performante di Cohere finora, eccellente nell'uso di strumenti, agenti, generazione potenziata da recupero (RAG) e casi d'uso multilingue. Command A supporta una lunghezza di contesto di 256K e può essere eseguito con solo due GPU, offrendo un throughput superiore del 150% rispetto a Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R è un grande modello linguistico ottimizzato per interazioni conversazionali e compiti con contesti lunghi. Si colloca nella categoria \"scalabile\", bilanciando alte prestazioni e forte accuratezza, permettendo alle aziende di superare la fase di prova concettuale e passare alla produzione."
},
"cohere/command-r-plus": {
"description": "Command R+ è l'ultimo grande modello linguistico di Cohere, ottimizzato per interazioni conversazionali e compiti con contesti lunghi. Mira a prestazioni eccezionali, consentendo alle aziende di superare la prova concettuale e passare alla produzione."
},
"cohere/embed-v4.0": {
"description": "Un modello che consente di classificare o trasformare testo, immagini o contenuti misti in embedding."
},
"comfyui/flux-dev": {
"description": "FLUX.1 Dev - Modello di generazione testo-immagine di alta qualità, genera in 10-50 passaggi, ideale per creazioni artistiche e contenuti visivi di alta qualità"
},
"comfyui/flux-kontext-dev": {
"description": "FLUX.1 Kontext-dev - Modello di editing delle immagini, consente modifiche basate su istruzioni testuali, supporta modifiche locali e trasferimento di stile"
},
"comfyui/flux-krea-dev": {
"description": "FLUX.1 Krea-dev - Modello testo-immagine con sicurezza avanzata, sviluppato in collaborazione con Krea, include filtri di sicurezza integrati"
},
"comfyui/flux-schnell": {
"description": "FLUX.1 Schnell - Modello testo-immagine ultra-veloce, genera immagini di alta qualità in 1-4 passaggi, ideale per applicazioni in tempo reale e prototipazione rapida"
},
"comfyui/stable-diffusion-15": {
"description": "Stable Diffusion 1.5 - Modello classico di generazione testo-immagine con risoluzione 512x512, adatto per prototipi rapidi ed esperimenti creativi"
},
"comfyui/stable-diffusion-35": {
"description": "Stable Diffusion 3.5 - Modello di nuova generazione per la generazione testo-immagine, disponibile in versioni Large e Medium, richiede file esterni del codificatore CLIP, offre qualità d'immagine eccezionale e alta coerenza con i prompt"
},
"comfyui/stable-diffusion-35-inclclip": {
"description": "Stable Diffusion 3.5 con codificatore CLIP/T5 integrato, non richiede file esterni, compatibile con modelli come sd3.5_medium_incl_clips, con minore utilizzo di risorse"
},
"comfyui/stable-diffusion-custom": {
"description": "Modello personalizzato SD per generazione testo-immagine, il file del modello deve essere nominato custom_sd_lobe.safetensors, se presente VAE usare custom_sd_vae_lobe.safetensors, i file devono essere posizionati nella cartella corretta secondo le specifiche di Comfy"
},
"comfyui/stable-diffusion-custom-refiner": {
"description": "Modello personalizzato SDXL per generazione immagine-immagine, il file del modello deve essere nominato custom_sd_lobe.safetensors, se presente VAE usare custom_sd_vae_lobe.safetensors, i file devono essere posizionati nella cartella corretta secondo le specifiche di Comfy"
},
"comfyui/stable-diffusion-refiner": {
"description": "Modello SDXL per generazione immagine-immagine, consente trasformazioni visive di alta qualità basate su immagini in input, supporta trasferimento di stile, restauro e variazioni creative"
},
"comfyui/stable-diffusion-xl": {
"description": "Modello SDXL per generazione testo-immagine, supporta risoluzione elevata 1024x1024, offre qualità visiva superiore e dettagli più raffinati"
},
"command": {
"description": "Un modello di dialogo che segue le istruzioni, con alta qualità e maggiore affidabilità nelle attività linguistiche, e una lunghezza di contesto più lunga rispetto ai nostri modelli generativi di base."
},
"command-a-03-2025": {
"description": "Command A è il nostro modello più potente fino ad oggi, eccellente nell'uso degli strumenti, nell'agenzia, nella generazione aumentata da recupero (RAG) e in scenari applicativi multilingue. Command A ha una lunghezza di contesto di 256K, può essere eseguito con solo due GPU e ha un throughput aumentato del 150% rispetto a Command R+ 08-2024."
},
"command-light": {
"description": "Una versione Command più piccola e veloce, quasi altrettanto potente, ma più rapida."
},
"command-light-nightly": {
"description": "Per ridurre l'intervallo di tempo tra i rilasci delle versioni principali, abbiamo lanciato una versione notturna del modello Command. Per la serie command-light, questa versione è chiamata command-light-nightly. Si prega di notare che command-light-nightly è l'ultima, la più sperimentale e (potenzialmente) instabile versione. Le versioni notturne vengono aggiornate regolarmente senza preavviso, quindi non si consiglia di utilizzarle in ambienti di produzione."
},
"command-nightly": {
"description": "Per ridurre l'intervallo di tempo tra i rilasci delle versioni principali, abbiamo lanciato una versione notturna del modello Command. Per la serie Command, questa versione è chiamata command-cightly. Si prega di notare che command-nightly è l'ultima, la più sperimentale e (potenzialmente) instabile versione. Le versioni notturne vengono aggiornate regolarmente senza preavviso, quindi non si consiglia di utilizzarle in ambienti di produzione."
},
"command-r": {
"description": "Command R è un LLM ottimizzato per compiti di dialogo e contesti lunghi, particolarmente adatto per interazioni dinamiche e gestione della conoscenza."
},
"command-r-03-2024": {
"description": "Command R è un modello di dialogo che segue le istruzioni, con una qualità superiore e una maggiore affidabilità nelle attività linguistiche, e una lunghezza di contesto più lunga rispetto ai modelli precedenti. Può essere utilizzato per flussi di lavoro complessi, come generazione di codice, generazione aumentata da recupero (RAG), uso di strumenti e agenzia."
},
"command-r-08-2024": {
"description": "command-r-08-2024 è una versione aggiornata del modello Command R, rilasciata nell'agosto 2024."
},
"command-r-plus": {
"description": "Command R+ è un modello di linguaggio di grandi dimensioni ad alte prestazioni, progettato per scenari aziendali reali e applicazioni complesse."
},
"command-r-plus-04-2024": {
"description": "Command R+ è un modello di dialogo che segue le istruzioni, con una qualità superiore e una maggiore affidabilità nelle attività linguistiche, e una lunghezza di contesto più lunga rispetto ai modelli precedenti. È particolarmente adatto per flussi di lavoro complessi RAG e per l'uso di strumenti in più passaggi."
},
"command-r-plus-08-2024": {
"description": "Command R+ è un modello di dialogo che segue le istruzioni, mostrando una qualità superiore nei compiti linguistici, maggiore affidabilità e una lunghezza di contesto più lunga rispetto ai modelli precedenti. È particolarmente adatto per flussi di lavoro RAG complessi e utilizzo di strumenti in più passaggi."
},
"command-r7b-12-2024": {
"description": "command-r7b-12-2024 è una versione aggiornata, piccola ed efficiente, rilasciata nel dicembre 2024. Eccelle in compiti che richiedono ragionamento complesso e elaborazione in più passaggi, come RAG, uso di strumenti e agenzia."
},
"computer-use-preview": {
"description": "Il modello computer-use-preview è un modello dedicato progettato per \"strumenti di utilizzo del computer\", addestrato per comprendere ed eseguire compiti correlati al computer."
},
"dall-e-2": {
"description": "Seconda generazione del modello DALL·E, supporta la generazione di immagini più realistiche e accurate, con una risoluzione quattro volte superiore rispetto alla prima generazione."
},
"dall-e-3": {
"description": "L'ultimo modello DALL·E, rilasciato a novembre 2023. Supporta la generazione di immagini più realistiche e accurate, con una maggiore capacità di dettaglio."
},
"databricks/dbrx-instruct": {
"description": "DBRX Instruct offre capacità di elaborazione di istruzioni altamente affidabili, supportando applicazioni in vari settori."
},
"deepseek-ai/DeepSeek-OCR": {
"description": "DeepSeek-OCR è un modello linguistico-visivo sviluppato da DeepSeek AI, focalizzato sul riconoscimento ottico dei caratteri (OCR) e sulla \"compressione ottica contestuale\". Il modello esplora i limiti della compressione delle informazioni contestuali dalle immagini, elaborando in modo efficiente documenti e convertendoli in formati di testo strutturato come Markdown. È in grado di riconoscere accuratamente il contenuto testuale nelle immagini, risultando particolarmente adatto per digitalizzazione di documenti, estrazione di testo e processi di strutturazione."
},
"deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 è un modello di inferenza guidato da apprendimento rinforzato (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva attraverso metodi di addestramento accuratamente progettati."
},
"deepseek-ai/DeepSeek-R1-0528": {
"description": "DeepSeek R1 migliora significativamente la profondità delle capacità di ragionamento e inferenza grazie alluso di risorse computazionali aumentate e allintroduzione di meccanismi di ottimizzazione algoritmica nel post-addestramento. Il modello eccelle in vari benchmark, inclusi matematica, programmazione e logica generale, avvicinandosi alle prestazioni di modelli leader come O3 e Gemini 2.5 Pro."
},
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
"description": "DeepSeek-R1-0528-Qwen3-8B è un modello ottenuto distillando la catena di pensieri da DeepSeek-R1-0528 al modello base Qwen3 8B. Rappresenta lo stato dellarte tra i modelli open source, superando Qwen3 8B del 10% nel test AIME 2024 e raggiungendo le prestazioni di Qwen3-235B-thinking. Eccelle in ragionamento matematico, programmazione e logica generale, con architettura identica a Qwen3-8B ma con configurazione del tokenizer condivisa con DeepSeek-R1-0528."
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
"description": "Il modello di distillazione DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "Il modello di distillazione DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
"description": "Il modello di distillazione DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1-Distill-Qwen-32B è un modello ottenuto tramite distillazione della conoscenza basato su Qwen2.5-32B. Questo modello è stato messo a punto utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, mostrando prestazioni eccezionali in vari campi come matematica, programmazione e ragionamento. Ha ottenuto risultati eccellenti in vari test di benchmark, raggiungendo un'accuratezza del 94,3% in MATH-500, dimostrando una forte capacità di ragionamento matematico."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B è un modello ottenuto tramite distillazione della conoscenza basato su Qwen2.5-Math-7B. Questo modello è stato messo a punto utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, mostrando eccellenti capacità di inferenza. Ha ottenuto risultati eccezionali in vari test di benchmark, raggiungendo un'accuratezza del 92,8% in MATH-500, una percentuale di passaggio del 55,5% in AIME 2024 e un punteggio di 1189 su CodeForces, dimostrando forti capacità matematiche e di programmazione come modello di dimensioni 7B."
},
"deepseek-ai/DeepSeek-V2.5": {
"description": "DeepSeek V2.5 combina le eccellenti caratteristiche delle versioni precedenti, migliorando le capacità generali e di codifica."
},
"deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 è un modello linguistico a esperti misti (MoE) con 6710 miliardi di parametri, che utilizza attenzione latente multi-testa (MLA) e architettura DeepSeekMoE, combinando strategie di bilanciamento del carico senza perdite ausiliarie per ottimizzare l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato supervisionato e tramite apprendimento rinforzato, DeepSeek-V3 supera le prestazioni di altri modelli open source, avvicinandosi ai modelli closed source leader."
},
"deepseek-ai/DeepSeek-V3.1": {
"description": "Il modello DeepSeek V3.1 adotta un'architettura di ragionamento ibrida, supportando sia la modalità di pensiero che quella non riflessiva."
},
"deepseek-ai/DeepSeek-V3.1-Terminus": {
"description": "DeepSeek-V3.1-Terminus è una versione aggiornata del modello V3.1 rilasciata da DeepSeek, concepita come un modello linguistico di grandi dimensioni con agenti ibridi. Questo aggiornamento mantiene le capacità originali del modello, concentrandosi sulla risoluzione dei problemi segnalati dagli utenti e sul miglioramento della stabilità. Migliora significativamente la coerenza linguistica, riducendo l'uso misto di cinese e inglese e la presenza di caratteri anomali. Il modello integra la “Modalità di pensiero” (Thinking Mode) e la “Modalità non di pensiero” (Non-thinking Mode), permettendo agli utenti di passare agevolmente tra le modalità tramite template di chat per adattarsi a diversi compiti. Come ottimizzazione importante, V3.1-Terminus potenzia le prestazioni degli agenti di codice (Code Agent) e di ricerca (Search Agent), rendendoli più affidabili nell'invocazione di strumenti e nell'esecuzione di compiti complessi multi-step."
},
"deepseek-ai/DeepSeek-V3.2-Exp": {
"description": "DeepSeek-V3.2-Exp è la versione sperimentale V3.2 rilasciata da DeepSeek, concepita come una tappa intermedia verso la prossima generazione di architettura. Basata su V3.1-Terminus, introduce il meccanismo DeepSeek Sparse Attention (DSA) per migliorare l'efficienza nell'addestramento e nel ragionamento su contesti lunghi. È stata ottimizzata specificamente per l'invocazione di strumenti, la comprensione di documenti estesi e il ragionamento multi-step. V3.2-Exp funge da ponte tra ricerca e applicazione commerciale, ideale per utenti che desiderano esplorare una maggiore efficienza di ragionamento in scenari con ampio budget di contesto."
},
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B è un modello avanzato addestrato per dialoghi ad alta complessità."
},
"deepseek-ai/deepseek-r1": {
"description": "LLM altamente efficiente, specializzato in ragionamento, matematica e programmazione."
},
"deepseek-ai/deepseek-v3.1": {
"description": "DeepSeek V3.1: modello di inferenza di nuova generazione che migliora le capacità di ragionamento complesso e di pensiero a catena, adatto a compiti che richiedono analisi approfondite."
},
"deepseek-ai/deepseek-v3.1-terminus": {
"description": "DeepSeek V3.1: un modello di ragionamento di nuova generazione, con capacità avanzate di analisi complessa e pensiero concatenato, ideale per compiti che richiedono un'analisi approfondita."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 è un modello linguistico visivo a esperti misti (MoE) sviluppato sulla base di DeepSeekMoE-27B, che utilizza un'architettura MoE con attivazione sparsa, raggiungendo prestazioni eccezionali attivando solo 4,5 miliardi di parametri. Questo modello eccelle in vari compiti, tra cui domande visive, riconoscimento ottico dei caratteri, comprensione di documenti/tabelle/grafici e localizzazione visiva."
},
"deepseek-chat": {
"description": "Un nuovo modello open source che integra capacità generali e di codifica, mantenendo non solo le capacità conversazionali generali del modello Chat originale, ma anche la potente capacità di elaborazione del codice del modello Coder, allineandosi meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come i compiti di scrittura e il rispetto delle istruzioni."
},
"deepseek-coder-33B-instruct": {
"description": "DeepSeek Coder 33B è un modello di linguaggio per codice, addestrato su 20 trilioni di dati, di cui l'87% è codice e il 13% è in cinese e inglese. Il modello introduce una dimensione della finestra di 16K e compiti di completamento, fornendo funzionalità di completamento del codice e riempimento di frammenti a livello di progetto."
},
"deepseek-coder-v2": {
"description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo."
},
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo."
},
"deepseek-ocr": {
"description": "DeepSeek-OCR è un modello visivo-linguistico sviluppato da DeepSeek AI, focalizzato sul riconoscimento ottico dei caratteri (OCR) e sulla \"compressione ottica contestuale\". Il modello esplora i limiti della compressione delle informazioni contestuali da immagini, elaborando documenti in modo efficiente e convertendoli in formati strutturati come Markdown. È in grado di riconoscere accuratamente il testo nelle immagini, particolarmente adatto per digitalizzazione di documenti, estrazione di testo e processi di strutturazione."
},
"deepseek-r1": {
"description": "DeepSeek-R1 è un modello di inferenza guidato da apprendimento rinforzato (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva attraverso metodi di addestramento accuratamente progettati."
},
"deepseek-r1-0528": {
"description": "Modello completo da 685 miliardi di parametri, rilasciato il 28 maggio 2025. DeepSeek-R1 utilizza ampiamente tecniche di apprendimento rinforzato nella fase post-addestramento, migliorando notevolmente le capacità di ragionamento del modello con pochissimi dati annotati. Eccelle in matematica, programmazione, ragionamento in linguaggio naturale e altre attività."
},
"deepseek-r1-250528": {
"description": "DeepSeek R1 250528, versione completa del modello di inferenza DeepSeek-R1, ideale per compiti complessi di matematica e logica."
},
"deepseek-r1-70b-fast-online": {
"description": "DeepSeek R1 70B versione veloce, supporta la ricerca online in tempo reale, fornendo una velocità di risposta più rapida mantenendo le prestazioni del modello."
},
"deepseek-r1-70b-online": {
"description": "DeepSeek R1 70B versione standard, supporta la ricerca online in tempo reale, adatta per conversazioni e compiti di elaborazione del testo che richiedono informazioni aggiornate."
},
"deepseek-r1-distill-llama": {
"description": "deepseek-r1-distill-llama è un modello derivato da Llama attraverso la distillazione di DeepSeek-R1."
},
"deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B, modello distillato che unisce le capacità di inferenza R1 con l'ecosistema Llama."
},
"deepseek-r1-distill-llama-8b": {
"description": "DeepSeek-R1-Distill-Llama-8B è un grande modello linguistico distillato basato su Llama-3.1-8B, addestrato con output di DeepSeek R1."
},
"deepseek-r1-distill-qianfan-70b": {
"description": "DeepSeek R1 Distill Qianfan 70B, modello distillato R1 basato su Qianfan-70B, con ottimo rapporto qualità-prezzo."
},
"deepseek-r1-distill-qianfan-8b": {
"description": "DeepSeek R1 Distill Qianfan 8B, modello distillato R1 basato su Qianfan-8B, adatto per applicazioni di piccola e media scala."
},
"deepseek-r1-distill-qianfan-llama-70b": {
"description": "DeepSeek R1 Distill Qianfan Llama 70B, modello distillato R1 basato su Llama-70B."
},
"deepseek-r1-distill-qwen": {
"description": "deepseek-r1-distill-qwen è un modello distillato da Qwen basato su DeepSeek-R1."
},
"deepseek-r1-distill-qwen-1.5b": {
"description": "DeepSeek R1 Distill Qwen 1.5B, modello distillato R1 ultra-leggero, ideale per ambienti con risorse estremamente limitate."
},
"deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B, modello distillato R1 di media scala, adatto a molteplici scenari di distribuzione."
},
"deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B, modello distillato R1 basato su Qwen-32B, bilancia prestazioni e costi."
},
"deepseek-r1-distill-qwen-7b": {
"description": "DeepSeek R1 Distill Qwen 7B, modello distillato R1 leggero, adatto per ambienti edge e deployment aziendali privati."
},
"deepseek-r1-fast-online": {
"description": "DeepSeek R1 versione veloce completa, supporta la ricerca online in tempo reale, combinando la potenza dei 671B parametri con una velocità di risposta più rapida."
},
"deepseek-r1-online": {
"description": "DeepSeek R1 versione completa, con 671B parametri, supporta la ricerca online in tempo reale, con capacità di comprensione e generazione più potenti."
},
"deepseek-reasoner": {
"description": "Modalità di pensiero di DeepSeek V3.2. Prima di fornire la risposta finale, il modello genera una catena di pensieri per migliorare l'accuratezza della risposta."
},
"deepseek-v2": {
"description": "DeepSeek V2 è un modello di linguaggio Mixture-of-Experts efficiente, adatto per esigenze di elaborazione economica."
},
"deepseek-v2:236b": {
"description": "DeepSeek V2 236B è il modello di codice progettato di DeepSeek, offre potenti capacità di generazione di codice."
},
"deepseek-v3": {
"description": "DeepSeek-V3 è un modello MoE sviluppato internamente da Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., con risultati eccezionali in molteplici valutazioni, posizionandosi al primo posto tra i modelli open source nelle classifiche principali. Rispetto al modello V2.5, la velocità di generazione è aumentata di 3 volte, offrendo un'esperienza utente più rapida e fluida."
},
"deepseek-v3-0324": {
"description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con vantaggi notevoli nelle capacità di programmazione e tecniche, comprensione del contesto e gestione di testi lunghi."
},
"deepseek-v3.1": {
"description": "DeepSeek-V3.1 è il nuovo modello di ragionamento ibrido lanciato da DeepSeek, che supporta due modalità di ragionamento: con pensiero e senza pensiero, con un'efficienza di pensiero superiore rispetto a DeepSeek-R1-0528. Ottimizzato tramite post-addestramento, l'uso degli strumenti Agent e le prestazioni nelle attività degli agenti sono notevolmente migliorate. Supporta una finestra contestuale di 128k e una lunghezza massima di output di 64k token."
},
"deepseek-v3.1-terminus": {
"description": "DeepSeek-V3.1-Terminus è una versione ottimizzata per dispositivi terminali del modello linguistico di grandi dimensioni sviluppato da DeepSeek."
},
"deepseek-v3.1-think-250821": {
"description": "DeepSeek V3.1 Think 250821, modello di pensiero profondo corrispondente alla versione Terminus, ideale per scenari di inferenza ad alte prestazioni."
},
"deepseek-v3.1:671b": {
"description": "DeepSeek V3.1: modello di inferenza di nuova generazione che migliora le capacità di ragionamento complesso e di pensiero a catena, adatto a compiti che richiedono analisi approfondite."
},
"deepseek-v3.2-exp": {
"description": "deepseek-v3.2-exp introduce un meccanismo di attenzione sparsa, progettato per migliorare l'efficienza di addestramento e inferenza nel trattamento di testi lunghi, con un costo inferiore rispetto a deepseek-v3.1."
},
"deepseek-v3.2-think": {
"description": "DeepSeek V3.2 Think, versione completa del modello di pensiero profondo, potenziato per il ragionamento su catene lunghe."
},
"deepseek-vl2": {
"description": "DeepSeek VL2, modello multimodale che supporta la comprensione immagine-testo e il question answering visivo a grana fine."
},
"deepseek-vl2-small": {
"description": "DeepSeek VL2 Small, versione multimodale leggera, adatta a scenari con risorse limitate e alta concorrenza."
},
"deepseek/deepseek-chat": {
"description": "DeepSeek-V3 è un modello a ragionamento ibrido ad alte prestazioni del team DeepSeek, adatto a compiti complessi e integrazione con strumenti."
},
"deepseek/deepseek-chat-v3-0324": {
"description": "DeepSeek V3 è un modello misto esperto con 685B di parametri, l'ultima iterazione della serie di modelli di chat di punta del team DeepSeek.\n\nEredita il modello [DeepSeek V3](/deepseek/deepseek-chat-v3) e si comporta eccezionalmente in vari compiti."
},
"deepseek/deepseek-chat-v3-0324:free": {
"description": "DeepSeek V3 è un modello misto esperto con 685B di parametri, l'ultima iterazione della serie di modelli di chat di punta del team DeepSeek.\n\nEredita il modello [DeepSeek V3](/deepseek/deepseek-chat-v3) e si comporta eccezionalmente in vari compiti."
},
"deepseek/deepseek-chat-v3.1": {
"description": "DeepSeek-V3.1 è un modello a ragionamento ibrido con contesto lungo di DeepSeek, supporta modalità miste cognitive/non cognitive e integrazione con strumenti."
},
"deepseek/deepseek-r1": {
"description": "Il modello DeepSeek R1 ha ricevuto un aggiornamento minore, attualmente versione DeepSeek-R1-0528. Nell'ultimo aggiornamento, DeepSeek R1 ha migliorato significativamente la profondità e la capacità di ragionamento sfruttando risorse computazionali aumentate e introducendo meccanismi di ottimizzazione algoritmica post-addestramento. Il modello eccelle in benchmark di matematica, programmazione e logica generale, avvicinandosi alle prestazioni di modelli leader come O3 e Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek R1 0528 è una variante aggiornata di DeepSeek, focalizzata su disponibilità open source e profondità di ragionamento."
},
"deepseek/deepseek-r1-0528:free": {
"description": "DeepSeek-R1 migliora notevolmente la capacità di ragionamento del modello anche con pochissimi dati annotati. Prima di fornire la risposta finale, il modello genera una catena di pensieri per aumentare la precisione della risposta."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B è un modello linguistico di grandi dimensioni basato su Llama3.3 70B. Grazie al fine-tuning effettuato con l'output di DeepSeek R1, il modello raggiunge prestazioni competitive paragonabili a quelle dei modelli all'avanguardia di grandi dimensioni."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B è un modello di linguaggio distillato basato su Llama-3.1-8B-Instruct, addestrato utilizzando l'output di DeepSeek R1."
},
"deepseek/deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B è un modello di linguaggio distillato basato su Qwen 2.5 14B, addestrato utilizzando l'output di DeepSeek R1. Questo modello ha superato OpenAI's o1-mini in diversi benchmark, raggiungendo risultati all'avanguardia per i modelli densi. Ecco alcuni risultati dei benchmark:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nQuesto modello, attraverso il fine-tuning dell'output di DeepSeek R1, ha dimostrato prestazioni competitive paragonabili a modelli all'avanguardia di dimensioni maggiori."
},
"deepseek/deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B è un modello di linguaggio distillato basato su Qwen 2.5 32B, addestrato utilizzando l'output di DeepSeek R1. Questo modello ha superato OpenAI's o1-mini in diversi benchmark, raggiungendo risultati all'avanguardia per i modelli densi. Ecco alcuni risultati dei benchmark:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nQuesto modello, attraverso il fine-tuning dell'output di DeepSeek R1, ha dimostrato prestazioni competitive paragonabili a modelli all'avanguardia di dimensioni maggiori."
},
"deepseek/deepseek-r1/community": {
"description": "DeepSeek R1 è l'ultimo modello open source rilasciato dal team di DeepSeek, con prestazioni di inferenza eccezionali, in particolare nei compiti di matematica, programmazione e ragionamento, raggiungendo livelli comparabili a quelli del modello o1 di OpenAI."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
},
"deepseek/deepseek-reasoner": {
"description": "DeepSeek-V3 Thinking (reasoner) è un modello sperimentale di ragionamento di DeepSeek, adatto a compiti di alta complessità."
},
"deepseek/deepseek-v3": {
"description": "Un modello linguistico grande universale veloce con capacità di ragionamento potenziate."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base è una versione migliorata del modello DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 ha realizzato un significativo progresso nella velocità di inferenza rispetto ai modelli precedenti. Si posiziona al primo posto tra i modelli open source e può competere con i modelli closed source più avanzati al mondo. DeepSeek-V3 utilizza l'architettura Multi-Head Latent Attention (MLA) e DeepSeekMoE, che sono state ampiamente validate in DeepSeek-V2. Inoltre, DeepSeek-V3 ha introdotto una strategia ausiliaria senza perdita per il bilanciamento del carico e ha stabilito obiettivi di addestramento per la previsione multi-etichetta per ottenere prestazioni superiori."
},
"deepseek_r1": {
"description": "DeepSeek-R1 è un modello di inferenza guidato da apprendimento rinforzato (RL), che risolve problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di avvio a freddo, ottimizzando ulteriormente le prestazioni di inferenza. Mostra prestazioni comparabili a OpenAI-o1 in compiti di matematica, codice e ragionamento, e ha migliorato l'efficacia complessiva attraverso metodi di addestramento ben progettati."
},
"deepseek_r1_distill_llama_70b": {
"description": "DeepSeek-R1-Distill-Llama-70B è un modello ottenuto tramite addestramento di distillazione basato su Llama-3.3-70B-Instruct. Questo modello fa parte della serie DeepSeek-R1 e mostra prestazioni eccellenti in matematica, programmazione e ragionamento, affinato utilizzando campioni generati da DeepSeek-R1."
},
"deepseek_r1_distill_qwen_14b": {
"description": "DeepSeek-R1-Distill-Qwen-14B è un modello ottenuto tramite distillazione della conoscenza basato su Qwen2.5-14B. Questo modello è stato affinato utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, mostrando eccellenti capacità di inferenza."
},
"deepseek_r1_distill_qwen_32b": {
"description": "DeepSeek-R1-Distill-Qwen-32B è un modello ottenuto tramite distillazione della conoscenza basato su Qwen2.5-32B. Questo modello è stato affinato utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, mostrando prestazioni eccezionali in vari campi, tra cui matematica, programmazione e ragionamento."
},
"doubao-1.5-lite-32k": {
"description": "Doubao-1.5-lite è un modello leggero di nuova generazione, con una velocità di risposta eccezionale, raggiungendo standard di livello mondiale sia in termini di prestazioni che di latenza."
},
"doubao-1.5-pro-256k": {
"description": "Doubao-1.5-pro-256k è una versione completamente aggiornata di Doubao-1.5-Pro, con un miglioramento complessivo delle prestazioni del 10%. Supporta il ragionamento con una finestra di contesto di 256k e una lunghezza di output massima di 12k token. Maggiore prestazioni, finestra più ampia e un eccellente rapporto qualità-prezzo, adatto a una gamma più ampia di scenari applicativi."
},
"doubao-1.5-pro-32k": {
"description": "Doubao-1.5-pro è un modello di nuova generazione, con prestazioni completamente aggiornate, eccellente in conoscenza, codice, ragionamento e altro."
},
"doubao-1.5-thinking-pro": {
"description": "Il modello di pensiero profondo Doubao-1.5, completamente nuovo, si distingue in ambiti professionali come matematica, programmazione e ragionamento scientifico, oltre che in compiti generali come la scrittura creativa, raggiungendo o avvicinandosi ai livelli di eccellenza del settore in numerosi benchmark autorevoli come AIME 2024, Codeforces e GPQA. Supporta una finestra di contesto di 128k e un output di 16k."
},
"doubao-1.5-thinking-pro-m": {
"description": "Doubao-1.5 è un nuovo modello di pensiero profondo (versione m con capacità native di inferenza multimodale profonda), eccellente in matematica, programmazione, ragionamento scientifico e compiti generali come scrittura creativa. Raggiunge o si avvicina al livello top nel settore in benchmark autorevoli come AIME 2024, Codeforces, GPQA. Supporta una finestra contestuale di 128k e output di 16k."
},
"doubao-1.5-thinking-vision-pro": {
"description": "Nuovo modello di pensiero profondo visivo con capacità multimodali generali potenziate, che ha raggiunto prestazioni SOTA in 37 su 59 benchmark pubblici."
},
"doubao-1.5-ui-tars": {
"description": "Doubao-1.5-UI-TARS è un modello Agent nativo progettato per l'interazione con interfacce grafiche (GUI). Interagisce senza soluzione di continuità con la GUI attraverso capacità umanoidi di percezione, ragionamento e azione."
},
"doubao-1.5-vision-lite": {
"description": "Doubao-1.5-vision-lite è un grande modello multimodale aggiornato, che supporta il riconoscimento di immagini a qualsiasi risoluzione e proporzioni estremamente lunghe, migliorando le capacità di ragionamento visivo, riconoscimento di documenti, comprensione delle informazioni dettagliate e rispetto delle istruzioni. Supporta una finestra di contesto di 128k e una lunghezza di uscita massima di 16k token."
},
"doubao-1.5-vision-pro": {
"description": "Doubao-1.5-vision-pro è un modello multimodale avanzato che supporta il riconoscimento di immagini a qualsiasi risoluzione e rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento documentale, la comprensione dei dettagli e l'aderenza alle istruzioni."
},
"doubao-1.5-vision-pro-32k": {
"description": "Doubao-1.5-vision-pro è un modello multimodale avanzato che supporta il riconoscimento di immagini a qualsiasi risoluzione e rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento documentale, la comprensione dei dettagli e l'aderenza alle istruzioni."
},
"doubao-lite-128k": {
"description": "Offre una velocità di risposta eccezionale e un miglior rapporto qualità-prezzo, fornendo ai clienti scelte più flessibili per diversi scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 128k."
},
"doubao-lite-32k": {
"description": "Offre una velocità di risposta eccezionale e un miglior rapporto qualità-prezzo, fornendo ai clienti scelte più flessibili per diversi scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 32k."
},
"doubao-lite-4k": {
"description": "Offre una velocità di risposta eccezionale e un miglior rapporto qualità-prezzo, fornendo ai clienti scelte più flessibili per diversi scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 4k."
},
"doubao-pro-256k": {
"description": "Il modello principale con le migliori prestazioni, adatto per gestire compiti complessi, con ottimi risultati in domande di riferimento, sintesi, creazione, classificazione del testo, role-playing e altri scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 256k."
},
"doubao-pro-32k": {
"description": "Il modello principale con le migliori prestazioni, adatto per gestire compiti complessi, con ottimi risultati in domande di riferimento, sintesi, creazione, classificazione del testo, role-playing e altri scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 32k."
},
"doubao-seed-1.6": {
"description": "Doubao-Seed-1.6 è un nuovo modello multimodale di pensiero profondo che supporta tre modalità di pensiero: auto, thinking e non-thinking. In modalità non-thinking, le prestazioni del modello migliorano significativamente rispetto a Doubao-1.5-pro/250115. Supporta una finestra contestuale di 256k e una lunghezza massima di output di 16k token."
},
"doubao-seed-1.6-flash": {
"description": "Doubao-Seed-1.6-flash è un modello multimodale di pensiero profondo con velocità di inferenza estrema, con TPOT di soli 10 ms; supporta sia la comprensione testuale che visiva, con capacità di comprensione testuale superiore alla generazione lite precedente e comprensione visiva paragonabile ai modelli pro della concorrenza. Supporta una finestra contestuale di 256k e una lunghezza massima di output di 16k token."
},
"doubao-seed-1.6-lite": {
"description": "Doubao-Seed-1.6-lite è un nuovo modello multimodale di pensiero profondo, con supporto per livelli regolabili di sforzo di ragionamento (Minimal, Low, Medium, High). Offre un eccellente rapporto qualità-prezzo ed è la scelta ideale per compiti comuni, con una finestra contestuale fino a 256k."
},
"doubao-seed-1.6-thinking": {
"description": "Il modello Doubao-Seed-1.6-thinking ha capacità di pensiero notevolmente potenziate; rispetto a Doubao-1.5-thinking-pro, migliora ulteriormente le capacità di base come coding, matematica e ragionamento logico, supportando anche la comprensione visiva. Supporta una finestra contestuale di 256k e una lunghezza massima di output di 16k token."
},
"doubao-seed-1.6-vision": {
"description": "Doubao-Seed-1.6-vision è un modello di pensiero profondo visivo che dimostra una più forte capacità di comprensione e ragionamento multimodale generale in scenari come educazione, revisione delle immagini, ispezione e sicurezza, e ricerca e risposta AI. Supporta una finestra di contesto di 256k e una lunghezza di output fino a 64k token."
},
"doubao-seed-code": {
"description": "Doubao-Seed-Code è stato profondamente ottimizzato per compiti di programmazione agentica, supporta multimodalità (testo/immagini/video) e contesto lungo fino a 256K token, compatibile con l'API di Anthropic. Ideale per scenari di programmazione, comprensione visiva e agenti intelligenti."
},
"doubao-seededit-3-0-i2i-250628": {
"description": "Il modello di generazione immagini Doubao è sviluppato dal team Seed di ByteDance, supporta input di testo e immagini, offrendo un'esperienza di generazione immagini altamente controllabile e di alta qualità. Supporta l'editing delle immagini tramite comandi testuali, con dimensioni dell'immagine generate tra 512 e 1536 pixel."
},
"doubao-seedream-3-0-t2i-250415": {
"description": "Il modello di generazione immagini Seedream 3.0, sviluppato dal team Seed di ByteDance, supporta input di testo e immagini, offrendo un'esperienza di generazione immagini altamente controllabile e di alta qualità. Genera immagini basate su prompt testuali."
},
"doubao-seedream-4-0-250828": {
"description": "Il modello di generazione immagini Seedream 4.0, sviluppato dal team Seed di ByteDance, supporta input di testo e immagini, offrendo un'esperienza di generazione immagini altamente controllabile e di alta qualità. Genera immagini basate su prompt testuali."
},
"doubao-vision-lite-32k": {
"description": "Il modello Doubao-vision è un modello multimodale lanciato da Doubao, con potenti capacità di comprensione e ragionamento delle immagini e una precisa comprensione delle istruzioni. Il modello mostra prestazioni eccellenti nell'estrazione di informazioni da testo e immagini e in compiti di ragionamento basati su immagini, applicabile a compiti di domande visive più complessi e ampi."
},
"doubao-vision-pro-32k": {
"description": "Il modello Doubao-vision è un modello multimodale lanciato da Doubao, con potenti capacità di comprensione e ragionamento delle immagini e una precisa comprensione delle istruzioni. Il modello mostra prestazioni eccellenti nell'estrazione di informazioni da testo e immagini e in compiti di ragionamento basati su immagini, applicabile a compiti di domande visive più complessi e ampi."
},
"emohaa": {
"description": "Emohaa è un modello psicologico, con capacità di consulenza professionale, aiuta gli utenti a comprendere i problemi emotivi."
},
"ernie-4.5-0.3b": {
"description": "ERNIE 4.5 0.3B, modello open source leggero, ideale per deployment locali e personalizzati."
},
"ernie-4.5-21b-a3b": {
"description": "ERNIE 4.5 21B A3B, modello open source con parametri elevati, eccellente in compiti di comprensione e generazione."
},
"ernie-4.5-300b-a47b": {
"description": "ERNIE 4.5 300B A47B è un modello esperto ibrido su larga scala sviluppato da Wenxin di Baidu, con prestazioni eccezionali nel ragionamento."
},
"ernie-4.5-8k-preview": {
"description": "ERNIE 4.5 8K Preview, modello di anteprima con contesto 8K, per testare e sperimentare le capacità di ERNIE 4.5."
},
"ernie-4.5-turbo-128k": {
"description": "ERNIE 4.5 Turbo 128K, modello generico ad alte prestazioni, supporta ricerca potenziata e strumenti, adatto a Q&A, codice, agenti e altro."
},
"ernie-4.5-turbo-128k-preview": {
"description": "ERNIE 4.5 Turbo 128K Preview, versione di anteprima con capacità equivalenti alla versione ufficiale, ideale per test e integrazione."
},
"ernie-4.5-turbo-32k": {
"description": "ERNIE 4.5 Turbo 32K, versione con contesto medio-lungo, adatta a Q&A, ricerca in knowledge base e dialoghi multi-turno."
},
"ernie-4.5-turbo-latest": {
"description": "ERNIE 4.5 Turbo Ultima versione, ottimizzata per prestazioni generali, ideale come modello principale in ambienti di produzione."
},
"ernie-4.5-turbo-vl": {
"description": "ERNIE 4.5 Turbo VL, modello multimodale maturo, adatto a compiti di comprensione e riconoscimento immagine-testo in produzione."
},
"ernie-4.5-turbo-vl-32k": {
"description": "ERNIE 4.5 Turbo VL 32K, versione multimodale per testi lunghi, adatta alla comprensione congiunta di documenti e immagini."
},
"ernie-4.5-turbo-vl-32k-preview": {
"description": "ERNIE 4.5 Turbo VL 32K Preview, versione di anteprima multimodale 32K, utile per valutare le capacità visive su contesti lunghi."
},
"ernie-4.5-turbo-vl-latest": {
"description": "ERNIE 4.5 Turbo VL Ultima versione, modello multimodale aggiornato, con migliori prestazioni in comprensione e ragionamento immagine-testo."
},
"ernie-4.5-turbo-vl-preview": {
"description": "ERNIE 4.5 Turbo VL Preview, modello multimodale di anteprima, supporta comprensione e generazione immagine-testo, ideale per Q&A visivo e contenuti."
},
"ernie-4.5-vl-28b-a3b": {
"description": "ERNIE 4.5 VL 28B A3B, modello multimodale open source, supporta compiti di comprensione e ragionamento immagine-testo."
},
"ernie-5.0-thinking-latest": {
"description": "Wenxin 5.0 Thinking è un modello di punta nativamente multimodale, che supporta testo, immagini, audio e video in un'unica architettura. Le sue capacità complessive sono state notevolmente migliorate, rendendolo adatto a domande complesse, creazione di contenuti e scenari con agenti intelligenti."
},
"ernie-5.0-thinking-preview": {
"description": "ERNIE 5.0 Thinking Preview, modello flagship nativo multimodale, supporta testo, immagini, audio e video, ideale per Q&A complessi, creazione e agenti intelligenti."
},
"ernie-char-8k": {
"description": "ERNIE Character 8K, modello di dialogo con personalità, adatto alla creazione di personaggi IP e conversazioni a lungo termine."
},
"ernie-char-fiction-8k": {
"description": "ERNIE Character Fiction 8K, modello di personalità per narrativa e creazione di trame, ideale per generazione di storie lunghe."
},
"ernie-char-fiction-8k-preview": {
"description": "ERNIE Character Fiction 8K Preview, versione di anteprima per creazione di personaggi e trame, utile per test e valutazione."
},
"ernie-irag-edit": {
"description": "ERNIE iRAG Edit, modello di editing immagini che supporta rimozione, ritocco e generazione di varianti."
},
"ernie-lite-8k": {
"description": "ERNIE Lite 8K, modello generico leggero, adatto a Q&A quotidiani e generazione di contenuti a basso costo."
},
"ernie-lite-pro-128k": {
"description": "ERNIE Lite Pro 128K, modello leggero ad alte prestazioni, ideale per scenari sensibili a latenza e costi."
},
"ernie-novel-8k": {
"description": "ERNIE Novel 8K, modello per narrativa lunga e creazione di trame IP, eccelle in narrazione multi-personaggio e multi-trama."
},
"ernie-speed-128k": {
"description": "ERNIE Speed 128K, grande modello senza costi di I/O, adatto a comprensione di testi lunghi e test su larga scala."
},
"ernie-speed-8k": {
"description": "ERNIE Speed 8K, modello gratuito e veloce, adatto a dialoghi quotidiani e compiti testuali leggeri."
},
"ernie-speed-pro-128k": {
"description": "ERNIE Speed Pro 128K, modello ad alta concorrenza e ottimo rapporto qualità-prezzo, ideale per servizi online su larga scala e applicazioni aziendali."
},
"ernie-tiny-8k": {
"description": "ERNIE Tiny 8K, modello ultra-leggero, adatto a Q&A semplici, classificazione e inferenza a basso costo."
},
"ernie-x1-turbo-32k": {
"description": "ERNIE X1 Turbo 32K, modello di pensiero veloce con contesto lungo 32K, adatto a ragionamento complesso e dialoghi multi-turno."
},
"ernie-x1.1-preview": {
"description": "ERNIE X1.1 Preview, versione di anteprima del modello di pensiero ERNIE X1.1, utile per test e validazione delle capacità."
},
"fal-ai/bytedance/seedream/v4": {
"description": "Il modello di generazione immagini Seedream 4.0, sviluppato dal team Seed di ByteDance, supporta input di testo e immagini, offrendo un'esperienza di generazione immagini altamente controllabile e di alta qualità. Genera immagini basate su prompt testuali."
},
"fal-ai/flux-kontext/dev": {
"description": "Modello FLUX.1 focalizzato su compiti di editing immagini, supporta input di testo e immagini."
},
"fal-ai/flux-pro/kontext": {
"description": "FLUX.1 Kontext [pro] può gestire testo e immagini di riferimento come input, realizzando senza soluzione di continuità modifiche locali mirate e trasformazioni complesse di scene complete."
},
"fal-ai/flux/krea": {
"description": "Flux Krea [dev] è un modello di generazione immagini con preferenze estetiche, mirato a creare immagini più realistiche e naturali."
},
"fal-ai/flux/schnell": {
"description": "FLUX.1 [schnell] è un modello di generazione immagini con 12 miliardi di parametri, focalizzato sulla generazione rapida di immagini di alta qualità."
},
"fal-ai/hunyuan-image/v3": {
"description": "Un potente modello nativo di generazione di immagini multimodali"
},
"fal-ai/imagen4/preview": {
"description": "Modello di generazione immagini di alta qualità fornito da Google."
},
"fal-ai/nano-banana": {
"description": "Nano Banana è l'ultimo modello multimodale nativo di Google, il più veloce ed efficiente, che consente di generare e modificare immagini tramite conversazione."
},
"fal-ai/qwen-image": {
"description": "Potente modello di immagini grezze del team Qwen, con impressionante capacità di generazione di testo in cinese e stili visivi di immagini diversificati."
},
"fal-ai/qwen-image-edit": {
"description": "Modello professionale di editing immagini rilasciato dal team Qwen, supporta editing semantico e di aspetto, può modificare con precisione testi in cinese e inglese, realizzare trasformazioni di stile, rotazioni di oggetti e altre modifiche di alta qualità."
},
"flux-1-schnell": {
"description": "Modello di generazione immagini da testo con 12 miliardi di parametri sviluppato da Black Forest Labs, che utilizza la tecnologia di distillazione di diffusione antagonista latente, capace di generare immagini di alta qualità in 1-4 passaggi. Le prestazioni sono comparabili a soluzioni proprietarie, rilasciato sotto licenza Apache-2.0 per uso personale, di ricerca e commerciale."
},
"flux-dev": {
"description": "FLUX.1 [dev] è un modello open source raffinato e pesato per uso non commerciale. Mantiene qualità d'immagine e aderenza alle istruzioni simili alla versione professionale FLUX, ma con maggiore efficienza operativa. Rispetto a modelli standard di dimensioni simili, utilizza le risorse in modo più efficiente."
},
"flux-kontext-max": {
"description": "All'avanguardia nella generazione e modifica di immagini contestuali — combina testo e immagini per risultati precisi e coerenti."
},
"flux-kontext-pro": {
"description": "Generazione e modifica di immagini contestuali all'avanguardia — combina testo e immagini per ottenere risultati precisi e coerenti."
},
"flux-merged": {
"description": "Il modello FLUX.1-merged combina le caratteristiche approfondite esplorate nella fase di sviluppo \"DEV\" con i vantaggi di esecuzione rapida rappresentati da \"Schnell\". Questa combinazione non solo estende i limiti di prestazione del modello, ma ne amplia anche l'ambito di applicazione."
},
"flux-pro": {
"description": "Modello AI commerciale di generazione di immagini di prim'ordine — qualità delle immagini e varietà degli output senza eguali."
},
"flux-pro-1.1": {
"description": "Versione avanzata del modello AI professionale per la generazione di immagini — offre qualità delle immagini superiore e una capacità precisa di attenersi ai prompt."
},
"flux-pro-1.1-ultra": {
"description": "Generazione di immagini AI ad altissima risoluzione — supporta output fino a 4 megapixel, genera immagini in altissima definizione in meno di 10 secondi."
},
"flux-schnell": {
"description": "FLUX.1 [schnell], attualmente il modello open source più avanzato a pochi passaggi, supera non solo i concorrenti simili ma anche potenti modelli non raffinati come Midjourney v6.0 e DALL·E 3 (HD). Ottimizzato per mantenere tutta la diversità di output della fase di pre-addestramento, migliora significativamente qualità visiva, aderenza alle istruzioni, variazioni di dimensione/proporzione, gestione dei font e diversità di output rispetto ai modelli più avanzati sul mercato, offrendo un'esperienza creativa più ricca e variegata."
},
"flux.1-schnell": {
"description": "FLUX.1-schnell, modello ad alte prestazioni per generazione di immagini, ideale per creare rapidamente immagini in vari stili."
},
"gemini-1.0-pro-001": {
"description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e ottimizzabili, è la scelta ideale per soluzioni a compiti complessi."
},
"gemini-1.0-pro-002": {
"description": "Gemini 1.0 Pro 002 (Tuning) offre un'eccellente supporto multimodale, focalizzandosi sulla risoluzione efficace di compiti complessi."
},
"gemini-1.0-pro-latest": {
"description": "Gemini 1.0 Pro è il modello AI ad alte prestazioni di Google, progettato per l'espansione su una vasta gamma di compiti."
},
"gemini-1.5-flash-001": {
"description": "Gemini 1.5 Flash 001 è un modello multimodale efficiente, supporta l'espansione per applicazioni ampie."
},
"gemini-1.5-flash-002": {
"description": "Gemini 1.5 Flash 002 è un modello multimodale altamente efficiente, che supporta un'ampia gamma di applicazioni."
},
"gemini-1.5-flash-8b": {
"description": "Gemini 1.5 Flash 8B è un modello multimodale altamente efficiente, che supporta un'ampia gamma di applicazioni."
},
"gemini-1.5-flash-8b-exp-0924": {
"description": "Gemini 1.5 Flash 8B 0924 è il modello sperimentale più recente, con miglioramenti significativi nelle prestazioni sia nei casi d'uso testuali che multimodali."
},
"gemini-1.5-flash-8b-latest": {
"description": "Gemini 1.5 Flash 8B è un modello multimodale efficiente che supporta un'ampia gamma di applicazioni estese."
},
"gemini-1.5-flash-exp-0827": {
"description": "Gemini 1.5 Flash 0827 offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
},
"gemini-1.5-flash-latest": {
"description": "Gemini 1.5 Flash è il più recente modello AI multimodale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'ampia gamma di compiti di scalabilità efficiente."
},
"gemini-1.5-pro-001": {
"description": "Gemini 1.5 Pro 001 è una soluzione AI multimodale scalabile, supporta un'ampia gamma di compiti complessi."
},
"gemini-1.5-pro-002": {
"description": "Gemini 1.5 Pro 002 è il modello più recente pronto per la produzione, che offre output di qualità superiore, con miglioramenti significativi in particolare in matematica, contesti lunghi e compiti visivi."
},
"gemini-1.5-pro-exp-0801": {
"description": "Gemini 1.5 Pro 0801 offre eccellenti capacità di elaborazione multimodale, offrendo maggiore flessibilità nello sviluppo di applicazioni."
},
"gemini-1.5-pro-exp-0827": {
"description": "Gemini 1.5 Pro 0827 integra le tecnologie di ottimizzazione più recenti, offrendo capacità di elaborazione dei dati multimodali più efficienti."
},
"gemini-1.5-pro-latest": {
"description": "Gemini 1.5 Pro supporta fino a 2 milioni di token, è la scelta ideale per modelli multimodali di medie dimensioni, adatta a un supporto multifunzionale per compiti complessi."
},
"gemini-2.0-flash": {
"description": "Gemini 2.0 Flash offre funzionalità e miglioramenti di nuova generazione, tra cui velocità eccezionale, utilizzo di strumenti nativi, generazione multimodale e una finestra di contesto di 1M token."
},
"gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash offre funzionalità e miglioramenti di nuova generazione, tra cui velocità eccezionale, utilizzo di strumenti nativi, generazione multimodale e una finestra di contesto di 1M token."
},
"gemini-2.0-flash-exp": {
"description": "Gemini 2.0 Flash è una variante del modello ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
},
"gemini-2.0-flash-exp-image-generation": {
"description": "Modello sperimentale Gemini 2.0 Flash, supporta la generazione di immagini"
},
"gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash è una variante del modello Flash, ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
},
"gemini-2.0-flash-lite-001": {
"description": "Gemini 2.0 Flash è una variante del modello Flash, ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
},
"gemini-2.5-flash": {
"description": "Gemini 2.5 Flash è il modello Google con il miglior rapporto qualità-prezzo, offrendo funzionalità complete."
},
"gemini-2.5-flash-image": {
"description": "Nano Banana è l'ultimo modello multimodale nativo di Google, il più veloce ed efficiente, che consente di generare e modificare immagini tramite conversazioni."
},
"gemini-2.5-flash-image-preview": {
"description": "Nano Banana è l'ultimo, più veloce ed efficiente modello multimodale nativo di Google, che consente di generare e modificare immagini tramite conversazione."
},
"gemini-2.5-flash-image-preview:image": {
"description": "Nano Banana è l'ultimo, più veloce ed efficiente modello multimodale nativo di Google, che consente di generare e modificare immagini tramite conversazione."
},
"gemini-2.5-flash-image:image": {
"description": "Nano Banana è l'ultimo modello multimodale nativo di Google, il più veloce ed efficiente, che consente di generare e modificare immagini tramite conversazioni."
},
"gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite è il modello più piccolo e conveniente di Google, progettato per un utilizzo su larga scala."
},
"gemini-2.5-flash-lite-preview-06-17": {
"description": "Gemini 2.5 Flash-Lite Preview è il modello Google più piccolo e con il miglior rapporto qualità-prezzo, progettato per un utilizzo su larga scala."
},
"gemini-2.5-flash-lite-preview-09-2025": {
"description": "Versione anteprima (25 settembre 2025) di Gemini 2.5 Flash-Lite"
},
"gemini-2.5-flash-preview-04-17": {
"description": "Gemini 2.5 Flash Preview è il modello più conveniente di Google, che offre funzionalità complete."
},
"gemini-2.5-flash-preview-09-2025": {
"description": "Versione anteprima (25 settembre 2025) di Gemini 2.5 Flash"
},
"gemini-2.5-pro": {
"description": "Gemini 2.5 Pro è il modello di pensiero più avanzato di Google, capace di ragionare su codice, matematica e problemi complessi nei campi STEM, oltre a utilizzare contesti lunghi per analizzare grandi dataset, codebase e documenti."
},
"gemini-2.5-pro-preview-03-25": {
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi in codice, matematica e nei campi STEM, oltre a utilizzare analisi di lungo contesto per grandi set di dati, codici sorgente e documenti."
},
"gemini-2.5-pro-preview-05-06": {
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi nel codice, nella matematica e nei campi STEM, utilizzando analisi di lungo contesto per esaminare grandi set di dati, librerie di codice e documenti."
},
"gemini-2.5-pro-preview-06-05": {
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, capace di ragionare su problemi complessi in codice, matematica e ambito STEM, oltre a utilizzare contesti estesi per analizzare grandi dataset, librerie di codice e documenti."
},
"gemini-3-pro-image-preview": {
"description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google, con supporto per dialoghi multimodali."
},
"gemini-3-pro-image-preview:image": {
"description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google, con supporto per dialoghi multimodali."
},
"gemini-3-pro-preview": {
"description": "Gemini 3 Pro è il miglior modello di comprensione multimodale al mondo, nonché il più potente agente e modello di programmazione contestuale di Google, con capacità visive avanzate e interazioni profonde, basate su ragionamento all'avanguardia."
},
"gemini-flash-latest": {
"description": "Ultima versione di Gemini Flash"
},
"gemini-flash-lite-latest": {
"description": "Ultima versione di Gemini Flash-Lite"
},
"gemini-pro-latest": {
"description": "Ultima versione di Gemini Pro"
},
"gemma-7b-it": {
"description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi."
},
"gemma2": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse."
},
"gemma2-9b-it": {
"description": "Gemma 2 9B è un modello ottimizzato per l'integrazione di compiti specifici e strumenti."
},
"gemma2:27b": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse."
},
"gemma2:2b": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse."
},
"generalv3": {
"description": "Spark Pro è un modello linguistico di grandi dimensioni ad alte prestazioni, ottimizzato per settori professionali, focalizzandosi su matematica, programmazione, medicina, educazione e altro, supportando la ricerca online e plugin integrati per meteo, data e altro. Il modello ottimizzato mostra prestazioni eccellenti e alta efficienza in domande e risposte complesse, comprensione del linguaggio e creazione di testi di alto livello, rendendolo una scelta ideale per scenari di applicazione professionale."
},
"generalv3.5": {
"description": "Spark3.5 Max è la versione più completa, supportando la ricerca online e numerosi plugin integrati. Le sue capacità core completamente ottimizzate, insieme alla definizione dei ruoli di sistema e alla funzionalità di chiamata di funzioni, lo rendono estremamente eccellente e performante in vari scenari di applicazione complessi."
},
"glm-4": {
"description": "GLM-4 è la versione flagship rilasciata a gennaio 2024, attualmente sostituita da GLM-4-0520, più potente."
},
"glm-4-0520": {
"description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati, con prestazioni eccezionali."
},
"glm-4-32b-0414": {
"description": "GLM-4 32B 0414, versione del modello generico della serie GLM, supporta generazione e comprensione testuale multi-task."
},
"glm-4-9b-chat": {
"description": "GLM-4-9B-Chat offre prestazioni elevate in semantica, matematica, ragionamento, programmazione e conoscenza. Supporta anche la navigazione web, l'esecuzione di codice, l'invocazione di strumenti personalizzati e il ragionamento su testi lunghi. Supporta 26 lingue, tra cui giapponese, coreano e tedesco."
},
"glm-4-air": {
"description": "GLM-4-Air è una versione economica, con prestazioni simili a GLM-4, che offre velocità elevate a un prezzo accessibile."
},
"glm-4-air-250414": {
"description": "GLM-4-Air è una versione conveniente, con prestazioni simili a GLM-4, offrendo velocità elevate a un prezzo accessibile."
},
"glm-4-airx": {
"description": "GLM-4-AirX offre una versione efficiente di GLM-4-Air, con velocità di inferenza fino a 2,6 volte superiore."
},
"glm-4-alltools": {
"description": "GLM-4-AllTools è un modello di agente multifunzionale, ottimizzato per supportare la pianificazione di istruzioni complesse e le chiamate agli strumenti, come la navigazione web, l'interpretazione del codice e la generazione di testo, adatto per l'esecuzione di più compiti."
},
"glm-4-flash": {
"description": "GLM-4-Flash è l'ideale per compiti semplici, con la massima velocità e il prezzo più conveniente."
},
"glm-4-flash-250414": {
"description": "GLM-4-Flash è l'ideale per compiti semplici, con la massima velocità e gratuito."
},
"glm-4-flashx": {
"description": "GLM-4-FlashX è una versione potenziata di Flash, con una velocità di inferenza super veloce."
},
"glm-4-long": {
"description": "GLM-4-Long supporta input di testo ultra-lunghi, adatto per compiti di memoria e gestione di documenti su larga scala."
},
"glm-4-plus": {
"description": "GLM-4-Plus, come flagship ad alta intelligenza, ha potenti capacità di elaborazione di testi lunghi e compiti complessi, con prestazioni complessive migliorate."
},
"glm-4.1v-thinking-flash": {
"description": "La serie GLM-4.1V-Thinking è attualmente il modello visivo più performante tra i modelli VLM di livello 10 miliardi di parametri noti, integrando le migliori prestazioni SOTA nelle attività di linguaggio visivo di pari livello, tra cui comprensione video, domande sulle immagini, risoluzione di problemi disciplinari, riconoscimento OCR, interpretazione di documenti e grafici, agent GUI, coding front-end web, grounding e altro. Le capacità in molteplici compiti superano persino il modello Qwen2.5-VL-72B con 8 volte più parametri. Grazie a tecniche avanzate di apprendimento rinforzato, il modello padroneggia il ragionamento tramite catena di pensiero per migliorare accuratezza e ricchezza delle risposte, superando significativamente i modelli tradizionali non-thinking in termini di risultati finali e interpretabilità."
},
"glm-4.1v-thinking-flashx": {
"description": "La serie GLM-4.1V-Thinking è attualmente il modello visivo più performante tra i modelli VLM di livello 10 miliardi di parametri noti, integrando le migliori prestazioni SOTA nelle attività di linguaggio visivo di pari livello, tra cui comprensione video, domande sulle immagini, risoluzione di problemi disciplinari, riconoscimento OCR, interpretazione di documenti e grafici, agent GUI, coding front-end web, grounding e altro. Le capacità in molteplici compiti superano persino il modello Qwen2.5-VL-72B con 8 volte più parametri. Grazie a tecniche avanzate di apprendimento rinforzato, il modello padroneggia il ragionamento tramite catena di pensiero per migliorare accuratezza e ricchezza delle risposte, superando significativamente i modelli tradizionali non-thinking in termini di risultati finali e interpretabilità."
},
"glm-4.5": {
"description": "Modello di punta di Zhipu, supporta la modalità di pensiero alternata, con capacità complessive che raggiungono il livello SOTA dei modelli open source, e una lunghezza del contesto fino a 128K."
},
"glm-4.5-air": {
"description": "Versione leggera di GLM-4.5, bilancia prestazioni e rapporto qualità-prezzo, con capacità di commutazione flessibile tra modelli di pensiero ibridi."
},
"glm-4.5-airx": {
"description": "Versione ultra-veloce di GLM-4.5-Air, con tempi di risposta più rapidi, progettata per esigenze di grande scala e alta velocità."
},
"glm-4.5-flash": {
"description": "Versione gratuita di GLM-4.5, con ottime prestazioni in inferenza, codice e agenti intelligenti."
},
"glm-4.5-x": {
"description": "Versione ultra-veloce di GLM-4.5, con prestazioni potenti e velocità di generazione fino a 100 token al secondo."
},
"glm-4.5v": {
"description": "Una nuova generazione di modello di ragionamento visivo basato sull'architettura MOE, con 106 miliardi di parametri totali e 12 miliardi di parametri di attivazione, che raggiunge lo SOTA tra i modelli multimodali open source della stessa fascia a livello globale in vari benchmark, coprendo attività comuni come la comprensione di immagini, video, documenti e compiti GUI."
},
"glm-4.6": {
"description": "Il più recente modello di punta di Zhipu, GLM-4.6 (355B), supera completamente la generazione precedente in codifica avanzata, gestione di testi lunghi, inferenza e capacità agenti, allineandosi in particolare con Claude Sonnet 4 nelle capacità di programmazione, diventando il modello di coding di punta in Cina."
},
"glm-4v": {
"description": "GLM-4V offre potenti capacità di comprensione e ragionamento visivo, supportando vari compiti visivi."
},
"glm-4v-flash": {
"description": "GLM-4V-Flash si concentra sulla comprensione efficiente di un'unica immagine, adatta a scenari di analisi rapida delle immagini, come l'analisi delle immagini in tempo reale o l'elaborazione di immagini in batch."
},
"glm-4v-plus": {
"description": "GLM-4V-Plus ha la capacità di comprendere contenuti video e più immagini, adatto per compiti multimodali."
},
"glm-4v-plus-0111": {
"description": "GLM-4V-Plus ha la capacità di comprendere contenuti video e molte immagini, adatto per compiti multimodali."
},
"glm-z1-air": {
"description": "Modello di inferenza: dotato di potenti capacità di inferenza, adatto per compiti che richiedono un ragionamento profondo."
},
"glm-z1-airx": {
"description": "Inferenza ultraveloce: con una velocità di inferenza super rapida e prestazioni di ragionamento potenti."
},
"glm-z1-flash": {
"description": "Serie GLM-Z1 con forti capacità di ragionamento complesso, eccellente in logica, matematica e programmazione."
},
"glm-z1-flashx": {
"description": "Alta velocità e basso costo: versione potenziata Flash, con velocità di inferenza ultra-rapida e migliore garanzia di concorrenza."
},
"glm-zero-preview": {
"description": "GLM-Zero-Preview possiede potenti capacità di ragionamento complesso, eccellendo nei campi del ragionamento logico, della matematica e della programmazione."
},
"global.anthropic.claude-opus-4-5-20251101-v1:0": {
"description": "Claude Opus 4.5 è il modello di punta di Anthropic, che unisce un'intelligenza straordinaria a prestazioni scalabili, ideale per compiti complessi che richiedono risposte di altissima qualità e capacità di ragionamento avanzate."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash è un modello di ragionamento ad alte prestazioni di Google, adatto a compiti multimodali estesi."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash offre funzionalità e miglioramenti di nuova generazione, tra cui velocità eccezionale, utilizzo di strumenti nativi, generazione multimodale e una finestra di contesto di 1M token."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental è il più recente modello AI multimodale sperimentale di Google, con un miglioramento della qualità rispetto alle versioni storiche, in particolare per quanto riguarda la conoscenza del mondo, il codice e il lungo contesto."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite offre funzionalità di nuova generazione e miglioramenti, inclusa velocità eccezionale, uso integrato di strumenti, generazione multimodale e una finestra di contesto di 1 milione di token."
},
"google/gemini-2.0-flash-lite-001": {
"description": "Gemini 2.0 Flash Lite è la versione leggera della famiglia Gemini, con modalità di ragionamento disattivata per migliorare latenza e costi, ma attivabile tramite parametri."
},
"google/gemini-2.5-flash": {
"description": "La serie Gemini 2.5 Flash (Lite/Pro/Flash) è composta da modelli di ragionamento da bassa latenza a prestazioni elevate di Google."
},
"google/gemini-2.5-flash-image": {
"description": "Gemini 2.5 Flash Image (Nano Banana) è il modello di generazione immagini di Google, con supporto per dialoghi multimodali."
},
"google/gemini-2.5-flash-image-free": {
"description": "Gemini 2.5 Flash Image versione gratuita, supporta generazione multimodale con limiti di utilizzo."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Modello sperimentale Gemini 2.5 Flash, supporta la generazione di immagini."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash Lite è la versione leggera di Gemini 2.5, ottimizzata per latenza e costi, ideale per scenari ad alto throughput."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per ragionamenti avanzati, codifica, matematica e compiti scientifici. Include capacità di 'pensiero' integrate, permettendo di fornire risposte con maggiore accuratezza e una gestione contestuale più dettagliata.\n\nNota: questo modello ha due varianti: pensiero e non pensiero. I prezzi di output variano significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi scegliere la variante ':thinking', che comporterà un prezzo di output di pensiero più elevato.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro 'numero massimo di token per il ragionamento', come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-flash-preview:thinking": {
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per ragionamenti avanzati, codifica, matematica e compiti scientifici. Include capacità di 'pensiero' integrate, permettendo di fornire risposte con maggiore accuratezza e una gestione contestuale più dettagliata.\n\nNota: questo modello ha due varianti: pensiero e non pensiero. I prezzi di output variano significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi scegliere la variante ':thinking', che comporterà un prezzo di output di pensiero più elevato.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro 'numero massimo di token per il ragionamento', come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro è il modello di punta di Google per il ragionamento, con supporto per contesto lungo e compiti complessi."
},
"google/gemini-2.5-pro-free": {
"description": "Gemini 2.5 Pro versione gratuita, supporta contesto lungo multimodale con limiti di utilizzo, adatto a test e flussi di lavoro leggeri."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi nel campo del codice, della matematica e delle STEM, oltre a utilizzare un contesto esteso per analizzare grandi set di dati, repository di codice e documenti."
},
"google/gemini-3-pro-image-preview": {
"description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche il dialogo multimodale."
},
"google/gemini-3-pro-image-preview-free": {
"description": "Gemini 3 Pro Image versione gratuita, supporta generazione multimodale con limiti di utilizzo."
},
"google/gemini-3-pro-preview": {
"description": "Gemini 3 Pro è il modello di ragionamento multimodale di nuova generazione della serie Gemini, in grado di comprendere testo, audio, immagini e video, e gestire compiti complessi e grandi basi di codice."
},
"google/gemini-3-pro-preview-free": {
"description": "Gemini 3 Pro versione gratuita in anteprima, con le stesse capacità di comprensione e ragionamento multimodale della versione standard, ma con limiti di utilizzo e velocità, ideale per test e uso occasionale."
},
"google/gemini-embedding-001": {
"description": "Modello di embedding all'avanguardia con prestazioni eccellenti in compiti in inglese, multilingue e codice."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
},
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro combina le più recenti tecnologie di ottimizzazione, offrendo una capacità di elaborazione dei dati multimodali più efficiente."
},
"google/gemma-2-27b": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una varietà di scenari applicativi, dalle piccole applicazioni all'elaborazione di dati complessi."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 continua il concetto di design leggero ed efficiente."
},
"google/gemma-2-2b-it": {
"description": "Modello di ottimizzazione delle istruzioni leggero di Google"
},
"google/gemma-2-9b": {
"description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una varietà di scenari applicativi, dalle piccole applicazioni all'elaborazione di dati complessi."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 è una serie di modelli di testo open source leggeri di Google."
},
"google/gemma-2-9b-it:free": {
"description": "Gemma 2 è la serie di modelli di testo open source leggeri di Google."
},
"google/gemma-2b-it": {
"description": "Gemma Instruct (2B) offre capacità di elaborazione di istruzioni di base, adatta per applicazioni leggere."
},
"google/gemma-3-12b-it": {
"description": "Gemma 3 12B è un modello linguistico open source di Google che ha stabilito nuovi standard in termini di efficienza e prestazioni."
},
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B è un modello linguistico open source di Google, che ha stabilito nuovi standard in termini di efficienza e prestazioni."
},
"google/text-embedding-005": {
"description": "Modello di embedding testuale focalizzato sull'inglese, ottimizzato per compiti di codice e linguaggio inglese."
},
"google/text-multilingual-embedding-002": {
"description": "Modello di embedding testuale multilingue ottimizzato per compiti cross-lingua, supporta molte lingue."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-0125": {
"description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-1106": {
"description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-instruct": {
"description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
},
"gpt-35-turbo": {
"description": "GPT 3.5 Turbo è un modello efficiente fornito da OpenAI, adatto per chat e generazione di testo, che supporta chiamate di funzione parallele."
},
"gpt-35-turbo-16k": {
"description": "GPT 3.5 Turbo 16k è un modello di generazione di testo ad alta capacità, adatto per compiti complessi."
},
"gpt-4": {
"description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati."
},
"gpt-4-0125-preview": {
"description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale."
},
"gpt-4-0613": {
"description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati."
},
"gpt-4-1106-preview": {
"description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale."
},
"gpt-4-32k": {
"description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati."
},
"gpt-4-32k-0613": {
"description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati."
},
"gpt-4-turbo": {
"description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale."
},
"gpt-4-turbo-2024-04-09": {
"description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale."
},
"gpt-4-turbo-preview": {
"description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale."
},
"gpt-4-vision-preview": {
"description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale."
},
"gpt-4.1": {
"description": "GPT-4.1 è il nostro modello di punta per compiti complessi. È particolarmente adatto per risolvere problemi trasversali."
},
"gpt-4.1-mini": {
"description": "GPT-4.1 mini offre un equilibrio tra intelligenza, velocità e costo, rendendolo un modello attraente per molti casi d'uso."
},
"gpt-4.1-nano": {
"description": "GPT-4.1 mini offre un equilibrio tra intelligenza, velocità e costo, rendendolo un modello attraente per molti casi d'uso."
},
"gpt-4.5-preview": {
"description": "GPT-4.5-preview è il modello più recente a uso generale, dotato di una solida conoscenza del mondo e di una migliore comprensione delle intenzioni degli utenti; è particolarmente abile nelle attività creative e nella pianificazione autonoma. Le conoscenze del modello sono aggiornate a ottobre 2023."
},
"gpt-4o": {
"description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico."
},
"gpt-4o-2024-05-13": {
"description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico."
},
"gpt-4o-2024-08-06": {
"description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico."
},
"gpt-4o-2024-11-20": {
"description": "ChatGPT-4o è un modello dinamico che si aggiorna in tempo reale per mantenere sempre l'ultima versione. Combina una potente comprensione del linguaggio e capacità di generazione, rendendolo adatto a scenari di applicazione su larga scala, inclusi assistenza clienti, istruzione e supporto tecnico."
},
"gpt-4o-audio-preview": {
"description": "Modello GPT-4o Audio Preview, supporta input e output audio."
},
"gpt-4o-mini": {
"description": "GPT-4o mini è il modello più recente lanciato da OpenAI dopo il GPT-4 Omni, supporta input visivi e testuali e produce output testuali. Come il loro modello di punta in formato ridotto, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un rapporto qualità-prezzo significativo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat."
},
"gpt-4o-mini-audio-preview": {
"description": "Modello GPT-4o mini Audio, supporta input e output audio."
},
"gpt-4o-mini-realtime-preview": {
"description": "Versione in tempo reale di GPT-4o-mini, supporta input e output audio e testuali in tempo reale."
},
"gpt-4o-mini-search-preview": {
"description": "La versione preview di GPT-4o mini per la ricerca è un modello appositamente addestrato per comprendere ed eseguire query di ricerca web, utilizzando lAPI Chat Completions. Oltre ai costi per token, le query di ricerca web comportano un costo per ogni chiamata allo strumento."
},
"gpt-4o-mini-transcribe": {
"description": "GPT-4o Mini Transcribe è un modello di trascrizione vocale che utilizza GPT-4o per convertire audio in testo. Rispetto al modello Whisper originale, migliora il tasso di errore delle parole e la precisione nel riconoscimento linguistico. Usalo per ottenere trascrizioni più accurate."
},
"gpt-4o-mini-tts": {
"description": "GPT-4o mini TTS è un modello di sintesi vocale basato su GPT-4o mini, che offre una generazione di voce di alta qualità a un costo più basso."
},
"gpt-4o-realtime-preview": {
"description": "Versione in tempo reale di GPT-4o, supporta input e output audio e testuali in tempo reale."
},
"gpt-4o-realtime-preview-2024-10-01": {
"description": "Versione in tempo reale di GPT-4o, supporta input e output audio e testuali in tempo reale."
},
"gpt-4o-realtime-preview-2025-06-03": {
"description": "Versione in tempo reale di GPT-4o, supporta input e output audio e testuali in tempo reale."
},
"gpt-4o-search-preview": {
"description": "La versione preview di GPT-4o per la ricerca è un modello appositamente addestrato per comprendere ed eseguire query di ricerca web, utilizzando lAPI Chat Completions. Oltre ai costi per token, le query di ricerca web comportano un costo per ogni chiamata allo strumento."
},
"gpt-4o-transcribe": {
"description": "GPT-4o Transcribe è un modello di trascrizione vocale che utilizza GPT-4o per convertire audio in testo. Rispetto al modello Whisper originale, migliora il tasso di errore delle parole e la precisione nel riconoscimento linguistico. Usalo per ottenere trascrizioni più accurate."
},
"gpt-5": {
"description": "Il miglior modello per compiti di codifica e agenti cross-domain. GPT-5 rappresenta un salto in termini di accuratezza, velocità, ragionamento, riconoscimento del contesto, pensiero strutturato e problem solving."
},
"gpt-5-chat": {
"description": "GPT-5 Chat è una versione di anteprima ottimizzata per scenari conversazionali. Supporta input di testo e immagini, ma produce solo output testuale, ideale per chatbot e applicazioni di intelligenza artificiale conversazionale."
},
"gpt-5-chat-latest": {
"description": "Modello GPT-5 utilizzato in ChatGPT. Combina potenti capacità di comprensione e generazione del linguaggio, ideale per applicazioni di interazione conversazionale."
},
"gpt-5-codex": {
"description": "GPT-5 Codex è una versione di GPT-5 ottimizzata per compiti di codifica agenti in ambienti Codex o simili."
},
"gpt-5-mini": {
"description": "Versione più veloce ed economica di GPT-5, adatta a compiti ben definiti. Offre risposte più rapide mantenendo un output di alta qualità."
},
"gpt-5-nano": {
"description": "Versione più veloce ed economica di GPT-5. Perfetta per scenari applicativi che richiedono risposte rapide e sono sensibili ai costi."
},
"gpt-5-pro": {
"description": "GPT-5 Pro utilizza maggiori risorse computazionali per un'elaborazione più profonda, offrendo risposte sempre più accurate e pertinenti."
},
"gpt-5.1": {
"description": "GPT-5.1 — Modello di punta ottimizzato per compiti di codifica e agent, supporta intensità di inferenza configurabile e contesto esteso."
},
"gpt-5.1-chat-latest": {
"description": "GPT-5.1 Chat: Variante di GPT-5.1 per ChatGPT, ideale per scenari di conversazione."
},
"gpt-5.1-codex": {
"description": "GPT-5.1 Codex: Versione di GPT-5.1 ottimizzata per compiti di codifica agentica, utilizzabile nell'API Responses per flussi di lavoro complessi di codice/agent."
},
"gpt-5.1-codex-mini": {
"description": "GPT-5.1 Codex mini: Variante più compatta e conveniente di Codex, ottimizzata per compiti di codifica agentica."
},
"gpt-audio": {
"description": "GPT Audio è un modello di chat universale per input e output audio, supporta l'uso di I/O audio nell'API Chat Completions."
},
"gpt-image-1": {
"description": "Modello nativo multimodale di generazione immagini di ChatGPT"
},
"gpt-image-1-mini": {
"description": "Una versione più economica di GPT Image 1, con supporto nativo per input testuali e visivi e generazione di output in formato immagine."
},
"gpt-oss-120b": {
"description": "È necessaria una richiesta per accedere a questo modello. GPT-OSS-120B è un modello linguistico open source su larga scala sviluppato da OpenAI, con potenti capacità di generazione testuale."
},
"gpt-oss-20b": {
"description": "È necessaria una richiesta per accedere a questo modello. GPT-OSS-20B è un modello linguistico open source di medie dimensioni sviluppato da OpenAI, con capacità di generazione testuale efficienti."
},
"gpt-oss:120b": {
"description": "GPT-OSS 120B è un modello linguistico open source di grandi dimensioni rilasciato da OpenAI, che utilizza la tecnologia di quantizzazione MXFP4, rappresentando un modello di punta. Richiede un ambiente con più GPU o una workstation ad alte prestazioni per l'esecuzione, offrendo prestazioni eccellenti in ragionamenti complessi, generazione di codice e gestione multilingue, supportando chiamate di funzione avanzate e integrazione di strumenti."
},
"gpt-oss:20b": {
"description": "GPT-OSS 20B è un modello di linguaggio di grandi dimensioni open source rilasciato da OpenAI, che utilizza la tecnologia di quantizzazione MXFP4, adatto per l'esecuzione su GPU consumer di fascia alta o Mac Apple Silicon. Il modello eccelle in generazione di dialoghi, scrittura di codice e compiti di ragionamento, supportando chiamate di funzione e uso di strumenti."
},
"gpt-realtime": {
"description": "Modello universale in tempo reale, supporta input e output testuali e audio in tempo reale, oltre a input di immagini."
},
"grok-2-image-1212": {
"description": "Il nostro ultimo modello di generazione immagini può creare immagini vivide e realistiche basate su prompt testuali. Eccelle nella generazione di immagini per marketing, social media e intrattenimento."
},
"grok-2-vision-1212": {
"description": "Questo modello ha migliorato l'accuratezza, il rispetto delle istruzioni e le capacità multilingue."
},
"grok-3": {
"description": "Modello di punta, eccelle in estrazione dati, programmazione e sintesi testuale per applicazioni aziendali, con profonda conoscenza nei settori finanziario, medico, legale e scientifico."
},
"grok-3-mini": {
"description": "Modello leggero che riflette prima di rispondere. Veloce e intelligente, adatto a compiti logici che non richiedono conoscenze di dominio profonde, con tracciamento del processo di pensiero originale."
},
"grok-4": {
"description": "Il nostro modello di punta più recente e potente, eccellente nell'elaborazione del linguaggio naturale, nel calcolo matematico e nel ragionamento — un vero campione versatile e completo."
},
"grok-4-0709": {
"description": "Grok 4 di xAI, dotato di potenti capacità di ragionamento."
},
"grok-4-1-fast-non-reasoning": {
"description": "Modello multimodale all'avanguardia, ottimizzato specificamente per l'utilizzo ad alte prestazioni con strumenti di agenti."
},
"grok-4-1-fast-reasoning": {
"description": "Modello multimodale all'avanguardia, ottimizzato specificamente per l'utilizzo ad alte prestazioni con strumenti di agenti."
},
"grok-4-fast-non-reasoning": {
"description": "Siamo lieti di annunciare Grok 4 Fast, il nostro ultimo progresso nei modelli di inferenza con ottimo rapporto costo-efficacia."
},
"grok-4-fast-reasoning": {
"description": "Siamo lieti di annunciare Grok 4 Fast, il nostro ultimo progresso nei modelli di inferenza con ottimo rapporto costo-efficacia."
},
"grok-code-fast-1": {
"description": "Siamo lieti di presentare grok-code-fast-1, un modello di inferenza rapido ed economico, eccellente nella codifica degli agenti."
},
"groq/compound": {
"description": "Compound è un sistema AI composito supportato da diversi modelli open source disponibili su GroqCloud, che può utilizzare strumenti in modo intelligente e selettivo per rispondere alle richieste degli utenti."
},
"groq/compound-mini": {
"description": "Compound-mini è un sistema AI composito supportato da modelli open source disponibili su GroqCloud, che può utilizzare strumenti in modo intelligente e selettivo per rispondere alle richieste degli utenti."
},
"gryphe/mythomax-l2-13b": {
"description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta."
},
"hunyuan-a13b": {
"description": "Hunyuan è il primo modello di ragionamento ibrido, versione aggiornata di hunyuan-standard-256K, con 80 miliardi di parametri totali e 13 miliardi attivati. Di default opera in modalità pensiero lento, ma supporta il passaggio tra modalità pensiero lento e veloce tramite parametri o istruzioni, con il cambio che avviene aggiungendo / no_think prima della query. Le capacità complessive sono migliorate rispetto alla generazione precedente, con miglioramenti significativi in matematica, scienze, comprensione di testi lunghi e capacità agent."
},
"hunyuan-code": {
"description": "Ultimo modello di generazione di codice di Hunyuan, addestrato su un modello di base con 200B di dati di codice di alta qualità, con sei mesi di addestramento su dati SFT di alta qualità, la lunghezza della finestra di contesto è aumentata a 8K, e si posiziona tra i primi in cinque indicatori di valutazione automatica della generazione di codice; nelle valutazioni di alta qualità su dieci aspetti di codice in cinque lingue, le prestazioni sono nella prima fascia."
},
"hunyuan-functioncall": {
"description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione."
},
"hunyuan-large": {
"description": "Il modello Hunyuan-large ha un numero totale di parametri di circa 389B, con circa 52B di parametri attivati, ed è il modello MoE open source con la più grande scala di parametri e le migliori prestazioni nel settore, basato su architettura Transformer."
},
"hunyuan-large-longcontext": {
"description": "Specializzato nel gestire compiti di testi lunghi come riassunti di documenti e domande e risposte sui documenti, possiede anche capacità di generazione di testi generali. Eccelle nell'analisi e nella generazione di testi lunghi, in grado di affrontare efficacemente esigenze complesse e dettagliate di elaborazione di contenuti lunghi."
},
"hunyuan-large-vision": {
"description": "Questo modello è adatto per scenari di comprensione testo-immagine, basato sul modello misto Large di Hunyuan. Supporta input di più immagini a risoluzione arbitraria più testo, generando contenuti testuali, con un focus sulle attività di comprensione testo-immagine e un significativo miglioramento nelle capacità multilingue."
},
"hunyuan-lite": {
"description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori."
},
"hunyuan-lite-vision": {
"description": "Il modello multimodale Hunyuan più recente da 7B, con una finestra contestuale di 32K, supporta dialoghi multimodali in cinese e inglese, riconoscimento di oggetti nelle immagini, comprensione di documenti e tabelle, matematica multimodale, e supera i modelli concorrenti da 7B in vari indicatori di valutazione."
},
"hunyuan-pro": {
"description": "Modello di testo lungo MOE-32K con un miliardo di parametri. Raggiunge livelli di eccellenza in vari benchmark, con capacità di istruzioni complesse e ragionamento, supporta le chiamate di funzione, ottimizzato per traduzione multilingue, finanza, diritto e medicina."
},
"hunyuan-role": {
"description": "Ultimo modello di ruolo di Hunyuan, un modello di ruolo fine-tuned ufficialmente rilasciato da Hunyuan, addestrato su un dataset di scenari di ruolo, con migliori prestazioni di base in scenari di ruolo."
},
"hunyuan-standard": {
"description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-32K offre un buon rapporto qualità-prezzo, bilanciando efficacia e costo, e gestisce l'input di testi lunghi."
},
"hunyuan-standard-256K": {
"description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-256K supera ulteriormente in lunghezza ed efficacia, ampliando notevolmente la lunghezza massima di input."
},
"hunyuan-standard-vision": {
"description": "Il modello multimodale più recente di Hunyuan, supporta risposte in più lingue, con capacità equilibrate in cinese e inglese."
},
"hunyuan-t1-20250321": {
"description": "Costruisce completamente le capacità del modello in scienze umane e scientifiche, con una forte capacità di catturare informazioni in testi lunghi. Supporta il ragionamento per risolvere problemi scientifici di varia difficoltà, inclusi matematica, logica, scienza e codice."
},
"hunyuan-t1-20250403": {
"description": "Migliorare la capacità di generazione del codice a livello di progetto; migliorare la qualità della scrittura generata dal testo; potenziare la comprensione multi-turno degli argomenti, laderenza alle istruzioni toB e la comprensione di parole e termini; ottimizzare i problemi di output misto tra cinese semplificato e tradizionale e tra cinese e inglese."
},
"hunyuan-t1-20250529": {
"description": "Ottimizzato per la creazione di testi, la scrittura di saggi, il frontend del codice, la matematica, il ragionamento logico e altre competenze scientifiche, con miglioramenti nella capacità di seguire istruzioni."
},
"hunyuan-t1-20250711": {
"description": "Miglioramento significativo delle capacità in matematica avanzata, logica e codice, ottimizzazione della stabilità dell'output e potenziamento della capacità di gestione di testi lunghi."
},
"hunyuan-t1-latest": {
"description": "Migliora significativamente le capacità del modello principale e del modello di pensiero lento in matematica avanzata, ragionamento complesso, codice difficile, rispetto delle istruzioni e qualità della creazione testuale."
},
"hunyuan-t1-vision-20250619": {
"description": "L'ultima versione del modello di pensiero profondo multimodale t1-vision di Hunyuan, supporta catene di pensiero native multimodali e presenta miglioramenti completi rispetto alla versione predefinita della generazione precedente."
},
"hunyuan-t1-vision-20250916": {
"description": "L'ultima versione del modello visivo Hunyuan t1-vision offre un pensiero visivo profondo. Rispetto alla versione precedente, presenta miglioramenti completi in compiti come domande e risposte generali su immagini e testi, localizzazione visiva, OCR, grafici, risoluzione di problemi da foto e creazione visiva, con un'ottimizzazione significativa per l'inglese e le lingue meno diffuse."
},
"hunyuan-turbo": {
"description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro."
},
"hunyuan-turbo-20241223": {
"description": "Ottimizzazione di questa versione: scaling delle istruzioni sui dati, notevole aumento della capacità di generalizzazione del modello; notevole miglioramento delle capacità matematiche, di codifica e di ragionamento logico; ottimizzazione delle capacità di comprensione del testo e delle parole; ottimizzazione della qualità della generazione dei contenuti di creazione del testo."
},
"hunyuan-turbo-latest": {
"description": "Ottimizzazione dell'esperienza generale, inclusi comprensione NLP, creazione di testi, conversazione, domande e risposte, traduzione, e altro; miglioramento dell'umanizzazione, ottimizzazione dell'intelligenza emotiva del modello; potenziamento della capacità del modello di chiarire attivamente in caso di ambiguità; miglioramento della gestione di problemi di analisi di parole e frasi; aumento della qualità e dell'interattività della creazione; miglioramento dell'esperienza multi-turno."
},
"hunyuan-turbo-vision": {
"description": "Il nuovo modello di punta di linguaggio visivo di Hunyuan, adotta una nuova struttura di modello esperto misto (MoE), con miglioramenti complessivi nelle capacità di riconoscimento di base, creazione di contenuti, domande e risposte, analisi e ragionamento rispetto alla generazione precedente."
},
"hunyuan-turbos-20250313": {
"description": "Uniformare lo stile dei passaggi di risoluzione dei problemi matematici e rafforzare il question answering multi-turno in matematica. Ottimizzare lo stile delle risposte nella creazione testuale, eliminando limpronta AI e aumentando la qualità letteraria."
},
"hunyuan-turbos-20250416": {
"description": "Aggiornamento della base pre-addestrata per rafforzare la comprensione e laderenza alle istruzioni; miglioramento delle capacità scientifiche in matematica, programmazione, logica e scienze durante la fase di allineamento; potenziamento delle capacità umanistiche come la qualità della scrittura creativa, la comprensione testuale, la precisione della traduzione e il question answering; rafforzamento delle capacità degli agenti in vari settori, con particolare attenzione alla comprensione multi-turno."
},
"hunyuan-turbos-20250604": {
"description": "Aggiornamento della base pre-addestrata, con miglioramenti nelle capacità di scrittura e comprensione della lettura, notevoli progressi nelle competenze di programmazione e scientifiche, e continui miglioramenti nelladerenza a istruzioni complesse."
},
"hunyuan-turbos-20250926": {
"description": "Aggiornamento della qualità dei dati della base di pre-addestramento. Ottimizzazione della strategia di addestramento nella fase post-train, migliorando continuamente le capacità di agenti, lingue minori inglesi, conformità alle istruzioni, codice e scienze."
},
"hunyuan-turbos-latest": {
"description": "hunyuan-TurboS è l'ultima versione del modello di punta Hunyuan, con capacità di pensiero più forti e un'esperienza utente migliore."
},
"hunyuan-turbos-longtext-128k-20250325": {
"description": "Eccelle nella gestione di compiti di testo lungo come riassunti di documenti e domande sui documenti, e possiede anche la capacità di gestire compiti di generazione di testo generico. Mostra prestazioni eccezionali nell'analisi e generazione di testi lunghi, affrontando efficacemente le esigenze di elaborazione di contenuti complessi e dettagliati."
},
"hunyuan-turbos-role-plus": {
"description": "Ultima versione del modello di role-playing di Hunyuan, finemente addestrato ufficialmente, basato sul modello Hunyuan e ulteriormente addestrato con dataset specifici per scenari di role-playing, offrendo migliori prestazioni di base in tali contesti."
},
"hunyuan-turbos-vision": {
"description": "Questo modello è adatto per scenari di comprensione testo-immagine ed è basato sulla più recente versione turbos di Hunyuan, una nuova generazione di modello linguistico visivo di punta focalizzato su compiti di comprensione testo-immagine, inclusi riconoscimento di entità basato su immagini, domande di conoscenza, creazione di testi e risoluzione di problemi tramite foto, con miglioramenti completi rispetto alla generazione precedente."
},
"hunyuan-turbos-vision-20250619": {
"description": "L'ultima versione del modello linguistico visivo di punta turbos-vision di Hunyuan, con miglioramenti completi rispetto alla versione predefinita della generazione precedente in compiti di comprensione testo-immagine, inclusi riconoscimento di entità basato su immagini, domande di conoscenza, creazione di testi e risoluzione di problemi tramite foto."
},
"hunyuan-vision": {
"description": "Ultimo modello multimodale di Hunyuan, supporta l'input di immagini e testo per generare contenuti testuali."
},
"image-01": {
"description": "Nuovo modello di generazione immagini con resa dettagliata, supporta generazione da testo a immagine e da immagine a immagine."
},
"image-01-live": {
"description": "Modello di generazione immagini con resa dettagliata, supporta generazione da testo a immagine e impostazioni di stile."
},
"imagen-4.0-fast-generate-001": {
"description": "Imagen, serie di modelli testo-immagine di quarta generazione — versione Fast"
},
"imagen-4.0-generate-001": {
"description": "Serie di modelli Imagen di quarta generazione per la generazione di immagini da testo"
},
"imagen-4.0-generate-preview-06-06": {
"description": "Serie di modelli di generazione di immagini di quarta generazione Imagen"
},
"imagen-4.0-ultra-generate-001": {
"description": "Imagen, serie di modelli testo-in-immagine di quarta generazione, versione Ultra"
},
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Versione Ultra della serie di modelli di generazione di immagini di quarta generazione Imagen"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small è la scelta ideale per compiti di generazione, debug e refactoring di codice, con latenza minima."
},
"inclusionAI/Ling-flash-2.0": {
"description": "Ling-flash-2.0 è il terzo modello della serie basata sull'architettura Ling 2.0 rilasciato dal team Bailing di Ant Group. È un modello di esperti misti (MoE) con un totale di 100 miliardi di parametri, ma attiva solo 6,1 miliardi di parametri per token (4,8 miliardi non embedding). Come modello leggero, Ling-flash-2.0 dimostra prestazioni paragonabili o superiori a modelli densi da 40 miliardi e a modelli MoE di scala maggiore in molte valutazioni autorevoli. Il modello esplora un percorso efficiente attraverso un design architetturale e strategie di addestramento estreme, sfidando il consenso che “modello grande equivale a molti parametri”."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 è un modello di linguaggio di grandi dimensioni ad alte prestazioni e dimensioni ridotte basato sull'architettura MoE. Ha 16 miliardi di parametri totali, ma attiva solo 1,4 miliardi per token (789 milioni non embedding), raggiungendo così velocità di generazione molto elevate. Grazie al design efficiente MoE e a dati di addestramento di grande scala e alta qualità, Ling-mini-2.0 mostra prestazioni di punta in compiti downstream, comparabili a modelli densi sotto i 10 miliardi e a modelli MoE di scala maggiore."
},
"inclusionAI/Ring-flash-2.0": {
"description": "Ring-flash-2.0 è un modello di pensiero ad alte prestazioni profondamente ottimizzato basato su Ling-flash-2.0-base. Utilizza un'architettura di esperti misti (MoE) con 100 miliardi di parametri totali, ma attiva solo 6,1 miliardi di parametri per inferenza. Il modello risolve l'instabilità dell'addestramento RL nei grandi modelli MoE grazie all'algoritmo innovativo icepop, migliorando continuamente le capacità di ragionamento complesso durante l'addestramento a lungo termine. Ring-flash-2.0 ha raggiunto risultati significativi in competizioni matematiche, generazione di codice e ragionamento logico, superando modelli densi di punta sotto i 40 miliardi di parametri e competendo con modelli MoE open source di scala maggiore e modelli di pensiero ad alte prestazioni closed source. Pur focalizzato sul ragionamento complesso, eccelle anche in compiti di scrittura creativa. Inoltre, grazie al design architetturale efficiente, Ring-flash-2.0 offre prestazioni elevate con inferenza veloce, riducendo significativamente i costi di deployment in scenari ad alta concorrenza."
},
"inclusionai/ling-1t": {
"description": "Ling-1T è il modello MoE da 1T di inclusionAI, ottimizzato per compiti di ragionamento intensivo e contesto su larga scala."
},
"inclusionai/ling-flash-2.0": {
"description": "Ling-flash-2.0 è un modello MoE di inclusionAI, ottimizzato per efficienza e prestazioni di ragionamento, adatto a compiti di media e grande scala."
},
"inclusionai/ling-mini-2.0": {
"description": "Ling-mini-2.0 è il modello MoE leggero di inclusionAI, che riduce significativamente i costi mantenendo buone capacità di ragionamento."
},
"inclusionai/ming-flash-omini-preview": {
"description": "Ming-flash-omni Preview è il modello multimodale di inclusionAI, supporta input vocali, immagini e video, con capacità ottimizzate di rendering e riconoscimento vocale."
},
"inclusionai/ring-1t": {
"description": "Ring-1T è il modello MoE da trilioni di parametri di inclusionAI, progettato per ragionamento su larga scala e compiti di ricerca."
},
"inclusionai/ring-flash-2.0": {
"description": "Ring-flash-2.0 è una variante del modello Ring di inclusionAI per scenari ad alto throughput, con enfasi su velocità ed efficienza dei costi."
},
"inclusionai/ring-mini-2.0": {
"description": "Ring-mini-2.0 è la versione MoE leggera ad alto throughput di inclusionAI, pensata per scenari ad alta concorrenza."
},
"internlm/internlm2_5-7b-chat": {
"description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari."
},
"internlm2.5-latest": {
"description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti."
},
"internlm3-latest": {
"description": "La nostra ultima serie di modelli, con prestazioni di inferenza eccezionali, è leader tra i modelli open source della stessa classe. Punta di default ai modelli della serie InternLM3 appena rilasciati."
},
"internvl2.5-38b-mpo": {
"description": "InternVL2.5 38B MPO, modello multimodale pre-addestrato, supporta compiti complessi di ragionamento immagine-testo."
},
"internvl2.5-latest": {
"description": "La versione InternVL2.5 che stiamo ancora mantenendo, offre prestazioni eccellenti e stabili. Punta di default al nostro ultimo modello della serie InternVL2.5, attualmente indirizzato a internvl2.5-78b."
},
"internvl3-14b": {
"description": "InternVL3 14B, modello multimodale di media scala, bilancia prestazioni e costi."
},
"internvl3-1b": {
"description": "InternVL3 1B, modello multimodale leggero, adatto a deployment in ambienti con risorse limitate."
},
"internvl3-38b": {
"description": "InternVL3 38B, modello multimodale open source su larga scala, ideale per compiti di comprensione immagine-testo ad alta precisione."
},
"internvl3-latest": {
"description": "Il nostro ultimo modello multimodale, con una maggiore capacità di comprensione delle immagini e del testo, e una comprensione delle immagini a lungo termine, offre prestazioni paragonabili ai migliori modelli closed-source. Punta di default al nostro ultimo modello della serie InternVL, attualmente indirizzato a internvl3-78b."
},
"irag-1.0": {
"description": "ERNIE iRAG, modello di generazione potenziata da ricerca visiva, supporta ricerca per immagine, retrieval immagine-testo e generazione di contenuti."
},
"jamba-large": {
"description": "Il nostro modello più potente e avanzato, progettato per gestire compiti complessi a livello aziendale, con prestazioni eccezionali."
},
"jamba-mini": {
"description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità, con un volume ridotto."
},
"jina-deepsearch-v1": {
"description": "La ricerca approfondita combina la ricerca online, la lettura e il ragionamento, consentendo indagini complete. Puoi considerarlo come un agente che accetta il tuo compito di ricerca - eseguirà una ricerca approfondita e iterativa prima di fornire una risposta. Questo processo implica una continua ricerca, ragionamento e risoluzione dei problemi da diverse angolazioni. Questo è fondamentalmente diverso dai modelli di grandi dimensioni standard che generano risposte direttamente dai dati pre-addestrati e dai tradizionali sistemi RAG che si basano su ricerche superficiali una tantum."
},
"kimi-k2": {
"description": "Kimi-K2, lanciato da Moonshot AI, è un modello base con architettura MoE dotato di potenti capacità di codice e agenti, con 1 trilione di parametri totali e 32 miliardi di parametri attivi. Nei test di benchmark su ragionamento generale, programmazione, matematica e agenti, il modello K2 supera altri modelli open source principali."
},
"kimi-k2-0711-preview": {
"description": "kimi-k2 è un modello base con architettura MoE dotato di potenti capacità di codice e Agent, con un totale di 1T parametri e 32B parametri attivi. Nei test di benchmark per ragionamento generale, programmazione, matematica e Agent, il modello K2 supera altri modelli open source principali."
},
"kimi-k2-0905-preview": {
"description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
},
"kimi-k2-instruct": {
"description": "Kimi K2 Instruct, modello ufficiale di inferenza Kimi, supporta contesto lungo, codice, Q&A e altri scenari."
},
"kimi-k2-thinking": {
"description": "Il modello kimi-k2-thinking, fornito da Moonshot AI, è un modello di pensiero dotato di capacità agentiche generali e di ragionamento, eccellente nel ragionamento profondo e capace di utilizzare strumenti in più fasi per risolvere una vasta gamma di problemi complessi."
},
"kimi-k2-thinking-turbo": {
"description": "Versione ad alta velocità del modello K2 Thinking, supporta contesto da 256k, eccelle nel ragionamento profondo con output a 60-100 token al secondo."
},
"kimi-k2-turbo-preview": {
"description": "kimi-k2 è un modello di base con architettura MoE che offre potenti capacità di programmazione e di agent, con 1T di parametri totali e 32B di parametri attivi. Nei benchmark delle principali categorie — ragionamento su conoscenze generali, programmazione, matematica e agent — il modello K2 supera gli altri modelli open source più diffusi."
},
"kimi-k2:1t": {
"description": "Kimi K2 è un modello linguistico esperto ibrido su larga scala (MoE) sviluppato da Moon's Dark Side AI, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivati per ogni passaggio in avanti. È ottimizzato per capacità di agente, inclusi l'uso avanzato di strumenti, il ragionamento e la sintesi del codice."
},
"kimi-latest": {
"description": "Il prodotto Kimi Smart Assistant utilizza il più recente modello Kimi, che potrebbe includere funzionalità non ancora stabili. Supporta la comprensione delle immagini e selezionerà automaticamente il modello di fatturazione 8k/32k/128k in base alla lunghezza del contesto della richiesta."
},
"kuaishou/kat-coder-pro-v1": {
"description": "KAT-Coder-Pro-V1 (gratuito per un periodo limitato) è focalizzato sulla comprensione del codice e programmazione automatica, ideale per agenti di programmazione efficienti."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
},
"learnlm-2.0-flash-experimental": {
"description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
},
"lite": {
"description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
},
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B offre capacità di ragionamento AI più potenti, adatto per applicazioni complesse, supporta un'elaborazione computazionale elevata garantendo efficienza e precisione."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B è un modello ad alte prestazioni, offre capacità di generazione di testo rapida, particolarmente adatto per scenari applicativi che richiedono efficienza su larga scala e costi contenuti."
},
"llama-3.1-instruct": {
"description": "Il modello Llama 3.1 per l'addestramento di istruzioni è stato ottimizzato per scenari di conversazione, superando molti dei modelli di chat open source esistenti nelle comuni benchmark settoriali."
},
"llama-3.2-11b-vision-instruct": {
"description": "Eccellenti capacità di ragionamento visivo su immagini ad alta risoluzione, adatte ad applicazioni di comprensione visiva."
},
"llama-3.2-11b-vision-preview": {
"description": "Llama 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione delle immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"llama-3.2-90b-vision-instruct": {
"description": "Capacità avanzate di ragionamento visivo per applicazioni di agenti di comprensione visiva."
},
"llama-3.2-90b-vision-preview": {
"description": "Llama 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione delle immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"llama-3.2-vision-instruct": {
"description": "Il modello Llama 3.2-Vision istruito è ottimizzato per il riconoscimento visivo, l' inferenza di immagini, la descrizione di immagini e la risposta a domande comuni relative a immagini."
},
"llama-3.3-70b": {
"description": "Llama 3.3 70B: un modello Llama di medie-grandi dimensioni che bilancia capacità di ragionamento e throughput."
},
"llama-3.3-70b-versatile": {
"description": "Meta Llama 3.3 è un modello linguistico di grandi dimensioni multilingue (LLM) da 70B (input/output testuale) con pre-addestramento e aggiustamento delle istruzioni. Il modello di testo puro di Llama 3.3 è ottimizzato per casi d'uso di dialogo multilingue e supera molti modelli di chat open-source e chiusi nei benchmark di settore comuni."
},
"llama-3.3-instruct": {
"description": "Il modello Llama 3.3 per l'addestramento di istruzioni è stato ottimizzato per scenari di conversazione, superando molti modelli di chat open source esistenti nelle comuni benchmark settoriali."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B offre capacità di elaborazione della complessità senza pari, progettato su misura per progetti ad alta richiesta."
},
"llama3-8b-8192": {
"description": "Meta Llama 3 8B offre prestazioni di ragionamento di alta qualità, adatto per esigenze applicative in vari scenari."
},
"llama3-groq-70b-8192-tool-use-preview": {
"description": "Llama 3 Groq 70B Tool Use offre potenti capacità di invocazione degli strumenti, supporta l'elaborazione efficiente di compiti complessi."
},
"llama3-groq-8b-8192-tool-use-preview": {
"description": "Llama 3 Groq 8B Tool Use è un modello ottimizzato per l'uso efficiente degli strumenti, supporta calcoli paralleli rapidi."
},
"llama3.1": {
"description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati."
},
"llama3.1-8b": {
"description": "Llama 3.1 8B: una variante Llama leggera e a bassa latenza, ideale per inferenza online leggera e scenari interattivi."
},
"llama3.1:405b": {
"description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati."
},
"llama3.1:70b": {
"description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati."
},
"llava": {
"description": "LLaVA è un modello multimodale che combina un codificatore visivo e Vicuna, per una potente comprensione visiva e linguistica."
},
"llava-v1.5-7b-4096-preview": {
"description": "LLaVA 1.5 7B offre capacità di elaborazione visiva integrate, generando output complessi attraverso input visivi."
},
"llava:13b": {
"description": "LLaVA è un modello multimodale che combina un codificatore visivo e Vicuna, per una potente comprensione visiva e linguistica."
},
"llava:34b": {
"description": "LLaVA è un modello multimodale che combina un codificatore visivo e Vicuna, per una potente comprensione visiva e linguistica."
},
"magistral-medium-latest": {
"description": "Magistral Medium 1.2 è un modello di inferenza all'avanguardia con supporto visivo, rilasciato da Mistral AI a settembre 2025."
},
"magistral-small-2509": {
"description": "Magistral Small 1.2 è un modello di inferenza open source di piccole dimensioni con supporto visivo, rilasciato da Mistral AI a settembre 2025."
},
"mathstral": {
"description": "MathΣtral è progettato per la ricerca scientifica e il ragionamento matematico, offre capacità di calcolo efficaci e interpretazione dei risultati."
},
"max-32k": {
"description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione del contesto e capacità di ragionamento logico superiori, supporta input testuali fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
},
"megrez-3b-instruct": {
"description": "Megrez 3B Instruct è un modello efficiente a basso numero di parametri sviluppato da Wuwen Xinqiong."
},
"meituan/longcat-flash-chat": {
"description": "Modello base non riflessivo open source di Meituan, ottimizzato per l'interazione dialogica e i compiti degli agenti intelligenti, eccelle nell'uso di strumenti e in scenari complessi di conversazione multi-turno."
},
"meta-llama-3-70b-instruct": {
"description": "Un potente modello con 70 miliardi di parametri che eccelle nel ragionamento, nella codifica e nelle ampie applicazioni linguistiche."
},
"meta-llama-3-8b-instruct": {
"description": "Un modello versatile con 8 miliardi di parametri ottimizzato per compiti di dialogo e generazione di testo."
},
"meta-llama-3.1-405b-instruct": {
"description": "I modelli di testo solo ottimizzati per istruzioni Llama 3.1 sono progettati per casi d'uso di dialogo multilingue e superano molti dei modelli di chat open source e chiusi disponibili su benchmark industriali comuni."
},
"meta-llama-3.1-70b-instruct": {
"description": "I modelli di testo solo ottimizzati per istruzioni Llama 3.1 sono progettati per casi d'uso di dialogo multilingue e superano molti dei modelli di chat open source e chiusi disponibili su benchmark industriali comuni."
},
"meta-llama-3.1-8b-instruct": {
"description": "I modelli di testo solo ottimizzati per istruzioni Llama 3.1 sono progettati per casi d'uso di dialogo multilingue e superano molti dei modelli di chat open source e chiusi disponibili su benchmark industriali comuni."
},
"meta-llama/Llama-2-13b-chat-hf": {
"description": "LLaMA-2 Chat (13B) offre eccellenti capacità di elaborazione linguistica e un'interazione di alta qualità."
},
"meta-llama/Llama-2-70b-hf": {
"description": "LLaMA-2 offre eccellenti capacità di elaborazione del linguaggio e un'esperienza interattiva di alta qualità."
},
"meta-llama/Llama-3-70b-chat-hf": {
"description": "LLaMA-3 Chat (70B) è un potente modello di chat, in grado di gestire esigenze di dialogo complesse."
},
"meta-llama/Llama-3-8b-chat-hf": {
"description": "LLaMA-3 Chat (8B) offre supporto multilingue, coprendo una vasta gamma di conoscenze di dominio."
},
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione di immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
"description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione di immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione di immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
"description": "Il modello di linguaggio di grandi dimensioni multilingue Meta Llama 3.3 (LLM) è un modello generativo pre-addestrato e regolato per istruzioni da 70B (input/output di testo). Il modello di testo puro di Llama 3.3 regolato per istruzioni è ottimizzato per casi d'uso di dialogo multilingue e supera molti modelli di chat open source e chiusi disponibili su benchmark di settore comuni."
},
"meta-llama/Llama-Vision-Free": {
"description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione di immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
"description": "Llama 3 70B Instruct Lite è adatto per ambienti che richiedono alta efficienza e bassa latenza."
},
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
"description": "Llama 3 70B Instruct Turbo offre capacità superiori di comprensione e generazione del linguaggio, adatto per i compiti computazionali più impegnativi."
},
"meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
"description": "Llama 3 8B Instruct Lite è adatto per ambienti a risorse limitate, offrendo prestazioni bilanciate eccellenti."
},
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
"description": "Llama 3 8B Instruct Turbo è un modello di linguaggio ad alte prestazioni, supportando una vasta gamma di scenari applicativi."
},
"meta-llama/Meta-Llama-3.1-405B-Instruct": {
"description": "LLaMA 3.1 405B è un potente modello pre-addestrato e ottimizzato per istruzioni."
},
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "Il modello Llama 3.1 Turbo 405B offre un supporto di contesto di capacità estremamente grande per l'elaborazione di big data, eccellendo nelle applicazioni di intelligenza artificiale su larga scala."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a conversazioni complesse, traduzione multilingue e analisi dei dati."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
"description": "Il modello Llama 3.1 70B è stato ottimizzato per applicazioni ad alto carico, quantizzato a FP8 per fornire una maggiore efficienza computazionale e accuratezza, garantendo prestazioni eccezionali in scenari complessi."
},
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
"description": "Il modello Llama 3.1 8B utilizza la quantizzazione FP8, supportando fino a 131.072 token di contesto, ed è un leader tra i modelli open source, adatto per compiti complessi, superando molti benchmark di settore."
},
"meta-llama/llama-3-70b-instruct": {
"description": "Llama 3 70B Instruct è ottimizzato per scenari di dialogo di alta qualità, con prestazioni eccellenti in varie valutazioni umane."
},
"meta-llama/llama-3-8b-instruct": {
"description": "Llama 3 8B Instruct è ottimizzato per scenari di dialogo di alta qualità, con prestazioni superiori a molti modelli chiusi."
},
"meta-llama/llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct è progettato per dialoghi di alta qualità, con prestazioni eccezionali nelle valutazioni umane, particolarmente adatto per scenari ad alta interazione."
},
"meta-llama/llama-3.1-8b-instruct": {
"description": "Llama 3.1 8B Instruct è l'ultima versione rilasciata da Meta, ottimizzata per scenari di dialogo di alta qualità, superando molti modelli chiusi di punta."
},
"meta-llama/llama-3.1-8b-instruct:free": {
"description": "LLaMA 3.1 offre supporto multilingue ed è uno dei modelli generativi leader nel settore."
},
"meta-llama/llama-3.2-11b-vision-instruct": {
"description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"meta-llama/llama-3.2-3b-instruct": {
"description": "meta-llama/llama-3.2-3b-instruct"
},
"meta-llama/llama-3.2-90b-vision-instruct": {
"description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo."
},
"meta-llama/llama-3.3-70b-instruct": {
"description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer, migliora l'utilità e la sicurezza attraverso il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF). La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue e supera molti modelli di chat open source e chiusi in vari benchmark di settore. La data di scadenza delle conoscenze è dicembre 2023."
},
"meta-llama/llama-3.3-70b-instruct:free": {
"description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer, migliora l'utilità e la sicurezza attraverso il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF). La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue e supera molti modelli di chat open source e chiusi in vari benchmark di settore. La data di scadenza delle conoscenze è dicembre 2023."
},
"meta.llama3-1-405b-instruct-v1:0": {
"description": "Meta Llama 3.1 405B Instruct è il modello più grande e potente della serie Llama 3.1 Instruct, un modello avanzato per la generazione di dati e il ragionamento conversazionale, utilizzabile anche come base per un pre-addestramento o un fine-tuning specializzato in determinati settori. I modelli di linguaggio di grandi dimensioni (LLMs) multilingue forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e ottimizzati per le istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output di testo). I modelli di testo ottimizzati per le istruzioni di Llama 3.1 (8B, 70B, 405B) sono stati progettati per casi d'uso conversazionali multilingue e hanno superato molti modelli di chat open source disponibili in benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in diverse lingue. I modelli di testo ottimizzati per le istruzioni sono adatti a chat simili a assistenti, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni ottimizzate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza."
},
"meta.llama3-1-70b-instruct-v1:0": {
"description": "Meta Llama 3.1 70B Instruct è una versione aggiornata, con una lunghezza di contesto estesa a 128K, multilinguismo e capacità di ragionamento migliorate. I modelli di linguaggio di grandi dimensioni (LLMs) forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e regolati per istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output testuali). I modelli di testo regolati per istruzioni di Llama 3.1 (8B, 70B, 405B) sono ottimizzati per casi d'uso di conversazione multilingue e superano molti modelli di chat open source disponibili nei test di benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in più lingue. I modelli di testo regolati per istruzioni sono adatti per chat simili a quelle di un assistente, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni regolate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane per utilità e sicurezza."
},
"meta.llama3-1-8b-instruct-v1:0": {
"description": "Meta Llama 3.1 8B Instruct è una versione aggiornata, con una lunghezza di contesto estesa a 128K, multilinguismo e capacità di ragionamento migliorate. I modelli di linguaggio di grandi dimensioni (LLMs) forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e regolati per istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output testuali). I modelli di testo regolati per istruzioni di Llama 3.1 (8B, 70B, 405B) sono ottimizzati per casi d'uso di conversazione multilingue e superano molti modelli di chat open source disponibili nei test di benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in più lingue. I modelli di testo regolati per istruzioni sono adatti per chat simili a quelle di un assistente, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni regolate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane per utilità e sicurezza."
},
"meta.llama3-70b-instruct-v1:0": {
"description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per la creazione di contenuti, AI conversazionale, comprensione del linguaggio, ricerca e applicazioni aziendali."
},
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per dispositivi a bassa potenza e risorse limitate, oltre a garantire tempi di addestramento più rapidi."
},
"meta/Llama-3.2-11B-Vision-Instruct": {
"description": "Eccelle nelle capacità di ragionamento su immagini ad alta risoluzione, adatto ad applicazioni di comprensione visiva."
},
"meta/Llama-3.2-90B-Vision-Instruct": {
"description": "Capacità avanzate di ragionamento su immagini per applicazioni di agenti di comprensione visiva."
},
"meta/Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 è il modello linguistico open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405 miliardi di parametri a costi estremamente contenuti. Basato su architettura Transformer, migliorato tramite fine-tuning supervisionato (SFT) e apprendimento rinforzato con feedback umano (RLHF) per utilità e sicurezza. La versione ottimizzata per istruzioni è progettata per dialoghi multilingue e supera molti modelli di chat open source e proprietari in diversi benchmark industriali. Data di cut-off della conoscenza: dicembre 2023."
},
"meta/Meta-Llama-3-70B-Instruct": {
"description": "Un potente modello da 70 miliardi di parametri, eccellente in ragionamento, codifica e ampie applicazioni linguistiche."
},
"meta/Meta-Llama-3-8B-Instruct": {
"description": "Un modello versatile da 8 miliardi di parametri, ottimizzato per compiti di dialogo e generazione di testo."
},
"meta/Meta-Llama-3.1-405B-Instruct": {
"description": "Modello testuale Llama 3.1 ottimizzato per istruzioni, progettato per casi d'uso di dialogo multilingue, con prestazioni eccellenti in molti benchmark industriali rispetto a numerosi modelli di chat open source e proprietari."
},
"meta/Meta-Llama-3.1-70B-Instruct": {
"description": "Modello testuale Llama 3.1 ottimizzato per istruzioni, progettato per casi d'uso di dialogo multilingue, con prestazioni eccellenti in molti benchmark industriali rispetto a numerosi modelli di chat open source e proprietari."
},
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Modello testuale Llama 3.1 ottimizzato per istruzioni, progettato per casi d'uso di dialogo multilingue, con prestazioni eccellenti in molti benchmark industriali rispetto a numerosi modelli di chat open source e proprietari."
},
"meta/llama-3-70b": {
"description": "Modello open source da 70 miliardi di parametri finemente ottimizzato da Meta per l'aderenza alle istruzioni. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"meta/llama-3-8b": {
"description": "Modello open source da 8 miliardi di parametri finemente ottimizzato da Meta per l'aderenza alle istruzioni. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avanzato, supporta la generazione di dati sintetici, la distillazione della conoscenza e il ragionamento, adatto per chatbot, programmazione e compiti specifici."
},
"meta/llama-3.1-70b": {
"description": "Versione aggiornata di Meta Llama 3 70B Instruct, con lunghezza di contesto estesa a 128K, supporto multilingue e capacità di ragionamento migliorate."
},
"meta/llama-3.1-70b-instruct": {
"description": "Abilita conversazioni complesse, con eccellenti capacità di comprensione del contesto, ragionamento e generazione di testo."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B supporta una finestra di contesto di 128K, ideale per interfacce di dialogo in tempo reale e analisi dati, offrendo risparmi significativi sui costi rispetto a modelli più grandi. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modello all'avanguardia, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-11b": {
"description": "Modello di generazione di ragionamento visivo regolato con istruzioni (input testo + immagine / output testo), ottimizzato per riconoscimento visivo, ragionamento su immagini, generazione di didascalie e risposte a domande generali sulle immagini."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
},
"meta/llama-3.2-1b": {
"description": "Modello solo testo, supporta casi d'uso on-device come recupero di conoscenza locale multilingue, sintesi e riscrittura."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-3b": {
"description": "Modello solo testo, finemente ottimizzato per supportare casi d'uso on-device come recupero di conoscenza locale multilingue, sintesi e riscrittura."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-90b": {
"description": "Modello di generazione di ragionamento visivo regolato con istruzioni (input testo + immagine / output testo), ottimizzato per riconoscimento visivo, ragionamento su immagini, generazione di didascalie e risposte a domande generali sulle immagini."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
},
"meta/llama-3.3-70b": {
"description": "Combinazione perfetta di prestazioni ed efficienza. Il modello supporta AI conversazionale ad alte prestazioni, progettato per creazione di contenuti, applicazioni aziendali e ricerca, offrendo capacità avanzate di comprensione linguistica, inclusi riassunti testuali, classificazione, analisi del sentiment e generazione di codice."
},
"meta/llama-3.3-70b-instruct": {
"description": "LLM avanzato, specializzato in ragionamento, matematica, conoscenze generali e chiamate di funzione."
},
"meta/llama-4-maverick": {
"description": "La collezione di modelli Llama 4 è un AI multimodale nativa che supporta esperienze testuali e multimodali. Questi modelli utilizzano un'architettura a esperti misti per offrire prestazioni leader nel settore nella comprensione di testo e immagini. Llama 4 Maverick, un modello da 17 miliardi di parametri con 128 esperti. Servito da DeepInfra."
},
"meta/llama-4-scout": {
"description": "La collezione di modelli Llama 4 è un AI multimodale nativa che supporta esperienze testuali e multimodali. Questi modelli utilizzano un'architettura a esperti misti per offrire prestazioni leader nel settore nella comprensione di testo e immagini. Llama 4 Scout, un modello da 17 miliardi di parametri con 16 esperti. Servito da DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Stesso modello Phi-3-medium, ma con una dimensione del contesto maggiore, adatto per RAG o pochi prompt."
},
"microsoft/Phi-3-medium-4k-instruct": {
"description": "Un modello da 14 miliardi di parametri, con qualità superiore a Phi-3-mini, focalizzato su dati di alta qualità e intensivi di ragionamento."
},
"microsoft/Phi-3-mini-128k-instruct": {
"description": "Stesso modello Phi-3-mini, ma con una dimensione del contesto maggiore, adatto per RAG o pochi prompt."
},
"microsoft/Phi-3-mini-4k-instruct": {
"description": "Il membro più piccolo della famiglia Phi-3, ottimizzato per qualità e bassa latenza."
},
"microsoft/Phi-3-small-128k-instruct": {
"description": "Stesso modello Phi-3-small, ma con una dimensione del contesto maggiore, adatto per RAG o pochi prompt."
},
"microsoft/Phi-3-small-8k-instruct": {
"description": "Un modello da 7 miliardi di parametri, con qualità superiore a Phi-3-mini, focalizzato su dati di alta qualità e intensivi di ragionamento."
},
"microsoft/Phi-3.5-mini-instruct": {
"description": "Versione aggiornata del modello Phi-3-mini."
},
"microsoft/Phi-3.5-vision-instruct": {
"description": "Versione aggiornata del modello Phi-3-vision."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 è un modello linguistico fornito da Microsoft AI, particolarmente efficace in conversazioni complesse, multilingue, ragionamento e assistenti intelligenti."
},
"microsoft/wizardlm-2-8x22b": {
"description": "WizardLM-2 8x22B è il modello Wizard più avanzato di Microsoft AI, mostrando prestazioni estremamente competitive."
},
"minicpm-v": {
"description": "MiniCPM-V è la nuova generazione di modelli multimodali lanciata da OpenBMB, dotata di eccellenti capacità di riconoscimento OCR e comprensione multimodale, supportando una vasta gamma di scenari applicativi."
},
"minimax-m2": {
"description": "MiniMax M2 è un modello linguistico di grandi dimensioni, efficiente e progettato per flussi di lavoro di codifica e agenti intelligenti."
},
"minimax/minimax-m2": {
"description": "MiniMax-M2 è un modello ad alto rapporto qualità-prezzo con ottime prestazioni in codifica e compiti di agenti, adatto a vari scenari ingegneristici."
},
"minimaxai/minimax-m2": {
"description": "MiniMax-M2 è un modello MoE (Mixture of Experts) compatto, veloce ed economico, con 230 miliardi di parametri totali e 10 miliardi di parametri attivi, progettato per offrire prestazioni eccellenti nei compiti di codifica e agenti, mantenendo una forte intelligenza generale. Si distingue per le sue prestazioni in attività come l'editing di file multipli, il ciclo chiuso codifica-esecuzione-correzione, la verifica e correzione dei test, e le complesse catene di strumenti a collegamento lungo, rendendolo una scelta ideale per i flussi di lavoro degli sviluppatori."
},
"ministral-3b-latest": {
"description": "Ministral 3B è il modello di punta di Mistral per edge computing."
},
"ministral-8b-latest": {
"description": "Ministral 8B è un modello edge ad alto rapporto qualità-prezzo di Mistral."
},
"mistral": {
"description": "Mistral è un modello da 7B lanciato da Mistral AI, adatto per esigenze di elaborazione linguistica variabili."
},
"mistral-ai/Mistral-Large-2411": {
"description": "Il modello di punta di Mistral, ideale per compiti complessi che richiedono capacità di ragionamento su larga scala o alta specializzazione (generazione di testo sintetico, generazione di codice, RAG o agenti)."
},
"mistral-ai/Mistral-Nemo": {
"description": "Mistral Nemo è un modello linguistico all'avanguardia (LLM) che offre capacità di ragionamento, conoscenza del mondo e codifica tra le migliori nella sua categoria di dimensioni."
},
"mistral-ai/mistral-small-2503": {
"description": "Mistral Small è adatto a qualsiasi compito basato sul linguaggio che richieda alta efficienza e bassa latenza."
},
"mistral-large": {
"description": "Mixtral Large è il modello di punta di Mistral, combinando capacità di generazione di codice, matematica e ragionamento, supporta una finestra di contesto di 128k."
},
"mistral-large-instruct": {
"description": "Mistral-Large-Instruct-2407 è un avanzato modello linguistico denso e di grandi dimensioni (LLM), con 123 miliardi di parametri, che dispone delle capacità di inferenza, conoscenza e codifica più avanzate."
},
"mistral-large-latest": {
"description": "Mistral Large è il modello di punta, specializzato in compiti multilingue, ragionamento complesso e generazione di codice, è la scelta ideale per applicazioni di alta gamma."
},
"mistral-medium-latest": {
"description": "Mistral Medium 3 offre prestazioni all'avanguardia a un costo otto volte inferiore, semplificando radicalmente il deployment aziendale."
},
"mistral-nemo": {
"description": "Mistral Nemo è un modello da 12B lanciato in collaborazione tra Mistral AI e NVIDIA, offre prestazioni eccellenti."
},
"mistral-nemo-instruct": {
"description": "Mistral-Nemo-Instruct-2407, un grande modello linguistico (LLM), è una versione finetunata con istruzioni di Mistral-Nemo-Base-2407."
},
"mistral-small": {
"description": "Mistral Small può essere utilizzato in qualsiasi compito basato su linguaggio che richiede alta efficienza e bassa latenza."
},
"mistral-small-latest": {
"description": "Mistral Small è un'opzione economica, veloce e affidabile, adatta per casi d'uso come traduzione, sintesi e analisi del sentiment."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 è un modello di codifica all'avanguardia, ottimizzato per casi d'uso a bassa latenza e alta frequenza. Esperto in oltre 80 linguaggi di programmazione, eccelle in compiti come filling intermedio (FIM), correzione del codice e generazione di test."
},
"mistral/codestral-embed": {
"description": "Modello di embedding di codice che può essere integrato in database e repository di codice per supportare assistenti di codifica."
},
"mistral/devstral-small": {
"description": "Devstral è un grande modello linguistico agente per compiti di ingegneria del software, rendendolo una scelta eccellente per agenti di ingegneria del software."
},
"mistral/magistral-medium": {
"description": "Pensiero complesso supportato da una profonda comprensione, con ragionamento trasparente che puoi seguire e verificare. Il modello mantiene un ragionamento ad alta fedeltà in molte lingue, anche quando cambia lingua a metà compito."
},
"mistral/magistral-small": {
"description": "Pensiero complesso supportato da una profonda comprensione, con ragionamento trasparente che puoi seguire e verificare. Il modello mantiene un ragionamento ad alta fedeltà in molte lingue, anche quando cambia lingua a metà compito."
},
"mistral/ministral-3b": {
"description": "Un modello compatto ed efficiente per compiti on-device come assistenti intelligenti e analisi locali, che offre prestazioni a bassa latenza."
},
"mistral/ministral-8b": {
"description": "Un modello più potente con inferenza più veloce e efficiente in memoria, ideale per flussi di lavoro complessi e applicazioni edge esigenti."
},
"mistral/mistral-embed": {
"description": "Modello di embedding testuale universale per ricerca semantica, similarità, clustering e flussi di lavoro RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large è la scelta ideale per compiti complessi che richiedono grandi capacità di ragionamento o alta specializzazione, come generazione di testo sintetico, generazione di codice, RAG o agenti."
},
"mistral/mistral-small": {
"description": "Mistral Small è la scelta ideale per compiti semplici che possono essere eseguiti in batch, come classificazione, supporto clienti o generazione di testo. Offre ottime prestazioni a un prezzo accessibile."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Modello 8x22b Instruct. 8x22b è un modello open source a esperti misti servito da Mistral."
},
"mistral/pixtral-12b": {
"description": "Un modello da 12 miliardi con capacità di comprensione delle immagini, oltre al testo."
},
"mistral/pixtral-large": {
"description": "Pixtral Large è il secondo modello della nostra famiglia multimodale, che dimostra capacità di comprensione delle immagini all'avanguardia. In particolare, il modello è in grado di comprendere documenti, grafici e immagini naturali, mantenendo le capacità di comprensione testuale leader di Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct è noto per le sue alte prestazioni, adatto per vari compiti linguistici."
},
"mistralai/Mistral-7B-Instruct-v0.2": {
"description": "Mistral 7B è un modello fine-tuned su richiesta, fornendo risposte ottimizzate per i compiti."
},
"mistralai/Mistral-7B-Instruct-v0.3": {
"description": "Mistral (7B) Instruct v0.3 offre capacità computazionali efficienti e comprensione del linguaggio naturale, adatta per una vasta gamma di applicazioni."
},
"mistralai/Mistral-7B-v0.1": {
"description": "Mistral 7B è un modello compatto ma ad alte prestazioni, specializzato nell'elaborazione batch e in compiti semplici come classificazione e generazione di testo, con buone capacità di ragionamento."
},
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
"description": "Mixtral-8x22B Instruct (141B) è un super modello di linguaggio, supportando esigenze di elaborazione estremamente elevate."
},
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
"description": "Mixtral 8x7B è un modello di esperti misti pre-addestrato, utilizzato per compiti testuali generali."
},
"mistralai/Mixtral-8x7B-v0.1": {
"description": "Mixtral 8x7B è un modello di esperti sparsi che utilizza più parametri per migliorare la velocità di ragionamento, adatto a compiti di generazione multilingue e di codice."
},
"mistralai/mistral-nemo": {
"description": "Mistral Nemo è un modello con 7.3B parametri, supporta più lingue e offre prestazioni elevate nella programmazione."
},
"mixtral": {
"description": "Mixtral è il modello di esperti di Mistral AI, con pesi open source, offre supporto per la generazione di codice e la comprensione del linguaggio."
},
"mixtral-8x7b-32768": {
"description": "Mixtral 8x7B offre capacità di calcolo parallelo ad alta tolleranza, adatto per compiti complessi."
},
"mixtral:8x22b": {
"description": "Mixtral è il modello di esperti di Mistral AI, con pesi open source, offre supporto per la generazione di codice e la comprensione del linguaggio."
},
"moonshot-v1-128k": {
"description": "Moonshot V1 128K è un modello con capacità di elaborazione di contesti ultra lunghi, adatto per generare testi molto lunghi, soddisfacendo le esigenze di compiti complessi, in grado di gestire contenuti fino a 128.000 token, particolarmente adatto per applicazioni di ricerca, accademiche e generazione di documenti di grandi dimensioni."
},
"moonshot-v1-128k-vision-preview": {
"description": "Il modello visivo Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, ecc.) è in grado di comprendere il contenuto delle immagini, inclusi testo, colori e forme degli oggetti."
},
"moonshot-v1-32k": {
"description": "Moonshot V1 32K offre capacità di elaborazione di contesti di lunghezza media, in grado di gestire 32.768 token, particolarmente adatto per generare vari documenti lunghi e dialoghi complessi, utilizzato in creazione di contenuti, generazione di report e sistemi di dialogo."
},
"moonshot-v1-32k-vision-preview": {
"description": "Il modello visivo Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, ecc.) è in grado di comprendere il contenuto delle immagini, inclusi testo, colori e forme degli oggetti."
},
"moonshot-v1-8k": {
"description": "Moonshot V1 8K è progettato per generare compiti di testo brevi, con prestazioni di elaborazione efficienti, in grado di gestire 8.192 token, particolarmente adatto per dialoghi brevi, appunti e generazione rapida di contenuti."
},
"moonshot-v1-8k-vision-preview": {
"description": "Il modello visivo Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, ecc.) è in grado di comprendere il contenuto delle immagini, inclusi testo, colori e forme degli oggetti."
},
"moonshot-v1-auto": {
"description": "Moonshot V1 Auto può selezionare il modello appropriato in base al numero di token utilizzati nel contesto attuale."
},
"moonshotai/Kimi-Dev-72B": {
"description": "Kimi-Dev-72B è un modello open source di grandi dimensioni per il codice, ottimizzato tramite apprendimento rinforzato su larga scala, capace di generare patch robuste e pronte per la produzione. Questo modello ha raggiunto un nuovo record del 60,4% su SWE-bench Verified, superando tutti i modelli open source nelle attività di ingegneria del software automatizzata come la correzione di difetti e la revisione del codice."
},
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 è l'ultima e più potente versione di Kimi K2. Si tratta di un modello linguistico di esperti misti (MoE) all'avanguardia, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi. Le caratteristiche principali del modello includono: intelligenza potenziata per la codifica degli agenti, con miglioramenti significativi nelle prestazioni sia nei test di riferimento pubblici sia nelle attività di codifica degli agenti nel mondo reale; esperienza di codifica frontend migliorata, con progressi sia nell'estetica che nella praticità della programmazione frontend."
},
"moonshotai/Kimi-K2-Thinking": {
"description": "Kimi K2 Thinking è il più recente e potente modello open source per il ragionamento. Estende significativamente la profondità del ragionamento multi-step e mantiene un uso stabile degli strumenti anche in 200300 chiamate consecutive. Ha stabilito nuovi standard nei benchmark come Humanity's Last Exam (HLE), BrowseComp e altri. Eccelle in programmazione, matematica, ragionamento logico e scenari agentici. Basato su un'architettura a esperti misti (MoE), ha circa 1 trilione di parametri, supporta una finestra di contesto di 256K token e l'utilizzo di strumenti."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 è un modello linguistico a esperti misti (MoE) su larga scala sviluppato da Moonshot AI, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi per ogni passaggio in avanti. Ottimizzato per capacità di agente, inclusi uso avanzato di strumenti, ragionamento e sintesi di codice."
},
"moonshotai/kimi-k2-0711": {
"description": "Kimi K2 0711 è la versione Instruct della serie Kimi, adatta a scenari di codifica di alta qualità e utilizzo di strumenti."
},
"moonshotai/kimi-k2-0905": {
"description": "Kimi K2 0905 è l'aggiornamento 0905 della serie Kimi, con contesto esteso e prestazioni di ragionamento migliorate, ottimizzato per la codifica."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
},
"moonshotai/kimi-k2-thinking": {
"description": "Kimi K2 Thinking è il modello ottimizzato da Moonshot per compiti di ragionamento profondo, con capacità generali da agente."
},
"moonshotai/kimi-k2-thinking-turbo": {
"description": "Kimi K2 Thinking Turbo è la versione ad alta velocità di Kimi K2 Thinking, con bassa latenza e mantenimento delle capacità di ragionamento profondo."
},
"morph/morph-v3-fast": {
"description": "Morph offre un modello AI specializzato che applica rapidamente le modifiche al codice suggerite da modelli all'avanguardia come Claude o GPT-4o ai tuoi file di codice esistenti - VELOCE - oltre 4500 token al secondo. Funziona come l'ultimo passo nel flusso di lavoro di codifica AI. Supporta 16k token in input e 16k token in output."
},
"morph/morph-v3-large": {
"description": "Morph offre un modello AI specializzato che applica le modifiche al codice suggerite da modelli all'avanguardia come Claude o GPT-4o ai tuoi file di codice esistenti - VELOCE - oltre 2500 token al secondo. Funziona come l'ultimo passo nel flusso di lavoro di codifica AI. Supporta 16k token in input e 16k token in output."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2, contenente i più recenti dataset sviluppati internamente."
},
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate dai LLM alle domande degli utenti. Questo modello ha ottenuto risultati eccellenti nei benchmark come Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di allineamento automatico fino al 1 ottobre 2024. Il modello è stato addestrato utilizzando RLHF (in particolare REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference come suggerimenti, basandosi sul modello Llama-3.1-70B-Instruct."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Modello linguistico unico, offre prestazioni di accuratezza ed efficienza senza pari."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate da LLM."
},
"o1": {
"description": "Focalizzato su inferenze avanzate e risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro agenti."
},
"o1-mini": {
"description": "Più piccolo e veloce rispetto a o1-preview, con un costo ridotto dell'80%. Ottime prestazioni nella generazione di codice e operazioni su contesti ridotti."
},
"o1-preview": {
"description": "Si concentra sul ragionamento avanzato e sulla risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro autonomi."
},
"o1-pro": {
"description": "La serie di modelli o1 è stata addestrata con apprendimento rinforzato, in grado di riflettere prima di rispondere ed eseguire compiti di ragionamento complessi. Il modello o1-pro utilizza più risorse computazionali per un pensiero più approfondito, offrendo risposte di qualità superiore in modo continuo."
},
"o3": {
"description": "o3 è un modello versatile e potente, che si distingue in vari campi. Stabilisce nuovi standard per compiti di matematica, scienza, programmazione e ragionamento visivo. È anche abile nella scrittura tecnica e nel seguire istruzioni. Gli utenti possono utilizzarlo per analizzare testi, codici e immagini, risolvendo problemi complessi in più passaggi."
},
"o3-2025-04-16": {
"description": "o3 è il nuovo modello di ragionamento di OpenAI, supporta input di testo e immagini e produce testo in output, adatto a compiti complessi che richiedono conoscenze ampie e generali."
},
"o3-deep-research": {
"description": "o3-deep-research è il nostro modello di ricerca approfondita più avanzato, progettato specificamente per gestire compiti di ricerca complessi e articolati. Può cercare e sintetizzare informazioni da Internet, oltre a poter accedere e utilizzare i tuoi dati tramite il connettore MCP."
},
"o3-mini": {
"description": "o3-mini è il nostro ultimo modello di inferenza compatto, che offre un'intelligenza elevata con gli stessi obiettivi di costo e latenza di o1-mini."
},
"o3-pro": {
"description": "Il modello o3-pro utilizza maggiori risorse computazionali per un pensiero più profondo e fornisce sempre risposte migliori, supportato solo tramite l'API Responses."
},
"o3-pro-2025-06-10": {
"description": "o3 Pro è il nuovo modello di ragionamento di OpenAI, supporta input di testo e immagini e produce testo in output, adatto a compiti complessi che richiedono conoscenze ampie e generali."
},
"o4-mini": {
"description": "o4-mini è il nostro ultimo modello della serie o in formato ridotto. È ottimizzato per un'inferenza rapida ed efficace, mostrando un'elevata efficienza e prestazioni in compiti di codifica e visivi."
},
"o4-mini-2025-04-16": {
"description": "o4-mini è un modello di ragionamento di OpenAI, supporta input di testo e immagini e produce testo in output, adatto a compiti complessi che richiedono conoscenze ampie e generali. Questo modello ha un contesto di 200K token."
},
"o4-mini-deep-research": {
"description": "o4-mini-deep-research è il nostro modello di ricerca approfondita più rapido ed economico, ideale per gestire compiti di ricerca complessi e articolati. Può cercare e sintetizzare informazioni da Internet, oltre a poter accedere e utilizzare i tuoi dati tramite il connettore MCP."
},
"open-codestral-mamba": {
"description": "Codestral Mamba è un modello linguistico Mamba 2 focalizzato sulla generazione di codice, offre un forte supporto per compiti avanzati di codifica e ragionamento."
},
"open-mistral-7b": {
"description": "Mistral 7B è un modello compatto ma ad alte prestazioni, specializzato nell'elaborazione batch e in compiti semplici, come la classificazione e la generazione di testo, con buone capacità di ragionamento."
},
"open-mistral-nemo": {
"description": "Mistral Nemo è un modello da 12B sviluppato in collaborazione con Nvidia, offre prestazioni di ragionamento e codifica eccezionali, facile da integrare e sostituire."
},
"open-mixtral-8x22b": {
"description": "Mixtral 8x22B è un modello di esperti più grande, focalizzato su compiti complessi, offre eccellenti capacità di ragionamento e una maggiore capacità di elaborazione."
},
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B è un modello di esperti sparsi, che utilizza più parametri per aumentare la velocità di ragionamento, adatto per gestire compiti di generazione di linguaggio e codice multilingue."
},
"openai/gpt-3.5-turbo": {
"description": "Il modello più capace e conveniente della serie GPT-3.5 di OpenAI, ottimizzato per scopi di chat ma con buone prestazioni anche in compiti di completamento tradizionali."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Capacità simili ai modelli dell'era GPT-3. Compatibile con endpoint di completamento tradizionali, non con endpoint di completamento chat."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo di OpenAI possiede una vasta conoscenza generale e competenze settoriali, permettendogli di seguire istruzioni complesse in linguaggio naturale e risolvere problemi difficili con precisione. La sua conoscenza è aggiornata ad aprile 2023 e ha una finestra di contesto di 128.000 token."
},
"openai/gpt-4.1": {
"description": "La serie GPT-4.1 offre contesto esteso e capacità avanzate di ingegneria e ragionamento."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 Mini offre bassa latenza e ottimo rapporto qualità-prezzo, adatto a contesti medi."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 Nano è l'opzione a bassissimo costo e latenza, ideale per dialoghi brevi ad alta frequenza o classificazione."
},
"openai/gpt-4o": {
"description": "La serie GPT-4o è il modello Omni di OpenAI, supporta input testo + immagine e output testuale."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o-mini è la versione compatta e veloce di GPT-4o, adatta a scenari misti testo-immagine a bassa latenza."
},
"openai/gpt-5": {
"description": "GPT-5 è il modello ad alte prestazioni di OpenAI, adatto a un'ampia gamma di compiti produttivi e di ricerca."
},
"openai/gpt-5-chat": {
"description": "GPT-5 Chat è una variante di GPT-5 ottimizzata per dialoghi, con latenza ridotta per una migliore esperienza interattiva."
},
"openai/gpt-5-codex": {
"description": "GPT-5-Codex è una variante di GPT-5 ulteriormente ottimizzata per scenari di codifica, adatta a flussi di lavoro su larga scala."
},
"openai/gpt-5-mini": {
"description": "GPT-5 Mini è la versione compatta della famiglia GPT-5, adatta a scenari a bassa latenza e basso costo."
},
"openai/gpt-5-nano": {
"description": "GPT-5 Nano è la versione ultra-compatta della famiglia, ideale per scenari con requisiti estremi su costi e latenza."
},
"openai/gpt-5-pro": {
"description": "GPT-5 Pro è il modello di punta di OpenAI, con capacità avanzate di ragionamento, generazione di codice e funzionalità aziendali, supporta routing in fase di test e politiche di sicurezza rigorose."
},
"openai/gpt-5.1": {
"description": "GPT-5.1 è l'ultimo modello di punta della serie GPT-5, con miglioramenti significativi in ragionamento generale, esecuzione di istruzioni e naturalezza del dialogo, adatto a una vasta gamma di compiti."
},
"openai/gpt-5.1-chat": {
"description": "GPT-5.1 Chat è il membro leggero della famiglia GPT-5.1, ottimizzato per dialoghi a bassa latenza, mantenendo buone capacità di ragionamento ed esecuzione di istruzioni."
},
"openai/gpt-5.1-codex": {
"description": "GPT-5.1-Codex è una variante di GPT-5.1 ottimizzata per ingegneria del software e flussi di lavoro di codifica, adatta a refactoring su larga scala, debug complesso e codifica autonoma prolungata."
},
"openai/gpt-5.1-codex-mini": {
"description": "GPT-5.1-Codex-Mini è la versione compatta e accelerata di GPT-5.1-Codex, ideale per scenari di codifica sensibili a latenza e costi."
},
"openai/gpt-oss-120b": {
"description": "Modello linguistico grande universale estremamente capace, con potenti capacità di ragionamento controllabile."
},
"openai/gpt-oss-20b": {
"description": "Modello linguistico compatto con pesi open source, ottimizzato per bassa latenza e ambienti con risorse limitate, inclusi deployment locali e edge."
},
"openai/o1": {
"description": "o1 di OpenAI è un modello di ragionamento di punta, progettato per problemi complessi che richiedono pensiero profondo. Offre potenti capacità di ragionamento e maggiore accuratezza per compiti complessi a più passaggi."
},
"openai/o1-mini": {
"description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
},
"openai/o1-preview": {
"description": "o1 è il nuovo modello di inferenza di OpenAI, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
},
"openai/o3": {
"description": "o3 di OpenAI è il modello di ragionamento più potente, stabilendo nuovi standard in codifica, matematica, scienza e percezione visiva. Eccelle in query complesse che richiedono analisi multidisciplinari, con vantaggi speciali nell'analisi di immagini, grafici e diagrammi."
},
"openai/o3-mini": {
"description": "o3-mini è l'ultimo modello di ragionamento piccolo di OpenAI, che offre alta intelligenza con gli stessi obiettivi di costo e latenza di o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini alta versione di ragionamento, offre alta intelligenza mantenendo gli stessi obiettivi di costo e latenza di o1-mini."
},
"openai/o4-mini": {
"description": "OpenAI o4-mini è un modello di ragionamento compatto ed efficiente, adatto a scenari a bassa latenza."
},
"openai/o4-mini-high": {
"description": "Versione ad alta capacità di inferenza di o4-mini, ottimizzata per un'inferenza rapida ed efficace, mostrando un'elevata efficienza e prestazioni in compiti di codifica e visivi."
},
"openai/text-embedding-3-large": {
"description": "Il modello di embedding più capace di OpenAI, adatto a compiti in inglese e non inglese."
},
"openai/text-embedding-3-small": {
"description": "Versione migliorata e più performante del modello di embedding ada di OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Modello tradizionale di embedding testuale di OpenAI."
},
"openrouter/auto": {
"description": "In base alla lunghezza del contesto, al tema e alla complessità, la tua richiesta verrà inviata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-regolato) o GPT-4o."
},
"perplexity/sonar": {
"description": "Prodotto leggero di Perplexity con capacità di ricerca integrata, più veloce e meno costoso di Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Prodotto di punta di Perplexity con capacità di ricerca integrata, supporta query avanzate e operazioni successive."
},
"perplexity/sonar-reasoning": {
"description": "Modello focalizzato sul ragionamento che produce catene di pensiero (CoT) nelle risposte, offrendo spiegazioni dettagliate con ricerca integrata."
},
"perplexity/sonar-reasoning-pro": {
"description": "Modello avanzato focalizzato sul ragionamento che produce catene di pensiero (CoT) nelle risposte, offrendo spiegazioni complete con capacità di ricerca potenziata e molteplici query di ricerca per richiesta."
},
"phi3": {
"description": "Phi-3 è un modello open source leggero lanciato da Microsoft, adatto per integrazioni efficienti e ragionamento su larga scala."
},
"phi3:14b": {
"description": "Phi-3 è un modello open source leggero lanciato da Microsoft, adatto per integrazioni efficienti e ragionamento su larga scala."
},
"pixtral-12b-2409": {
"description": "Il modello Pixtral dimostra potenti capacità in compiti di comprensione di grafici e immagini, domande e risposte su documenti, ragionamento multimodale e rispetto delle istruzioni, in grado di elaborare immagini a risoluzione naturale e proporzioni, e di gestire un numero arbitrario di immagini in una finestra di contesto lunga fino a 128K token."
},
"pixtral-large-latest": {
"description": "Pixtral Large è un modello multimodale open source con 124 miliardi di parametri, costruito su Mistral Large 2. Questo è il nostro secondo modello nella famiglia multimodale, che mostra capacità di comprensione delle immagini a livello all'avanguardia."
},
"pro-128k": {
"description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse."
},
"pro-deepseek-r1": {
"description": "Modello dedicato ai servizi aziendali, con supporto per servizi concorrenti."
},
"pro-deepseek-v3": {
"description": "Modello dedicato ai servizi aziendali, con supporto per servizi concorrenti."
},
"qianfan-70b": {
"description": "Qianfan 70B, un modello cinese di grandi dimensioni, adatto alla generazione di contenuti di alta qualità e a compiti di ragionamento complesso."
},
"qianfan-8b": {
"description": "Qianfan 8B, un modello generico di medie dimensioni, ideale per la generazione di testi e scenari di domande e risposte con un buon equilibrio tra costi e prestazioni."
},
"qianfan-agent-intent-32k": {
"description": "Qianfan Agent Intent 32K, un modello per il riconoscimento delle intenzioni e l'orchestrazione degli agenti, supporta contesti lunghi."
},
"qianfan-agent-lite-8k": {
"description": "Qianfan Agent Lite 8K, un modello leggero per agenti, adatto a dialoghi multi-turno a basso costo e orchestrazione aziendale."
},
"qianfan-agent-speed-32k": {
"description": "Qianfan Agent Speed 32K, un modello per agenti ad alto controllo di flusso, ideale per applicazioni su larga scala e multi-tasking."
},
"qianfan-agent-speed-8k": {
"description": "Qianfan Agent Speed 8K, un modello per agenti ad alta concorrenza, progettato per dialoghi brevi e risposte rapide."
},
"qianfan-check-vl": {
"description": "Qianfan Check VL, un modello multimodale per la revisione e il rilevamento dei contenuti, supporta compiti di conformità e riconoscimento immagine-testo."
},
"qianfan-composition": {
"description": "Qianfan Composition, un modello multimodale per la creazione di contenuti, supporta la comprensione e generazione integrata di testo e immagini."
},
"qianfan-engcard-vl": {
"description": "Qianfan EngCard VL, un modello multimodale focalizzato su scenari in lingua inglese."
},
"qianfan-lightning-128b-a19b": {
"description": "Qianfan Lightning 128B A19B, un modello cinese ad alte prestazioni, adatto a domande complesse e compiti di ragionamento su larga scala."
},
"qianfan-llama-vl-8b": {
"description": "Qianfan Llama VL 8B, un modello multimodale basato su Llama, progettato per compiti generici di comprensione immagine-testo."
},
"qianfan-multipicocr": {
"description": "Qianfan MultiPicOCR, un modello OCR per immagini multiple, supporta il rilevamento e riconoscimento del testo su più immagini."
},
"qianfan-qi-vl": {
"description": "Qianfan QI VL, un modello multimodale per domande e risposte, ottimizzato per il recupero e la risposta precisa in scenari immagine-testo complessi."
},
"qianfan-singlepicocr": {
"description": "Qianfan SinglePicOCR, un modello OCR per singola immagine, supporta il riconoscimento di caratteri ad alta precisione."
},
"qianfan-vl-70b": {
"description": "Qianfan VL 70B, un modello visivo-linguistico di grandi dimensioni, adatto a scenari complessi di comprensione immagine-testo."
},
"qianfan-vl-8b": {
"description": "Qianfan VL 8B, un modello visivo-linguistico leggero, ideale per domande e risposte quotidiane su contenuti visivi e analisi."
},
"qvq-72b-preview": {
"description": "Il modello QVQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul miglioramento delle capacità di ragionamento visivo, in particolare nel campo del ragionamento matematico."
},
"qvq-max": {
"description": "Modello di ragionamento visivo QVQ di Tongyi Qianwen, supporta input visivi e output di catene di pensieri, mostrando capacità superiori in matematica, programmazione, analisi visiva, creazione e compiti generali."
},
"qvq-plus": {
"description": "Modello di ragionamento visivo. Supporta input visivi e output a catena di pensiero. Versione plus lanciata dopo il modello qvq-max, con velocità di ragionamento più elevata e un equilibrio migliore tra prestazioni ed efficienza rispetto a qvq-max."
},
"qwen-3-32b": {
"description": "Qwen 3 32B: eccellente nelle attività multilingue e di codifica, adatto per applicazioni produttive di media scala."
},
"qwen-coder-plus": {
"description": "Modello di codice Tongyi Qianwen."
},
"qwen-coder-turbo": {
"description": "Modello di codice Tongyi Qianwen."
},
"qwen-coder-turbo-latest": {
"description": "Modello di codice Tongyi Qwen."
},
"qwen-flash": {
"description": "I modelli della serie 通义千问 sono i più veloci e a costi estremamente ridotti, adatti a compiti semplici."
},
"qwen-image": {
"description": "Qwen-Image è un modello universale per la generazione di immagini che supporta molteplici stili artistici ed è particolarmente efficace nel rendering di testi complessi, in particolare nella resa di testi in cinese e in inglese. Il modello supporta layout a più righe, generazione di testo a livello di paragrafo e rappresentazione di dettagli ad alta precisione, permettendo la realizzazione di layout misti e design complessi che integrano testo e immagini."
},
"qwen-image-edit": {
"description": "Qwen Image Edit è un modello di generazione di immagini che supporta la modifica e l'editing delle immagini basati su input di immagini e suggerimenti testuali, in grado di effettuare regolazioni precise e trasformazioni creative dell'immagine originale secondo le esigenze dell'utente."
},
"qwen-long": {
"description": "Qwen è un modello di linguaggio su larga scala che supporta contesti di testo lunghi e funzionalità di dialogo basate su documenti lunghi e multipli."
},
"qwen-math-plus": {
"description": "Modello matematico Tongyi Qianwen specializzato nella risoluzione di problemi matematici."
},
"qwen-math-plus-latest": {
"description": "Il modello matematico Tongyi Qwen è progettato specificamente per la risoluzione di problemi matematici."
},
"qwen-math-turbo": {
"description": "Modello matematico Tongyi Qianwen specializzato nella risoluzione di problemi matematici."
},
"qwen-math-turbo-latest": {
"description": "Il modello matematico Tongyi Qwen è progettato specificamente per la risoluzione di problemi matematici."
},
"qwen-max": {
"description": "Qwen Max è un modello linguistico di grandi dimensioni con trilioni di parametri, supporta input in diverse lingue, tra cui cinese e inglese e attualmente è il modello API dietro la versione 2.5 di Qwen."
},
"qwen-omni-turbo": {
"description": "La serie di modelli Qwen-Omni supporta input multimodali, inclusi video, audio, immagini e testo, e produce output audio e testuale."
},
"qwen-plus": {
"description": "Qwen Plus è una versione potenziata del modello linguistico di grandi dimensioni, che supporta input in diverse lingue, tra cui cinese e inglese."
},
"qwen-turbo": {
"description": "La versione 通义千问 Turbo non sarà più aggiornata; si consiglia di passare a 通义千问 Flash. 通义千问 è un modello linguistico di grandissime dimensioni che supporta l'immissione di testi in cinese, inglese e altre lingue."
},
"qwen-vl-chat-v1": {
"description": "Qwen VL supporta modalità di interazione flessibili, inclusi modelli di domande e risposte multipli e creativi."
},
"qwen-vl-max": {
"description": "Modello multimodale di grandissima scala Tongyi Qianwen. Rispetto alla versione potenziata, migliora ulteriormente le capacità di ragionamento visivo e laderenza alle istruzioni, offrendo un livello superiore di percezione e cognizione visiva."
},
"qwen-vl-max-latest": {
"description": "Modello di linguaggio visivo Qwen di grande scala. Rispetto alla versione potenziata, migliora ulteriormente la capacità di ragionamento visivo e di aderenza alle istruzioni, offrendo un livello superiore di percezione visiva e cognizione."
},
"qwen-vl-ocr": {
"description": "Tongyi Qianwen OCR è un modello specializzato nellestrazione di testo, focalizzato su immagini di documenti, tabelle, esercizi e scrittura a mano. Riconosce molteplici lingue, tra cui cinese, inglese, francese, giapponese, coreano, tedesco, russo, italiano, vietnamita e arabo."
},
"qwen-vl-plus": {
"description": "Versione potenziata del modello multimodale di grande scala Tongyi Qianwen. Migliora notevolmente la capacità di riconoscimento dei dettagli e del testo, supportando immagini con risoluzione superiore a un milione di pixel e proporzioni di dimensioni arbitrarie."
},
"qwen-vl-plus-latest": {
"description": "Versione potenziata del modello di linguaggio visivo Qwen. Migliora notevolmente la capacità di riconoscimento dei dettagli e di riconoscimento del testo, supportando risoluzioni superiori a un milione di pixel e immagini di qualsiasi rapporto di aspetto."
},
"qwen-vl-v1": {
"description": "Inizializzato con il modello di linguaggio Qwen-7B, aggiunge un modello di immagine, con una risoluzione di input dell'immagine di 448."
},
"qwen/qwen-2-7b-instruct": {
"description": "Qwen2 è la nuova serie di modelli di linguaggio Qwen. Qwen2 7B è un modello basato su transformer, che mostra prestazioni eccezionali nella comprensione del linguaggio, nelle capacità multilingue, nella programmazione, nella matematica e nel ragionamento."
},
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 è una nuova serie di modelli di linguaggio di grandi dimensioni, con capacità di comprensione e generazione più forti."
},
"qwen/qwen-2-vl-72b-instruct": {
"description": "Qwen2-VL è l'ultima iterazione del modello Qwen-VL, raggiungendo prestazioni all'avanguardia nei benchmark di comprensione visiva, inclusi MathVista, DocVQA, RealWorldQA e MTVQA. Qwen2-VL è in grado di comprendere video di oltre 20 minuti, per domande e risposte, dialoghi e creazione di contenuti di alta qualità basati su video. Ha anche capacità di ragionamento e decisione complesse, che possono essere integrate con dispositivi mobili, robot e altro, per operazioni automatiche basate su ambienti visivi e istruzioni testuali. Oltre all'inglese e al cinese, Qwen2-VL ora supporta anche la comprensione di testi in diverse lingue all'interno delle immagini, comprese la maggior parte delle lingue europee, giapponese, coreano, arabo e vietnamita."
},
"qwen/qwen-2.5-72b-instruct": {
"description": "Qwen2.5-72B-Instruct è uno dei più recenti modelli di linguaggio rilasciati da Alibaba Cloud. Questo modello da 72B ha capacità notevolmente migliorate in campi come la codifica e la matematica. Il modello offre anche supporto multilingue, coprendo oltre 29 lingue, tra cui cinese e inglese. Ha mostrato miglioramenti significativi nel seguire istruzioni, comprendere dati strutturati e generare output strutturati (in particolare JSON)."
},
"qwen/qwen2.5-32b-instruct": {
"description": "Qwen2.5-32B-Instruct è uno dei più recenti modelli di linguaggio rilasciati da Alibaba Cloud. Questo modello da 32B ha capacità notevolmente migliorate in campi come la codifica e la matematica. Il modello offre anche supporto multilingue, coprendo oltre 29 lingue, tra cui cinese e inglese. Ha mostrato miglioramenti significativi nel seguire istruzioni, comprendere dati strutturati e generare output strutturati (in particolare JSON)."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM orientato al cinese e all'inglese, focalizzato su linguaggio, programmazione, matematica, ragionamento e altro."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "LLM avanzato, supporta la generazione di codice, il ragionamento e la correzione, coprendo i linguaggi di programmazione più diffusi."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Potente modello di codice di medie dimensioni, supporta una lunghezza di contesto di 32K, specializzato in programmazione multilingue."
},
"qwen/qwen3-14b": {
"description": "Qwen3-14B è la versione da 14B della serie Qwen, adatta a scenari di ragionamento e dialogo standard."
},
"qwen/qwen3-14b:free": {
"description": "Qwen3-14B è un modello linguistico causale denso con 14,8 miliardi di parametri della serie Qwen3, progettato per ragionamenti complessi e dialoghi efficienti. Supporta un passaggio senza soluzione di continuità tra modalità di 'pensiero' per compiti di matematica, programmazione e ragionamento logico e modalità 'non di pensiero' per dialoghi generali. Questo modello è stato ottimizzato per seguire istruzioni, utilizzo di strumenti per agenti, scrittura creativa e compiti multilingue in oltre 100 lingue e dialetti. Gestisce nativamente un contesto di 32K token e può essere esteso a 131K token utilizzando estensioni basate su YaRN."
},
"qwen/qwen3-235b-a22b": {
"description": "Qwen3-235B-A22B è un modello esperto a miscelazione (MoE) con 235 miliardi di parametri sviluppato da Qwen, attivando 22 miliardi di parametri ad ogni passaggio in avanti. Supporta un passaggio senza soluzione di continuità tra modalità di 'pensiero' per ragionamenti complessi, matematica e compiti di codifica e modalità 'non di pensiero' per dialoghi generali. Questo modello dimostra forti capacità di ragionamento, supporto multilingue (in oltre 100 lingue e dialetti), avanzate capacità di seguire istruzioni e chiamate a strumenti per agenti. Gestisce nativamente una finestra di contesto di 32K token e può essere esteso a 131K token utilizzando estensioni basate su YaRN."
},
"qwen/qwen3-235b-a22b-2507": {
"description": "Qwen3-235B-A22B-Instruct-2507 è la versione Instruct della serie Qwen3, bilancia istruzioni multilingue e contesto lungo."
},
"qwen/qwen3-235b-a22b-thinking-2507": {
"description": "Qwen3-235B-A22B-Thinking-2507 è la variante Thinking di Qwen3, potenziata per compiti complessi di matematica e ragionamento."
},
"qwen/qwen3-235b-a22b:free": {
"description": "Qwen3-235B-A22B è un modello esperto a miscelazione (MoE) con 235 miliardi di parametri sviluppato da Qwen, attivando 22 miliardi di parametri ad ogni passaggio in avanti. Supporta un passaggio senza soluzione di continuità tra modalità di 'pensiero' per ragionamenti complessi, matematica e compiti di codifica e modalità 'non di pensiero' per dialoghi generali. Questo modello dimostra forti capacità di ragionamento, supporto multilingue (in oltre 100 lingue e dialetti), avanzate capacità di seguire istruzioni e chiamate a strumenti per agenti. Gestisce nativamente una finestra di contesto di 32K token e può essere esteso a 131K token utilizzando estensioni basate su YaRN."
},
"qwen/qwen3-30b-a3b": {
"description": "Qwen3 è l'ultima generazione della serie di modelli linguistici Qwen, con un'architettura a miscelazione esperta (MoE) densa, che eccelle in inferenza, supporto multilingue e compiti avanzati. La sua capacità unica di passare senza soluzione di continuità tra modalità di pensiero per il ragionamento complesso e modalità non di pensiero per dialoghi efficienti garantisce prestazioni multifunzionali e di alta qualità.\n\nQwen3 supera significativamente i modelli precedenti come QwQ e Qwen2.5, offrendo prestazioni eccezionali in matematica, codifica, ragionamento di buon senso, scrittura creativa e dialoghi interattivi. La variante Qwen3-30B-A3B contiene 30,5 miliardi di parametri (3,3 miliardi di parametri attivati), 48 strati, 128 esperti (8 attivati per compito) e supporta un contesto di fino a 131K token (utilizzando YaRN), stabilendo un nuovo standard per i modelli open source."
},
"qwen/qwen3-30b-a3b:free": {
"description": "Qwen3 è l'ultima generazione della serie di modelli linguistici Qwen, con un'architettura a miscelazione esperta (MoE) densa, che eccelle in inferenza, supporto multilingue e compiti avanzati. La sua capacità unica di passare senza soluzione di continuità tra modalità di pensiero per il ragionamento complesso e modalità non di pensiero per dialoghi efficienti garantisce prestazioni multifunzionali e di alta qualità.\n\nQwen3 supera significativamente i modelli precedenti come QwQ e Qwen2.5, offrendo prestazioni eccezionali in matematica, codifica, ragionamento di buon senso, scrittura creativa e dialoghi interattivi. La variante Qwen3-30B-A3B contiene 30,5 miliardi di parametri (3,3 miliardi di parametri attivati), 48 strati, 128 esperti (8 attivati per compito) e supporta un contesto di fino a 131K token (utilizzando YaRN), stabilendo un nuovo standard per i modelli open source."
},
"qwen/qwen3-32b": {
"description": "Qwen3-32B è un modello linguistico causale denso con 32,8 miliardi di parametri della serie Qwen3, ottimizzato per ragionamenti complessi e dialoghi efficienti. Supporta un passaggio senza soluzione di continuità tra modalità di 'pensiero' per compiti di matematica, codifica e ragionamento logico e modalità 'non di pensiero' per dialoghi più rapidi e generali. Questo modello mostra prestazioni robuste in seguire istruzioni, utilizzo di strumenti per agenti, scrittura creativa e compiti multilingue in oltre 100 lingue e dialetti. Gestisce nativamente un contesto di 32K token e può essere esteso a 131K token utilizzando estensioni basate su YaRN."
},
"qwen/qwen3-32b:free": {
"description": "Qwen3-32B è un modello linguistico causale denso con 32,8 miliardi di parametri della serie Qwen3, ottimizzato per ragionamenti complessi e dialoghi efficienti. Supporta un passaggio senza soluzione di continuità tra modalità di 'pensiero' per compiti di matematica, codifica e ragionamento logico e modalità 'non di pensiero' per dialoghi più rapidi e generali. Questo modello mostra prestazioni robuste in seguire istruzioni, utilizzo di strumenti per agenti, scrittura creativa e compiti multilingue in oltre 100 lingue e dialetti. Gestisce nativamente un contesto di 32K token e può essere esteso a 131K token utilizzando estensioni basate su YaRN."
},
"qwen/qwen3-8b:free": {
"description": "Qwen3-8B è un modello linguistico causale denso con 8,2 miliardi di parametri della serie Qwen3, progettato per compiti intensivi di inferenza e dialoghi efficienti. Supporta un passaggio senza soluzione di continuità tra modalità di 'pensiero' per matematica, codifica e ragionamento logico e modalità 'non di pensiero' per dialoghi generali. Questo modello è stato ottimizzato per seguire istruzioni, integrazione di agenti, scrittura creativa e utilizzo multilingue in oltre 100 lingue e dialetti. Supporta nativamente una finestra di contesto di 32K token e può essere esteso a 131K token tramite YaRN."
},
"qwen/qwen3-coder": {
"description": "Qwen3-Coder è la famiglia di generatori di codice di Qwen3, eccelle nella comprensione e generazione di codice in documenti lunghi."
},
"qwen/qwen3-coder-plus": {
"description": "Qwen3-Coder-Plus è un modello di codifica ottimizzato della serie Qwen, supporta chiamate di strumenti complesse e conversazioni prolungate."
},
"qwen/qwen3-max": {
"description": "Qwen3 Max è il modello di ragionamento avanzato della serie Qwen3, adatto a ragionamento multilingue e integrazione con strumenti."
},
"qwen/qwen3-max-preview": {
"description": "Qwen3 Max (preview) è la versione Max della serie Qwen per ragionamento avanzato e integrazione con strumenti (anteprima)."
},
"qwen/qwen3-vl-plus": {
"description": "Qwen3 VL-Plus è la versione con capacità visive avanzate della serie Qwen3, migliora il ragionamento multimodale e l'elaborazione video."
},
"qwen2": {
"description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
},
"qwen2.5": {
"description": "Qwen2.5 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta esigenze applicative diversificate con prestazioni eccellenti."
},
"qwen2.5-14b-instruct": {
"description": "Modello da 14B di Tongyi Qwen 2.5, open source."
},
"qwen2.5-14b-instruct-1m": {
"description": "Il modello da 72B di Qwen2.5 è open source."
},
"qwen2.5-32b-instruct": {
"description": "Modello da 32B di Tongyi Qwen 2.5, open source."
},
"qwen2.5-72b-instruct": {
"description": "Modello da 72B di Tongyi Qwen 2.5, open source."
},
"qwen2.5-7b-instruct": {
"description": "Qwen2.5 7B Instruct, un modello open source maturo per istruzioni, adatto a dialoghi e generazione in vari scenari."
},
"qwen2.5-coder-1.5b-instruct": {
"description": "Versione open-source del modello di codice Qwen."
},
"qwen2.5-coder-14b-instruct": {
"description": "Versione open source del modello di codice Tongyi Qianwen."
},
"qwen2.5-coder-32b-instruct": {
"description": "Versione open source del modello di codice Qwen di Tongyi."
},
"qwen2.5-coder-7b-instruct": {
"description": "Versione open source del modello di codice Tongyi Qwen."
},
"qwen2.5-coder-instruct": {
"description": "Qwen2.5-Coder è il modello linguistico di grandi dimensioni più recente della serie Qwen, dedicato specificamente al codice (precedentemente noto come CodeQwen)."
},
"qwen2.5-instruct": {
"description": "Qwen2.5 è la serie più recente del modello linguistico Qwen. Per Qwen2.5, abbiamo rilasciato diversi modelli linguistici di base e modelli linguistici finetunati con istruzioni, con un intervallo di parametri da 500 milioni a 7,2 miliardi."
},
"qwen2.5-math-1.5b-instruct": {
"description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
},
"qwen2.5-math-72b-instruct": {
"description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
},
"qwen2.5-math-7b-instruct": {
"description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
},
"qwen2.5-omni-7b": {
"description": "La serie di modelli Qwen-Omni supporta l'input di dati multimodali, inclusi video, audio, immagini e testo, e produce output audio e testo."
},
"qwen2.5-vl-32b-instruct": {
"description": "Qwen2.5 VL 32B Instruct, un modello open source multimodale, adatto a implementazioni private e applicazioni versatili."
},
"qwen2.5-vl-72b-instruct": {
"description": "Miglioramento complessivo nella seguire istruzioni, matematica, risoluzione di problemi e codice, con capacità di riconoscimento universale migliorate, supporto per formati diversi per il posizionamento preciso degli elementi visivi, comprensione di file video lunghi (fino a 10 minuti) e localizzazione di eventi in tempo reale, capacità di comprendere sequenze temporali e velocità, supporto per il controllo di agenti OS o Mobile basato su capacità di analisi e localizzazione, forte capacità di estrazione di informazioni chiave e output in formato Json, questa versione è la 72B, la versione più potente della serie."
},
"qwen2.5-vl-7b-instruct": {
"description": "Qwen2.5 VL 7B Instruct, un modello multimodale leggero, bilancia costi di implementazione e capacità di riconoscimento."
},
"qwen2.5-vl-instruct": {
"description": "Qwen2.5-VL è la versione più recente del modello visivo-linguistico della famiglia Qwen."
},
"qwen2.5:0.5b": {
"description": "Qwen2.5 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta esigenze applicative diversificate con prestazioni eccellenti."
},
"qwen2.5:1.5b": {
"description": "Qwen2.5 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta esigenze applicative diversificate con prestazioni eccellenti."
},
"qwen2.5:72b": {
"description": "Qwen2.5 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta esigenze applicative diversificate con prestazioni eccellenti."
},
"qwen2:0.5b": {
"description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
},
"qwen2:1.5b": {
"description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
},
"qwen2:72b": {
"description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
},
"qwen3": {
"description": "Qwen3 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta una varietà di esigenze applicative con prestazioni eccellenti."
},
"qwen3-0.6b": {
"description": "Qwen3 0.6B, un modello entry-level, adatto a ragionamenti semplici e ambienti con risorse estremamente limitate."
},
"qwen3-1.7b": {
"description": "Qwen3 1.7B, un modello ultra-leggero, facile da implementare su dispositivi edge e terminali."
},
"qwen3-14b": {
"description": "Qwen3 14B, un modello di medie dimensioni, adatto a generazione di testi e domande e risposte in più lingue."
},
"qwen3-235b-a22b": {
"description": "Qwen3 235B A22B, un modello generico di grandi dimensioni, progettato per una varietà di compiti complessi."
},
"qwen3-235b-a22b-instruct-2507": {
"description": "Qwen3 235B A22B Instruct 2507, modello Instruct di punta, adatto a compiti di generazione e ragionamento avanzati."
},
"qwen3-235b-a22b-thinking-2507": {
"description": "Qwen3 235B A22B Thinking 2507, un modello di pensiero su scala ultra-grande, ideale per ragionamenti complessi."
},
"qwen3-30b-a3b": {
"description": "Qwen3 30B A3B, un modello generico di medie-grandi dimensioni, bilancia costi e prestazioni."
},
"qwen3-30b-a3b-instruct-2507": {
"description": "Qwen3 30B A3B Instruct 2507, un modello Instruct di medie-grandi dimensioni, adatto a generazione e domande di alta qualità."
},
"qwen3-30b-a3b-thinking-2507": {
"description": "Qwen3 30B A3B Thinking 2507, un modello di pensiero di medie-grandi dimensioni, bilancia precisione e costi."
},
"qwen3-32b": {
"description": "Qwen3 32B, adatto a compiti generici che richiedono una maggiore capacità di comprensione."
},
"qwen3-4b": {
"description": "Qwen3 4B, adatto ad applicazioni di piccole e medie dimensioni e scenari di inferenza locale."
},
"qwen3-8b": {
"description": "Qwen3 8B, un modello leggero e flessibile, ideale per applicazioni ad alta concorrenza."
},
"qwen3-coder-30b-a3b-instruct": {
"description": "Versione open source del modello di codifica Tongyi Qianwen. Il nuovo qwen3-coder-30b-a3b-instruct, basato su Qwen3, è un modello di generazione di codice con potenti capacità da Coding Agent, eccellente nell'uso di strumenti e interazione con ambienti, in grado di programmare autonomamente con elevate competenze generali."
},
"qwen3-coder-480b-a35b-instruct": {
"description": "Qwen3 Coder 480B A35B Instruct, un modello di codice di livello flagship, supporta programmazione multilingue e comprensione di codice complesso."
},
"qwen3-coder-flash": {
"description": "Modello di codice Tongyi Qianwen. L'ultima serie di modelli Qwen3-Coder si basa su Qwen3 per la generazione di codice, con potenti capacità di Coding Agent, eccellente nell'invocazione di strumenti e interazione con l'ambiente, in grado di programmare autonomamente, con capacità di codice eccezionali e abilità generali."
},
"qwen3-coder-plus": {
"description": "Modello di codice Tongyi Qianwen. L'ultima serie di modelli Qwen3-Coder si basa su Qwen3 per la generazione di codice, con potenti capacità di Coding Agent, eccellente nell'invocazione di strumenti e interazione con l'ambiente, in grado di programmare autonomamente, con capacità di codice eccezionali e abilità generali."
},
"qwen3-coder:480b": {
"description": "Modello ad alte prestazioni di Alibaba per compiti di agenti e codifica con contesti lunghi."
},
"qwen3-max": {
"description": "La serie Max di Tongyi Qianwen 3 rappresenta un significativo miglioramento rispetto alla serie 2.5 in termini di capacità generali. Le capacità di comprensione del testo in cinese e inglese, l'aderenza a istruzioni complesse, la gestione di compiti soggettivi aperti, le capacità multilingue e l'invocazione di strumenti sono tutte notevolmente potenziate; il modello presenta meno allucinazioni di conoscenza. L'ultima versione qwen3-max ha effettuato aggiornamenti specifici in programmazione intelligente e invocazione di strumenti rispetto alla versione preview. Il modello ufficiale rilasciato raggiunge livelli SOTA nel settore, adattandosi a scenari più complessi per agenti intelligenti."
},
"qwen3-max-preview": {
"description": "Il modello più avanzato della serie Tongyi Qianwen, adatto a compiti complessi e multi-step. La versione di anteprima supporta già il ragionamento."
},
"qwen3-next-80b-a3b-instruct": {
"description": "Modello open source di nuova generazione basato su Qwen3 in modalità non riflessiva, con una migliore comprensione del testo in cinese rispetto alla versione precedente (Tongyi Qianwen 3-235B-A22B-Instruct-2507), capacità di ragionamento logico potenziate e prestazioni superiori nelle attività di generazione di testo."
},
"qwen3-next-80b-a3b-thinking": {
"description": "Qwen3 Next 80B A3B Thinking, versione di punta per il ragionamento, progettata per compiti complessi."
},
"qwen3-omni-flash": {
"description": "Il modello Qwen-Omni accetta input multimodali combinati come testo, immagini, audio e video, generando risposte in forma testuale o vocale. Offre voci sintetiche realistiche, supporta più lingue e dialetti, ed è adatto a scenari come creazione di contenuti, riconoscimento visivo e assistenti vocali."
},
"qwen3-vl-235b-a22b-instruct": {
"description": "Qwen3 VL 235B A22B Instruct, modello multimodale di punta, progettato per scenari di comprensione e creazione ad alta richiesta."
},
"qwen3-vl-235b-a22b-thinking": {
"description": "Qwen3 VL 235B A22B Thinking, versione di pensiero di punta, per compiti complessi di ragionamento e pianificazione multimodale."
},
"qwen3-vl-30b-a3b-instruct": {
"description": "Qwen3 VL 30B A3B Instruct, un grande modello multimodale, bilancia precisione e capacità di ragionamento."
},
"qwen3-vl-30b-a3b-thinking": {
"description": "Qwen3 VL 30B A3B Thinking, versione di pensiero per compiti multimodali complessi."
},
"qwen3-vl-32b-instruct": {
"description": "Qwen3 VL 32B Instruct, un modello multimodale ottimizzato con istruzioni, adatto a domande e creazioni immagine-testo di alta qualità."
},
"qwen3-vl-32b-thinking": {
"description": "Qwen3 VL 32B Thinking, versione di pensiero multimodale, potenzia il ragionamento complesso e l'analisi a catena lunga."
},
"qwen3-vl-8b-instruct": {
"description": "Qwen3 VL 8B Instruct, un modello multimodale leggero, adatto a domande visive quotidiane e integrazione applicativa."
},
"qwen3-vl-8b-thinking": {
"description": "Qwen3 VL 8B Thinking, un modello di catena di pensiero multimodale, adatto a ragionamenti dettagliati su informazioni visive."
},
"qwen3-vl-flash": {
"description": "Qwen3 VL Flash: versione leggera e ad alta velocità di ragionamento, ideale per scenari sensibili alla latenza o con richieste su larga scala."
},
"qwen3-vl-plus": {
"description": "Tongyi Qianwen VL è un modello di generazione testuale con capacità di comprensione visiva (immagini). Non solo può eseguire OCR (riconoscimento del testo nelle immagini), ma anche riassumere e ragionare ulteriormente, ad esempio estraendo attributi da foto di prodotti o risolvendo problemi basati su immagini di esercizi."
},
"qwq": {
"description": "QwQ è un modello di ricerca sperimentale, focalizzato sul miglioramento delle capacità di ragionamento dell'IA."
},
"qwq-32b": {
"description": "Il modello di inferenza QwQ, addestrato sul modello Qwen2.5-32B, ha notevolmente migliorato le capacità di inferenza del modello attraverso l'apprendimento rinforzato. I principali indicatori core (AIME 24/25, LiveCodeBench) e alcuni indicatori generali (IFEval, LiveBench, ecc.) raggiungono il livello della versione completa di DeepSeek-R1, con tutti gli indicatori che superano significativamente il DeepSeek-R1-Distill-Qwen-32B, anch'esso basato su Qwen2.5-32B."
},
"qwq-32b-preview": {
"description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
},
"qwq-plus": {
"description": "Modello di ragionamento QwQ basato su Qwen2.5, che ha migliorato significativamente le capacità di ragionamento tramite apprendimento rinforzato. Gli indicatori chiave in matematica e codice (AIME 24/25, LiveCodeBench) e alcuni indicatori generali (IFEval, LiveBench, ecc.) raggiungono il livello completo di DeepSeek-R1."
},
"qwq_32b": {
"description": "Modello di inferenza di dimensioni medie della serie Qwen. Rispetto ai modelli tradizionali ottimizzati per le istruzioni, QwQ, con le sue capacità di pensiero e ragionamento, può migliorare significativamente le prestazioni nei compiti downstream, specialmente nella risoluzione di problemi difficili."
},
"r1-1776": {
"description": "R1-1776 è una versione del modello DeepSeek R1, addestrata successivamente per fornire informazioni fattuali non verificate e prive di pregiudizi."
},
"solar-mini": {
"description": "Solar Mini è un LLM compatto, con prestazioni superiori a GPT-3.5, dotato di potenti capacità multilingue, supporta inglese e coreano, offrendo soluzioni efficienti e compatte."
},
"solar-mini-ja": {
"description": "Solar Mini (Ja) espande le capacità di Solar Mini, concentrandosi sul giapponese, mantenendo al contempo prestazioni elevate ed efficienti nell'uso dell'inglese e del coreano."
},
"solar-pro": {
"description": "Solar Pro è un LLM altamente intelligente lanciato da Upstage, focalizzato sulla capacità di seguire istruzioni su singolo GPU, con un punteggio IFEval superiore a 80. Attualmente supporta l'inglese, con una versione ufficiale prevista per novembre 2024, che espanderà il supporto linguistico e la lunghezza del contesto."
},
"sonar": {
"description": "Prodotto di ricerca leggero basato sul contesto di ricerca, più veloce e più economico rispetto a Sonar Pro."
},
"sonar-deep-research": {
"description": "Deep Research conduce ricerche complete a livello esperto e le sintetizza in rapporti accessibili e utilizzabili."
},
"sonar-pro": {
"description": "Prodotto di ricerca avanzata che supporta il contesto di ricerca, query avanzate e follow-up."
},
"sonar-reasoning": {
"description": "Nuovo prodotto API supportato dal modello di ragionamento DeepSeek."
},
"sonar-reasoning-pro": {
"description": "Nuovo prodotto API supportato dal modello di ragionamento DeepSeek."
},
"spark-x": {
"description": "Caratteristiche di X1.5: (1) Nuova modalità di pensiero dinamico controllabile tramite il campo 'thinking'; (2) Lunghezza del contesto aumentata: 64K in input e output; (3) Supporto per la funzionalità FunctionCall."
},
"stable-diffusion-3-medium": {
"description": "Ultimo modello di generazione immagini da testo lanciato da Stability AI. Questa versione migliora significativamente qualità dell'immagine, comprensione testuale e varietà di stili rispetto alle precedenti, interpretando con maggiore precisione prompt linguistici complessi e generando immagini più accurate e diversificate."
},
"stable-diffusion-3.5-large": {
"description": "stable-diffusion-3.5-large è un modello generativo multimodale a diffusione trasformativa (MMDiT) con 800 milioni di parametri, che offre qualità d'immagine eccellente e alta corrispondenza con i prompt, supportando la generazione di immagini ad alta risoluzione fino a 1 milione di pixel, e funzionando efficientemente su hardware consumer standard."
},
"stable-diffusion-3.5-large-turbo": {
"description": "stable-diffusion-3.5-large-turbo è un modello basato su stable-diffusion-3.5-large che utilizza la tecnologia di distillazione di diffusione antagonista (ADD) per una maggiore velocità."
},
"stable-diffusion-v1.5": {
"description": "stable-diffusion-v1.5 è inizializzato con i pesi del checkpoint stable-diffusion-v1.2 e raffinato per 595k passi a risoluzione 512x512 su \"laion-aesthetics v2 5+\", riducendo del 10% la condizionalità testuale per migliorare il campionamento guidato senza classificatore."
},
"stable-diffusion-xl": {
"description": "stable-diffusion-xl presenta miglioramenti significativi rispetto alla versione v1.5 ed è comparabile agli attuali modelli SOTA open source come Midjourney. Le migliorie includono un backbone unet tre volte più grande, un modulo di raffinamento per migliorare la qualità delle immagini generate e tecniche di addestramento più efficienti."
},
"stable-diffusion-xl-base-1.0": {
"description": "Modello di generazione immagini da testo sviluppato e open source da Stability AI, con capacità creative di alto livello nel settore. Offre eccellente comprensione delle istruzioni e supporta definizioni di prompt inversi per generazioni di contenuti precise."
},
"step-1-128k": {
"description": "Equilibrio tra prestazioni e costi, adatto per scenari generali."
},
"step-1-256k": {
"description": "Capacità di elaborazione di contesto ultra lungo, particolarmente adatto per l'analisi di documenti lunghi."
},
"step-1-32k": {
"description": "Supporta dialoghi di lunghezza media, adatto per vari scenari applicativi."
},
"step-1-8k": {
"description": "Modello di piccole dimensioni, adatto per compiti leggeri."
},
"step-1-flash": {
"description": "Modello ad alta velocità, adatto per dialoghi in tempo reale."
},
"step-1.5v-mini": {
"description": "Questo modello possiede potenti capacità di comprensione video."
},
"step-1o-turbo-vision": {
"description": "Questo modello ha potenti capacità di comprensione delle immagini, superando 1o nei campi matematici e di codifica. Il modello è più piccolo di 1o e offre una velocità di output più rapida."
},
"step-1o-vision-32k": {
"description": "Questo modello possiede una potente capacità di comprensione delle immagini. Rispetto ai modelli della serie step-1v, offre prestazioni visive superiori."
},
"step-1v-32k": {
"description": "Supporta input visivi, migliorando l'esperienza di interazione multimodale."
},
"step-1v-8k": {
"description": "Modello visivo di piccole dimensioni, adatto per compiti di base di testo e immagine."
},
"step-1x-edit": {
"description": "Modello specializzato in compiti di editing immagini, capace di modificare e migliorare immagini basandosi su input di immagini e descrizioni testuali fornite dall'utente. Supporta vari formati di input, inclusi descrizioni testuali e immagini di esempio, comprendendo l'intento dell'utente e generando risultati di editing conformi alle richieste."
},
"step-1x-medium": {
"description": "Modello con potenti capacità di generazione immagini, che supporta input tramite descrizioni testuali. Offre supporto nativo per il cinese, comprendendo e processando meglio descrizioni testuali in cinese, catturando con maggiore precisione il significato semantico e traducendolo in caratteristiche visive per una generazione più accurata. Produce immagini ad alta risoluzione e qualità, con capacità di trasferimento di stile."
},
"step-2-16k": {
"description": "Supporta interazioni di contesto su larga scala, adatto per scenari di dialogo complessi."
},
"step-2-16k-exp": {
"description": "Versione sperimentale del modello step-2, contenente le ultime funzionalità, in aggiornamento continuo. Non raccomandato per l'uso in ambienti di produzione ufficiali."
},
"step-2-mini": {
"description": "Un modello di grandi dimensioni ad alta velocità basato sulla nuova architettura di attenzione auto-sviluppata MFA, in grado di raggiungere risultati simili a quelli di step1 a un costo molto basso, mantenendo al contempo una maggiore capacità di elaborazione e tempi di risposta più rapidi. È in grado di gestire compiti generali, con competenze particolari nella programmazione."
},
"step-2x-large": {
"description": "Nuova generazione del modello Xingchen Step, focalizzato sulla generazione di immagini di alta qualità basate su descrizioni testuali fornite dall'utente. Il nuovo modello produce immagini con texture più realistiche e capacità migliorate nella generazione di testo in cinese e inglese."
},
"step-3": {
"description": "Questo modello possiede potenti capacità di percezione visiva e di ragionamento complesso. È in grado di eseguire con accuratezza la comprensione di conoscenze complesse trasversali a più domini, l'analisi incrociata di informazioni matematiche e visive, e di affrontare varie tipologie di problemi di analisi visiva nella vita quotidiana."
},
"step-r1-v-mini": {
"description": "Questo modello è un grande modello di inferenza con potenti capacità di comprensione delle immagini, in grado di gestire informazioni visive e testuali, producendo contenuti testuali dopo un profondo ragionamento. Questo modello si distingue nel campo del ragionamento visivo, mostrando anche capacità di ragionamento matematico, codice e testo di primo livello. La lunghezza del contesto è di 100k."
},
"stepfun-ai/step3": {
"description": "Step3 è un modello di inferenza multimodale all'avanguardia rilasciato da StepFun (阶跃星辰). È costruito su un'architettura Mixture of Experts (MoE) con 321 miliardi di parametri totali e 38 miliardi di parametri di attivazione. Il modello adotta un design end-to-end, pensato per minimizzare i costi di decodifica e al contempo offrire prestazioni di primo livello nel ragionamento visivo-linguistico. Grazie al design sinergico che combina Multi-Matrix Factorized Attention (MFA) e il disaccoppiamento attenzione-FFN (AFD), Step3 mantiene un'elevata efficienza sia sui più potenti acceleratori flagship sia su quelli di fascia bassa. Durante la fase di pre-addestramento, Step3 ha elaborato oltre 20T di token testuali e 4T di token misti immagine-testo, coprendo più di dieci lingue. Il modello ha raggiunto livelli leader tra i modelli open source in numerosi benchmark, inclusi matematica, codice e scenari multimodali."
},
"taichu_llm": {
"description": "Il modello linguistico Taichu di Zīdōng ha una straordinaria capacità di comprensione del linguaggio e abilità in creazione di testi, domande di conoscenza, programmazione, calcoli matematici, ragionamento logico, analisi del sentimento e sintesi di testi. Combina in modo innovativo il pre-addestramento su grandi dati con una ricca conoscenza multi-sorgente, affinando continuamente la tecnologia degli algoritmi e assorbendo costantemente nuove conoscenze da dati testuali massivi, migliorando continuamente le prestazioni del modello. Fornisce agli utenti informazioni e servizi più convenienti e un'esperienza più intelligente."
},
"taichu_o1": {
"description": "taichu_o1 è un nuovo grande modello di inferenza, che realizza catene di pensiero simili a quelle umane attraverso interazioni multimodali e apprendimento rinforzato, supportando deduzioni decisionali complesse, mostrando percorsi di pensiero di inferenza modellabile mantenendo un'uscita ad alta precisione, adatto per analisi strategiche e pensiero profondo."
},
"taichu_vl": {
"description": "Integra capacità di comprensione delle immagini, trasferimento di conoscenze e attribuzione logica, mostrando prestazioni eccezionali nel campo delle domande e risposte basate su testo e immagini."
},
"tencent/Hunyuan-A13B-Instruct": {
"description": "Hunyuan-A13B-Instruct ha 80 miliardi di parametri, ma attivando solo 13 miliardi di parametri può competere con modelli più grandi, supportando un ragionamento ibrido “pensiero veloce/pensiero lento”; garantisce una comprensione stabile di testi lunghi; validato da BFCL-v3 e τ-Bench, con capacità agent leader; integra GQA e formati multi-quantizzazione per un'inferenza efficiente."
},
"tencent/Hunyuan-MT-7B": {
"description": "Il modello di traduzione Hunyuan è composto dal modello Hunyuan-MT-7B e dal modello integrato Hunyuan-MT-Chimera. Hunyuan-MT-7B è un modello di traduzione leggero con 7 miliardi di parametri, progettato per tradurre testi dalla lingua sorgente a quella di destinazione. Supporta la traduzione tra 33 lingue e 5 lingue minoritarie cinesi. Alla competizione internazionale di traduzione automatica WMT25, Hunyuan-MT-7B ha ottenuto il primo posto in 30 delle 31 categorie linguistiche in cui ha partecipato, dimostrando eccellenti capacità di traduzione. Tencent Hunyuan ha proposto un paradigma di addestramento completo che va dal pre-addestramento al fine-tuning supervisionato, fino al rinforzo e all'integrazione per la traduzione, raggiungendo prestazioni leader nel settore tra i modelli della stessa scala. Il modello è altamente efficiente dal punto di vista computazionale, facile da distribuire e adatto a molteplici scenari applicativi."
},
"text-embedding-3-large": {
"description": "Il modello di vettorizzazione più potente, adatto per compiti in inglese e non inglese."
},
"text-embedding-3-small": {
"description": "Modello di Embedding di nuova generazione, efficiente ed economico, adatto per la ricerca di conoscenza, applicazioni RAG e altri scenari."
},
"thudm/glm-4-32b": {
"description": "GLM-4-32B-0414 è un modello linguistico a pesi aperti bilingue (cinese e inglese) da 32B, ottimizzato per la generazione di codice, chiamate a funzioni e compiti agenti. È stato pre-addestrato su 15T di dati di alta qualità e di ri-ragionamento, e ulteriormente perfezionato utilizzando l'allineamento delle preferenze umane, il campionamento di rifiuto e l'apprendimento rinforzato. Questo modello mostra prestazioni eccezionali in ragionamenti complessi, generazione di artefatti e compiti di output strutturato, raggiungendo prestazioni comparabili a GPT-4o e DeepSeek-V3-0324 in vari benchmark."
},
"thudm/glm-4-32b:free": {
"description": "GLM-4-32B-0414 è un modello linguistico a pesi aperti bilingue (cinese e inglese) da 32B, ottimizzato per la generazione di codice, chiamate a funzioni e compiti agenti. È stato pre-addestrato su 15T di dati di alta qualità e di ri-ragionamento, e ulteriormente perfezionato utilizzando l'allineamento delle preferenze umane, il campionamento di rifiuto e l'apprendimento rinforzato. Questo modello mostra prestazioni eccezionali in ragionamenti complessi, generazione di artefatti e compiti di output strutturato, raggiungendo prestazioni comparabili a GPT-4o e DeepSeek-V3-0324 in vari benchmark."
},
"thudm/glm-4-9b-chat": {
"description": "La versione open source dell'ultima generazione del modello pre-addestrato GLM-4 rilasciato da Zhizhu AI."
},
"thudm/glm-z1-32b": {
"description": "GLM-Z1-32B-0414 è una variante di ragionamento potenziata di GLM-4-32B, costruita per la risoluzione di problemi di matematica profonda, logica e orientati al codice. Utilizza l'apprendimento rinforzato esteso (specifico per compiti e basato su preferenze generali) per migliorare le prestazioni in compiti complessi a più passaggi. Rispetto al modello di base GLM-4-32B, Z1 ha migliorato significativamente le capacità di ragionamento strutturato e nei domini formali.\n\nQuesto modello supporta l'applicazione di 'passaggi di pensiero' tramite ingegneria dei prompt e offre una coerenza migliorata per output di lungo formato. È ottimizzato per flussi di lavoro agenti e supporta contesti lunghi (tramite YaRN), chiamate a strumenti JSON e configurazioni di campionamento a grana fine per un ragionamento stabile. È particolarmente adatto per casi d'uso che richiedono ragionamenti approfonditi, a più passaggi o deduzioni formali."
},
"thudm/glm-z1-rumination-32b": {
"description": "THUDM: GLM Z1 Rumination 32B è un modello di inferenza profonda con 32 miliardi di parametri della serie GLM-4-Z1, ottimizzato per compiti complessi e aperti che richiedono un lungo periodo di riflessione. Si basa su glm-4-32b-0414, aggiungendo ulteriori fasi di apprendimento rinforzato e strategie di allineamento multi-fase, introducendo la capacità di 'riflessione' progettata per simulare un'elaborazione cognitiva estesa. Questo include ragionamento iterativo, analisi multi-salto e flussi di lavoro potenziati da strumenti, come ricerca, recupero e sintesi consapevole delle citazioni.\n\nQuesto modello eccelle nella scrittura di ricerca, analisi comparativa e domande complesse. Supporta chiamate di funzione per primari di ricerca e navigazione (`search`, `click`, `open`, `finish`), rendendolo utilizzabile in pipeline basate su agenti. Il comportamento di riflessione è modellato da un controllo ciclico multi-turno con premi basati su regole e meccanismi di decisione ritardata, e viene confrontato con framework di ricerca approfondita come l'allineamento interno di OpenAI. Questa variante è adatta per scenari che richiedono profondità piuttosto che velocità."
},
"tngtech/deepseek-r1t-chimera:free": {
"description": "DeepSeek-R1T-Chimera è stato creato combinando DeepSeek-R1 e DeepSeek-V3 (0324), unendo le capacità di inferenza di R1 e i miglioramenti di efficienza dei token di V3. Si basa sull'architettura DeepSeek-MoE Transformer ed è ottimizzato per compiti generali di generazione di testo.\n\nQuesto modello combina i pesi pre-addestrati di due modelli sorgente per bilanciare le prestazioni in inferenza, efficienza e compiti di seguire istruzioni. È rilasciato sotto la licenza MIT, destinato a scopi di ricerca e commerciali."
},
"togethercomputer/StripedHyena-Nous-7B": {
"description": "StripedHyena Nous (7B) offre capacità di calcolo potenziate attraverso strategie e architetture di modelli efficienti."
},
"tts-1": {
"description": "L'ultimo modello di sintesi vocale, ottimizzato per la velocità in scenari in tempo reale."
},
"tts-1-hd": {
"description": "L'ultimo modello di sintesi vocale, ottimizzato per la qualità."
},
"upstage/SOLAR-10.7B-Instruct-v1.0": {
"description": "Upstage SOLAR Instruct v1 (11B) è adatto per compiti di istruzione dettagliati, offrendo eccellenti capacità di elaborazione linguistica."
},
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando le prestazioni dei modelli concorrenti e di Claude 3 Opus, dimostrando eccellenza in una vasta gamma di valutazioni, mantenendo al contempo la velocità e i costi dei nostri modelli di livello medio."
},
"us.anthropic.claude-3-7-sonnet-20250219-v1:0": {
"description": "Claude 3.7 sonnet è il modello di prossima generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, Claude 3.7 Sonnet ha migliorato le sue capacità in vari ambiti e ha superato il modello di generazione precedente, Claude 3 Opus, in molti test di intelligenza."
},
"us.anthropic.claude-haiku-4-5-20251001-v1:0": {
"description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e una notevole capacità di ragionamento esteso."
},
"us.anthropic.claude-sonnet-4-5-20250929-v1:0": {
"description": "Claude Sonnet 4.5 è il modello più intelligente mai realizzato da Anthropic fino ad oggi."
},
"v0-1.0-md": {
"description": "Il modello v0-1.0-md è una versione precedente fornita tramite l'API v0"
},
"v0-1.5-lg": {
"description": "Il modello v0-1.5-lg è adatto per compiti avanzati di pensiero o ragionamento"
},
"v0-1.5-md": {
"description": "Il modello v0-1.5-md è adatto per compiti quotidiani e generazione di interfacce utente (UI)"
},
"vercel/v0-1.0-md": {
"description": "Accesso al modello dietro v0 per generare, correggere e ottimizzare applicazioni web moderne, con ragionamento specifico per framework e conoscenze aggiornate."
},
"vercel/v0-1.5-md": {
"description": "Accesso al modello dietro v0 per generare, correggere e ottimizzare applicazioni web moderne, con ragionamento specifico per framework e conoscenze aggiornate."
},
"volcengine/doubao-seed-code": {
"description": "Doubao-Seed-Code è il modello di Byte Volcano Engine ottimizzato per Agentic Programming, eccelle in benchmark di programmazione e agenti, supporta contesto da 256K."
},
"wan2.2-t2i-flash": {
"description": "Versione ultra-veloce Wanxiang 2.2, modello più recente. Miglioramenti completi in creatività, stabilità e realismo, con velocità di generazione elevata e ottimo rapporto qualità-prezzo."
},
"wan2.2-t2i-plus": {
"description": "Versione professionale Wanxiang 2.2, modello più recente. Miglioramenti completi in creatività, stabilità e realismo, con dettagli di generazione ricchi."
},
"wanx-v1": {
"description": "Modello base di generazione immagini da testo, corrispondente al modello generico 1.0 ufficiale di Tongyi Wanxiang."
},
"wanx2.0-t2i-turbo": {
"description": "Specializzato in ritratti realistici, con velocità media e costi contenuti. Corrisponde al modello ultra-veloce 2.0 ufficiale di Tongyi Wanxiang."
},
"wanx2.1-t2i-plus": {
"description": "Versione completamente aggiornata, con dettagli di immagine più ricchi e velocità leggermente inferiore. Corrisponde al modello professionale 2.1 ufficiale di Tongyi Wanxiang."
},
"wanx2.1-t2i-turbo": {
"description": "Versione completamente aggiornata, con velocità elevata, prestazioni complete e ottimo rapporto qualità-prezzo. Corrisponde al modello ultra-veloce 2.1 ufficiale di Tongyi Wanxiang."
},
"whisper-1": {
"description": "Modello universale di riconoscimento vocale, supporta riconoscimento vocale multilingue, traduzione vocale e identificazione della lingua."
},
"wizardlm2": {
"description": "WizardLM 2 è un modello di linguaggio fornito da Microsoft AI, particolarmente efficace in dialoghi complessi, multilingue, ragionamento e assistenti intelligenti."
},
"wizardlm2:8x22b": {
"description": "WizardLM 2 è un modello di linguaggio fornito da Microsoft AI, particolarmente efficace in dialoghi complessi, multilingue, ragionamento e assistenti intelligenti."
},
"x-ai/grok-4": {
"description": "Grok 4 è il modello di punta di xAI per il ragionamento, con potenti capacità di ragionamento e multimodalità."
},
"x-ai/grok-4-fast": {
"description": "Grok 4 Fast è il modello ad alto throughput e basso costo di xAI (supporta contesto da 2M), adatto a scenari con alta concorrenza e contesto lungo."
},
"x-ai/grok-4-fast-non-reasoning": {
"description": "Grok 4 Fast (Non-Reasoning) è il modello multimodale ad alto throughput e basso costo di xAI (supporta contesto da 2M), pensato per scenari sensibili a latenza e costi che non richiedono ragionamento interno. È affiancato alla versione reasoning e può attivare il ragionamento tramite parametro API. Prompt e completamenti possono essere usati da xAI o OpenRouter per migliorare i modelli futuri."
},
"x-ai/grok-4.1-fast": {
"description": "Grok 4 Fast è il modello ad alto throughput e basso costo di xAI (supporta contesto da 2M), adatto a scenari con alta concorrenza e contesto lungo."
},
"x-ai/grok-4.1-fast-non-reasoning": {
"description": "Grok 4 Fast (Non-Reasoning) è il modello multimodale ad alto throughput e basso costo di xAI (supporta contesto da 2M), pensato per scenari sensibili a latenza e costi che non richiedono ragionamento interno. È affiancato alla versione reasoning e può attivare il ragionamento tramite parametro API. Prompt e completamenti possono essere usati da xAI o OpenRouter per migliorare i modelli futuri."
},
"x-ai/grok-code-fast-1": {
"description": "Grok Code Fast 1 è il modello di codifica veloce di xAI, con output leggibile e adatto all'ingegneria del software."
},
"xai/grok-2": {
"description": "Grok 2 è un modello linguistico all'avanguardia con capacità di ragionamento avanzate. Eccelle in chat, codifica e ragionamento, superando Claude 3.5 Sonnet e GPT-4-Turbo nella classifica LMSYS."
},
"xai/grok-2-vision": {
"description": "Il modello visivo Grok 2 eccelle in compiti basati sulla visione, offrendo prestazioni all'avanguardia in ragionamento matematico visivo (MathVista) e domande e risposte basate su documenti (DocVQA). È in grado di elaborare varie informazioni visive, inclusi documenti, grafici, diagrammi, screenshot e fotografie."
},
"xai/grok-3": {
"description": "Modello di punta di xAI, eccellente in casi d'uso aziendali come estrazione dati, codifica e sintesi testuale. Possiede una profonda conoscenza settoriale in finanza, sanità, legale e scienza."
},
"xai/grok-3-fast": {
"description": "Modello di punta di xAI, eccellente in casi d'uso aziendali come estrazione dati, codifica e sintesi testuale. La variante veloce del modello è servita su infrastrutture più rapide, offrendo tempi di risposta molto più brevi a un costo maggiore per token in output."
},
"xai/grok-3-mini": {
"description": "Modello leggero di xAI che riflette prima di rispondere. Ideale per compiti semplici o logici che non richiedono profonda conoscenza settoriale. La traccia di pensiero grezza è accessibile."
},
"xai/grok-3-mini-fast": {
"description": "Modello leggero di xAI che riflette prima di rispondere. Ideale per compiti semplici o logici che non richiedono profonda conoscenza settoriale. La traccia di pensiero grezza è accessibile. La variante veloce del modello è servita su infrastrutture più rapide, offrendo tempi di risposta molto più brevi a un costo maggiore per token in output."
},
"xai/grok-4": {
"description": "Il modello di punta più recente e migliore di xAI, che offre prestazioni senza pari in linguaggio naturale, matematica e ragionamento — il perfetto tuttofare."
},
"yi-large": {
"description": "Un nuovo modello con centinaia di miliardi di parametri, offre capacità eccezionali di risposta e generazione di testi."
},
"yi-large-fc": {
"description": "Basato sul modello yi-large, supporta e potenzia le capacità di chiamata di strumenti, adatto per vari scenari aziendali che richiedono la costruzione di agenti o flussi di lavoro."
},
"yi-large-preview": {
"description": "Versione iniziale, si consiglia di utilizzare yi-large (nuova versione)."
},
"yi-large-rag": {
"description": "Servizio avanzato basato sul modello yi-large, combina tecnologie di recupero e generazione per fornire risposte precise, con servizi di ricerca in tempo reale su tutto il web."
},
"yi-large-turbo": {
"description": "Eccellente rapporto qualità-prezzo e prestazioni superiori. Ottimizzazione ad alta precisione in base a prestazioni, velocità di inferenza e costi."
},
"yi-lightning": {
"description": "Il modello di ultima generazione ad alte prestazioni, che garantisce output di alta qualità e migliora notevolmente la velocità di ragionamento."
},
"yi-lightning-lite": {
"description": "Versione leggera, si consiglia di utilizzare yi-lightning."
},
"yi-medium": {
"description": "Modello di dimensioni medie aggiornato e ottimizzato, con capacità bilanciate e un buon rapporto qualità-prezzo. Ottimizzazione profonda delle capacità di seguire istruzioni."
},
"yi-medium-200k": {
"description": "Finestra di contesto ultra lunga di 200K, offre capacità di comprensione e generazione di testi lunghi."
},
"yi-spark": {
"description": "Piccolo e potente, modello leggero e veloce. Offre capacità potenziate di calcolo matematico e scrittura di codice."
},
"yi-vision": {
"description": "Modello per compiti visivi complessi, offre elevate prestazioni nella comprensione e analisi delle immagini."
},
"yi-vision-v2": {
"description": "Modello per compiti visivi complessi, che offre capacità di comprensione e analisi ad alte prestazioni basate su più immagini."
},
"z-ai/glm-4.5": {
"description": "GLM 4.5 è il modello di punta di Z.AI, supporta modalità di ragionamento ibrido ed è ottimizzato per compiti ingegneristici e contesto lungo."
},
"z-ai/glm-4.5-air": {
"description": "GLM 4.5 Air è la versione leggera di GLM 4.5, adatta a scenari sensibili ai costi ma con forti capacità di ragionamento."
},
"z-ai/glm-4.6": {
"description": "GLM 4.6 è il modello di punta di Z.AI, con contesto esteso e capacità di codifica migliorate."
},
"zai-glm-4.6": {
"description": "Eccellente nelle attività di programmazione e ragionamento, supporta lo streaming e l'utilizzo di strumenti. Ideale per codifica agentica e scenari di ragionamento complesso."
},
"zai-org/GLM-4.5": {
"description": "GLM-4.5 è un modello base progettato per applicazioni agenti intelligenti, che utilizza un'architettura Mixture-of-Experts (MoE). Ottimizzato profondamente per chiamate a strumenti, navigazione web, ingegneria del software e programmazione frontend, supporta integrazioni fluide con agenti di codice come Claude Code e Roo Code. Adotta una modalità di inferenza ibrida per adattarsi a scenari di ragionamento complessi e uso quotidiano."
},
"zai-org/GLM-4.5-Air": {
"description": "GLM-4.5-Air è un modello base progettato per applicazioni agenti intelligenti, che utilizza un'architettura Mixture-of-Experts (MoE). Ottimizzato profondamente per chiamate a strumenti, navigazione web, ingegneria del software e programmazione frontend, supporta integrazioni fluide con agenti di codice come Claude Code e Roo Code. Adotta una modalità di inferenza ibrida per adattarsi a scenari di ragionamento complessi e uso quotidiano."
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V è lultima generazione di modelli visivolinguistici (VLM) rilasciata da Zhipu AI (智谱 AI). Il modello è costruito sul modello testuale di punta GLM-4.5Air, che dispone di 106 miliardi di parametri totali e 12 miliardi di parametri di attivazione, e adotta unarchitettura mixture-of-experts (MoE) con lobiettivo di offrire prestazioni eccellenti a un costo di inferenza ridotto. Dal punto di vista tecnico, GLM-4.5V prosegue la linea di GLM-4.1VThinking e introduce innovazioni come il codificatore di posizione rotazionale tridimensionale (3DRoPE), migliorando in modo significativo la percezione e il ragionamento sulle relazioni spaziali 3D. Grazie allottimizzazione nelle fasi di preaddestramento, finetuning supervisionato e apprendimento per rinforzo, il modello è in grado di gestire diversi tipi di contenuti visivi — immagini, video e documenti lunghi — e ha raggiunto livelli di eccellenza tra i modelli open source della stessa categoria in 41 benchmark multimodali pubblici. Inoltre, il modello introduce un interruttore per la “modalità pensiero” che consente allutente di scegliere con flessibilità tra risposte rapide e ragionamenti approfonditi, bilanciando efficienza ed efficacia."
},
"zai-org/GLM-4.6": {
"description": "Rispetto a GLM-4.5, GLM-4.6 introduce numerosi miglioramenti chiave. La finestra contestuale è stata estesa da 128K a 200K token, permettendo al modello di gestire compiti agenti più complessi. Il modello ha ottenuto punteggi più alti nei benchmark di codice e ha mostrato prestazioni migliori nel mondo reale in applicazioni come Claude Code, Cline, Roo Code e Kilo Code, inclusi miglioramenti nella generazione di interfacce front-end visivamente raffinate. GLM-4.6 mostra un netto miglioramento nelle prestazioni di inferenza e supporta l'uso di strumenti durante l'inferenza, offrendo capacità complessive più forti. Eccelle nell'uso di strumenti e agenti basati sulla ricerca, integrandosi più efficacemente nei framework agenti. In ambito di scrittura, il modello rispecchia meglio le preferenze umane in termini di stile e leggibilità, risultando più naturale nei contesti di role-playing."
},
"zai/glm-4.5": {
"description": "La serie di modelli GLM-4.5 è progettata specificamente come modelli base per agenti intelligenti. Il modello di punta GLM-4.5 integra 355 miliardi di parametri totali (32 miliardi attivi), unificando capacità di ragionamento, codifica e agenti per soddisfare esigenze applicative complesse. Come sistema di ragionamento ibrido, offre modalità operative doppie."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 e GLM-4.5-Air sono i nostri modelli di punta più recenti, progettati specificamente come modelli base per applicazioni agenti. Entrambi utilizzano un'architettura a esperti misti (MoE). GLM-4.5 ha 355 miliardi di parametri totali con 32 miliardi attivi per passaggio in avanti, mentre GLM-4.5-Air ha un design più snello con 106 miliardi di parametri totali e 12 miliardi attivi."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V è costruito sul modello base GLM-4.5-Air, eredita la tecnologia verificata di GLM-4.1V-Thinking e si espande efficacemente con una potente architettura MoE da 106 miliardi di parametri."
},
"zenmux/auto": {
"description": "La funzione di routing automatico di ZenMux seleziona automaticamente il modello con il miglior rapporto qualità/prezzo e prestazioni in base alla tua richiesta tra i modelli supportati."
}
}