mirror of
https://github.com/lobehub/lobehub
synced 2026-04-21 09:37:28 +00:00
* ✨ feat: support to show working dir
* fix style
* update docs
* update topic
* refactor to use chat config
* inject working Directory
* update i18n
* fix tests
508 lines
122 KiB
JSON
508 lines
122 KiB
JSON
{
|
||
"01-ai/yi-1.5-34b-chat.description": "Het nieuwste open-source model van 01.AI met 34 miljard parameters, geoptimaliseerd voor diverse dialoogscenario’s. Het is getraind op hoogwaardige data en afgestemd op menselijke voorkeuren.",
|
||
"01-ai/yi-1.5-9b-chat.description": "Het nieuwste open-source model van 01.AI met 9 miljard parameters, geoptimaliseerd voor diverse dialoogscenario’s. Het is getraind op hoogwaardige data en afgestemd op menselijke voorkeuren.",
|
||
"360/deepseek-r1.description": "DeepSeek-R1, ingezet door 360, gebruikt grootschalige reinforcement learning in de post-trainingfase om redeneervermogen sterk te verbeteren met minimale labeling. Het presteert vergelijkbaar met OpenAI o1 op wiskunde-, codeer- en taalredeneertaken.",
|
||
"360gpt-pro-trans.description": "Een vertaalspecialistisch model, diepgaand getraind voor toonaangevende vertaalprestaties.",
|
||
"360gpt-pro.description": "360GPT Pro is een belangrijk AI-model van 360 met efficiënte tekstverwerking voor uiteenlopende NLP-toepassingen. Het ondersteunt begrip van lange teksten en meerstapsdialogen.",
|
||
"360gpt-turbo-responsibility-8k.description": "360GPT Turbo Responsibility 8K legt de nadruk op semantische veiligheid en verantwoord gebruik in contentgevoelige toepassingen, en garandeert nauwkeurige en robuuste gebruikerservaringen.",
|
||
"360gpt-turbo.description": "360GPT Turbo biedt krachtige reken- en chatmogelijkheden met uitstekende semantische interpretatie en generatie-efficiëntie, ideaal voor bedrijven en ontwikkelaars.",
|
||
"360gpt2-o1.description": "360gpt2-o1 bouwt een redeneerlijn op via boomzoektechnieken met een reflectiemechanisme en reinforcement learning, waardoor zelfreflectie en zelfcorrectie mogelijk zijn.",
|
||
"360gpt2-pro.description": "360GPT2 Pro is een geavanceerd NLP-model van 360 met uitstekende tekstgeneratie en -begrip, vooral geschikt voor creatieve taken, complexe transformaties en rollenspel.",
|
||
"360zhinao2-o1.description": "360zhinao2-o1 bouwt een redeneerlijn op via boomzoektechnieken met een reflectiemechanisme en reinforcement learning, waardoor zelfreflectie en zelfcorrectie mogelijk zijn.",
|
||
"4.0Ultra.description": "Spark Ultra is het krachtigste model in de Spark-serie. Het verbetert tekstbegrip en samenvatting, en optimaliseert webzoekopdrachten. Het is een allesomvattende oplossing voor hogere productiviteit op de werkvloer en nauwkeurige antwoorden, en positioneert zich als een toonaangevend intelligent product.",
|
||
"AnimeSharp.description": "AnimeSharp (ook bekend als \"4x-AnimeSharp\") is een open-source superresolutiemodel gebaseerd op ESRGAN van Kim2091, gericht op het opschalen en verscherpen van anime-afbeeldingen. In februari 2022 hernoemd van \"4x-TextSharpV1\", oorspronkelijk ook bedoeld voor tekstafbeeldingen, maar sterk geoptimaliseerd voor anime-inhoud.",
|
||
"Baichuan2-Turbo.description": "Maakt gebruik van zoekverrijking om het model te verbinden met domein- en webkennis. Ondersteunt het uploaden van PDF/Word-bestanden en URL-invoer voor tijdige, uitgebreide informatieopvraging en professionele, nauwkeurige output.",
|
||
"Baichuan3-Turbo-128k.description": "Met een ultralange context van 128K is dit model geoptimaliseerd voor veelgebruikte bedrijfsscenario’s met aanzienlijke prestatieverbeteringen. Vergeleken met Baichuan2 verbetert contentcreatie met 20%, kennis-QA met 17% en rollenspel met 40%. De algehele prestaties zijn beter dan GPT-3.5.",
|
||
"Baichuan3-Turbo.description": "Geoptimaliseerd voor veelgebruikte bedrijfsscenario’s met aanzienlijke prestatieverbeteringen. Vergeleken met Baichuan2 verbetert contentcreatie met 20%, kennis-QA met 17% en rollenspel met 40%. De algehele prestaties zijn beter dan GPT-3.5.",
|
||
"Baichuan4-Air.description": "Een topmodel in China dat toonaangevende buitenlandse modellen overtreft op Chinese taken zoals kennis, lange teksten en creatieve generatie. Beschikt ook over toonaangevende multimodale capaciteiten met sterke resultaten op gezaghebbende benchmarks.",
|
||
"Baichuan4-Turbo.description": "Een topmodel in China dat toonaangevende buitenlandse modellen overtreft op Chinese taken zoals kennis, lange teksten en creatieve generatie. Beschikt ook over toonaangevende multimodale capaciteiten met sterke resultaten op gezaghebbende benchmarks.",
|
||
"Baichuan4.description": "Topprestaties op nationaal niveau, overtreft toonaangevende buitenlandse modellen op Chinese taken zoals encyclopedische kennis, lange teksten en creatieve generatie. Biedt ook toonaangevende multimodale capaciteiten en sterke benchmarkresultaten.",
|
||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS is een familie van open-source LLM’s van ByteDance Seed, ontworpen voor sterke prestaties op lange contexten, redeneren, agenttaken en algemene vaardigheden. Seed-OSS-36B-Instruct is een 36B instructiegericht model met native ultralange contextverwerking voor grote documenten of codebases. Geoptimaliseerd voor redeneren, codegeneratie en agenttaken (toolgebruik), met behoud van sterke algemene capaciteiten. Een belangrijk kenmerk is het \"Thinking Budget\", waarmee flexibele redeneerlengte mogelijk is voor hogere efficiëntie.",
|
||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1, het grotere en slimmere model in de DeepSeek-reeks, is gedistilleerd in de Llama 70B-architectuur. Benchmarks en menselijke evaluaties tonen aan dat het slimmer is dan de basisversie van Llama 70B, vooral op wiskunde- en feitennauwkeurigheidstaken.",
|
||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "Een DeepSeek-R1 gedistilleerd model gebaseerd op Qwen2.5-Math-1.5B. Reinforcement learning en cold-start data optimaliseren het redeneervermogen en zetten nieuwe multitask-benchmarks voor open modellen.",
|
||
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill modellen zijn fijngestemd op basis van open-source modellen met behulp van voorbeelddata gegenereerd door DeepSeek-R1.",
|
||
"DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill modellen zijn fijngestemd op basis van open-source modellen met behulp van voorbeelddata gegenereerd door DeepSeek-R1.",
|
||
"DeepSeek-R1-Distill-Qwen-7B.description": "Een DeepSeek-R1 gedistilleerd model gebaseerd op Qwen2.5-Math-7B. Reinforcement learning en cold-start data optimaliseren het redeneervermogen en zetten nieuwe multitask-benchmarks voor open modellen.",
|
||
"DeepSeek-R1.description": "DeepSeek-R1 past grootschalige reinforcement learning toe tijdens de post-trainingfase, wat het redeneervermogen sterk verbetert met zeer weinig gelabelde data. Het presteert vergelijkbaar met het OpenAI o1-productiemodel op wiskunde-, codeer- en taalredeneertaken.",
|
||
"DeepSeek-V3-1.description": "DeepSeek V3.1 is een next-gen redeneermodel met verbeterd complex redeneren en chain-of-thought, geschikt voor diepgaande analysetaken.",
|
||
"DeepSeek-V3-Fast.description": "Aanbieder: sophnet. DeepSeek V3 Fast is de high-TPS-versie van DeepSeek V3 0324, full-precision (niet-gekwantiseerd) met sterkere code- en wiskundeprestaties en snellere reacties.",
|
||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast is de snelle high-TPS-variant van DeepSeek V3.1. Hybride denkmodus: via chattemplates ondersteunt één model zowel denken als niet-denken. Slimmer toolgebruik: post-training verbetert prestaties op tool- en agenttaken.",
|
||
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 denkmodus: een nieuw hybride redeneermodel met denk- en niet-denkmodi, efficiënter dan DeepSeek-R1-0528. Post-training optimalisaties verbeteren het gebruik van agenttools en prestaties op agenttaken aanzienlijk.",
|
||
"DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model ontwikkeld door DeepSeek. Het overtreft andere open modellen zoals Qwen2.5-72B en Llama-3.1-405B op veel benchmarks en is concurrerend met toonaangevende gesloten modellen zoals GPT-4o en Claude 3.5 Sonnet.",
|
||
"Doubao-lite-128k.description": "Doubao-lite biedt ultrasnelle reacties en betere waarde, met flexibele opties voor verschillende scenario’s. Ondersteunt 128K context voor inferentie en fine-tuning.",
|
||
"Doubao-lite-32k.description": "Doubao-lite biedt ultrasnelle reacties en betere waarde, met flexibele opties voor verschillende scenario’s. Ondersteunt 32K context voor inferentie en fine-tuning.",
|
||
"Doubao-lite-4k.description": "Doubao-lite biedt ultrasnelle reacties en betere waarde, met flexibele opties voor verschillende scenario’s. Ondersteunt 4K context voor inferentie en fine-tuning.",
|
||
"Doubao-pro-128k.description": "Toppresterend vlaggenschipmodel voor complexe taken, sterk in referentie-QA, samenvatting, creatie, classificatie en rollenspel. Ondersteunt 128K context voor inferentie en fine-tuning.",
|
||
"Doubao-pro-32k.description": "Toppresterend vlaggenschipmodel voor complexe taken, sterk in referentie-QA, samenvatting, creatie, classificatie en rollenspel. Ondersteunt 32K context voor inferentie en fine-tuning.",
|
||
"Doubao-pro-4k.description": "Toppresterend vlaggenschipmodel voor complexe taken, sterk in referentie-QA, samenvatting, creatie, classificatie en rollenspel. Ondersteunt 4K context voor inferentie en fine-tuning.",
|
||
"DreamO.description": "DreamO is een open-source model voor beeldpersonalisatie, gezamenlijk ontwikkeld door ByteDance en de Universiteit van Peking. Het gebruikt een uniforme architectuur om multitask beeldgeneratie te ondersteunen. Dankzij efficiënte compositiemodellering genereert het zeer consistente, gepersonaliseerde beelden op basis van identiteit, onderwerp, stijl, achtergrond en andere gebruikersvoorwaarden.",
|
||
"ERNIE-3.5-128K.description": "Baidu’s toonaangevende grootschalige LLM, getraind op enorme Chinese/Engelse corpora, met sterke algemene capaciteiten voor chat, creatie en plugingebruik; ondersteunt automatische integratie van de Baidu Search-plugin voor actuele antwoorden.",
|
||
"ERNIE-3.5-8K-Preview.description": "Baidu’s toonaangevende grootschalige LLM, getraind op enorme Chinese/Engelse corpora, met sterke algemene capaciteiten voor chat, creatie en plugingebruik; ondersteunt automatische integratie van de Baidu Search-plugin voor actuele antwoorden.",
|
||
"ERNIE-3.5-8K.description": "Baidu’s toonaangevende grootschalige LLM, getraind op enorme Chinese/Engelse corpora, met sterke algemene capaciteiten voor chat, creatie en plugingebruik; ondersteunt automatische integratie van de Baidu Search-plugin voor actuele antwoorden.",
|
||
"ERNIE-4.0-8K-Latest.description": "Baidu’s toonaangevende ultra-grote LLM met uitgebreide verbeteringen ten opzichte van ERNIE 3.5, geschikt voor complexe taken in verschillende domeinen; ondersteunt integratie van de Baidu Search-plugin voor actuele antwoorden.",
|
||
"ERNIE-4.0-8K-Preview.description": "Baidu’s toonaangevende ultra-grote LLM met uitgebreide verbeteringen ten opzichte van ERNIE 3.5, geschikt voor complexe taken in verschillende domeinen; ondersteunt integratie van de Baidu Search-plugin voor actuele antwoorden.",
|
||
"ERNIE-4.0-Turbo-8K-Latest.description": "Baidu’s toonaangevende ultra-grote LLM met sterke algehele prestaties voor complexe taken, met integratie van de Baidu Search-plugin voor actuele antwoorden. Presteert beter dan ERNIE 4.0.",
|
||
"ERNIE-4.0-Turbo-8K-Preview.description": "Baidu’s toonaangevende ultra-grote LLM met sterke algehele prestaties voor complexe taken, met integratie van de Baidu Search-plugin voor actuele antwoorden. Presteert beter dan ERNIE 4.0.",
|
||
"ERNIE-Character-8K.description": "Baidu’s domeinspecifieke LLM voor game-NPC’s, klantenservice en rollenspel, met duidelijkere persona-consistentie, betere instructieopvolging en sterkere redeneercapaciteiten.",
|
||
"ERNIE-Lite-Pro-128K.description": "Baidu’s lichtgewicht LLM die kwaliteit en inferentieprestaties in balans brengt, beter dan ERNIE Lite en geschikt voor omgevingen met beperkte rekenkracht.",
|
||
"ERNIE-Speed-128K.description": "Baidu’s nieuwste high-performance LLM (2024) met sterke algemene capaciteiten, geschikt als basis voor fine-tuning in specifieke scenario’s, met uitstekende redeneercapaciteiten.",
|
||
"ERNIE-Speed-Pro-128K.description": "Baidu’s nieuwste high-performance LLM (2024) met sterke algemene capaciteiten, beter dan ERNIE Speed, geschikt als basis voor fine-tuning met uitstekende redeneercapaciteiten.",
|
||
"FLUX-1.1-pro.description": "FLUX.1.1 Pro",
|
||
"FLUX.1-Kontext-dev.description": "FLUX.1-Kontext-dev is een multimodaal model voor beeldgeneratie en -bewerking van Black Forest Labs, gebaseerd op een Rectified Flow Transformer-architectuur met 12 miljard parameters. Het richt zich op het genereren, reconstrueren, verbeteren of bewerken van beelden op basis van contextuele voorwaarden. Het combineert de controleerbare generatiekracht van diffusie-modellen met contextmodellering via Transformers, en ondersteunt hoogwaardige output voor taken zoals inpainting, outpainting en visuele scenereconstructie.",
|
||
"FLUX.1-Kontext-pro.description": "FLUX.1 Kontext [pro]",
|
||
"FLUX.1-dev.description": "FLUX.1-dev is een open-source multimodaal taalmodel (MLLM) van Black Forest Labs, geoptimaliseerd voor beeld-teksttaken en combineert begrip en generatie van beeld/tekst. Gebouwd op geavanceerde LLM’s (zoals Mistral-7B), gebruikt het een zorgvuldig ontworpen vision encoder en meertraps instructie-tuning om multimodale coördinatie en complexe redeneertaken mogelijk te maken.",
|
||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) is een innovatief model voor diverse domeinen en complexe taken.",
|
||
"HelloMeme.description": "HelloMeme is een AI-tool die memes, GIF’s of korte video’s genereert op basis van de beelden of bewegingen die je aanlevert. Er zijn geen teken- of programmeervaardigheden nodig—alleen een referentiebeeld—om leuke, aantrekkelijke en stijlvaste content te maken.",
|
||
"HiDream-I1-Full.description": "HiDream-E1-Full is een open-source multimodaal beeldbewerkingsmodel van HiDream.ai, gebaseerd op een geavanceerde Diffusion Transformer-architectuur en sterke taalbegrip (met ingebouwde LLaMA 3.1-8B-Instruct). Het ondersteunt beeldgeneratie op basis van natuurlijke taal, stijltransfers, lokale bewerkingen en herschildering, met uitstekend beeld-tekstbegrip en uitvoering.",
|
||
"HunyuanDiT-v1.2-Diffusers-Distilled.description": "hunyuandit-v1.2-distilled is een lichtgewicht tekst-naar-beeldmodel dat via distillatie is geoptimaliseerd om snel beelden van hoge kwaliteit te genereren, vooral geschikt voor omgevingen met beperkte middelen en realtime generatie.",
|
||
"InstantCharacter.description": "InstantCharacter is een tuning-vrij gepersonaliseerd karaktergeneratiemodel, uitgebracht door Tencent AI in 2025, gericht op getrouwe en consistente karaktergeneratie over verschillende scenario’s. Het kan een karakter modelleren op basis van één referentiebeeld en flexibel overdragen naar verschillende stijlen, acties en achtergronden.",
|
||
"InternVL2-8B.description": "InternVL2-8B is een krachtig vision-language model dat multimodale beeld-tekstverwerking ondersteunt, beeldinhoud nauwkeurig herkent en relevante beschrijvingen of antwoorden genereert.",
|
||
"InternVL2.5-26B.description": "InternVL2.5-26B is een krachtig vision-language model dat multimodale beeld-tekstverwerking ondersteunt, beeldinhoud nauwkeurig herkent en relevante beschrijvingen of antwoorden genereert.",
|
||
"Kolors.description": "Kolors is een tekst-naar-beeldmodel ontwikkeld door het Kuaishou Kolors-team. Het is getraind met miljarden parameters en blinkt uit in visuele kwaliteit, Chinees semantisch begrip en tekstrendering.",
|
||
"Kwai-Kolors/Kolors.description": "Kolors is een grootschalig latent-diffusie tekst-naar-beeldmodel van het Kuaishou Kolors-team. Getraind op miljarden tekst-beeldparen, blinkt het uit in visuele kwaliteit, complexe semantische nauwkeurigheid en Chinees/Engels tekstrendering, met sterk Chinees inhoudsbegrip en -generatie.",
|
||
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) is een open-source 32B-model voor software engineering-taken. Het behaalt een oplossingspercentage van 62,4% op SWE-Bench Verified en staat op de 5e plaats onder open modellen. Het is geoptimaliseerd via mid-training, SFT en RL voor codeaanvulling, bugfixing en codereview.",
|
||
"Llama-3.2-11B-Vision-Instruct.description": "Sterk beeldredeneervermogen op hoge-resolutiebeelden, geschikt voor toepassingen in visueel begrip.",
|
||
"Llama-3.2-90B-Vision-Instruct\t.description": "Geavanceerd beeldredeneren voor toepassingen met visueel begrip door agenten.",
|
||
"Meta-Llama-3-3-70B-Instruct.description": "Llama 3.3 70B is een veelzijdig Transformer-model voor chat- en generatietaken.",
|
||
"Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 is een instructie-afgestemd tekstmodel, geoptimaliseerd voor meertalige chat, en presteert sterk op gangbare industriële benchmarks onder open en gesloten chatmodellen.",
|
||
"Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 is een instructie-afgestemd tekstmodel, geoptimaliseerd voor meertalige chat, en presteert sterk op gangbare industriële benchmarks onder open en gesloten chatmodellen.",
|
||
"Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 is een instructie-afgestemd tekstmodel, geoptimaliseerd voor meertalige chat, en presteert sterk op gangbare industriële benchmarks onder open en gesloten chatmodellen.",
|
||
"Meta-Llama-3.2-1B-Instruct.description": "Geavanceerd klein taalmodel met sterk taalbegrip, uitstekende redeneercapaciteiten en tekstgeneratie.",
|
||
"Meta-Llama-3.2-3B-Instruct.description": "Geavanceerd klein taalmodel met sterk taalbegrip, uitstekende redeneercapaciteiten en tekstgeneratie.",
|
||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 is het meest geavanceerde meertalige open-source Llama-model, met prestaties vergelijkbaar met 405B tegen zeer lage kosten. Het is gebaseerd op een Transformer-architectuur en verbeterd met SFT en RLHF voor bruikbaarheid en veiligheid. De instructie-afgestemde versie is geoptimaliseerd voor meertalige chat en verslaat veel open en gesloten chatmodellen op industriële benchmarks. Kennisgrens: dec 2023.",
|
||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is een groot MoE-model met efficiënte expertactivatie voor sterke redeneercapaciteiten.",
|
||
"MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
|
||
"MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
|
||
"MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeercapaciteiten, volledig vernieuwde programmeerervaring. Sneller en efficiënter.",
|
||
"MiniMax-M2.1.description": "Krachtige meertalige programmeercapaciteiten, volledig vernieuwde programmeerervaring",
|
||
"MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows",
|
||
"MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is een open-gewichten grootschalig hybrid-attention redeneermodel met 456B totale parameters en ~45,9B actief per token. Het ondersteunt native 1M context en gebruikt Flash Attention om FLOPs met 75% te verminderen bij 100K-token generatie versus DeepSeek R1. Met een MoE-architectuur plus CISPO en hybrid-attention RL-training behaalt het toonaangevende prestaties op lang-input redeneren en echte software engineering-taken.",
|
||
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 herdefinieert agent-efficiëntie. Het is een compact, snel, kosteneffectief MoE-model met 230B totaal en 10B actieve parameters, gebouwd voor topniveau codeer- en agenttaken met behoud van sterke algemene intelligentie. Met slechts 10B actieve parameters evenaart het veel grotere modellen, ideaal voor toepassingen met hoge efficiëntie.",
|
||
"Moonshot-Kimi-K2-Instruct.description": "1 biljoen totale parameters met 32 miljard actief. Onder de niet-denkende modellen behoort het tot de top op het gebied van geavanceerde kennis, wiskunde en programmeren, en is het sterker in algemene agenttaken. Geoptimaliseerd voor agentworkloads, kan het acties uitvoeren in plaats van alleen vragen beantwoorden. Ideaal voor improviserende, algemene gesprekken en agentervaringen als een reflexmatig model zonder langdurig denkproces.",
|
||
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7 miljard) is een zeer nauwkeurig instructiemodel voor complexe berekeningen.",
|
||
"OmniConsistency.description": "OmniConsistency verbetert stijlconsistentie en generalisatie bij beeld-naar-beeld-taken door grootschalige Diffusion Transformers (DiTs) en gepaarde gestileerde data te introduceren, waardoor stijlvervaging wordt voorkomen.",
|
||
"Phi-3-medium-128k-instruct.description": "Hetzelfde Phi-3-medium model met een groter contextvenster voor RAG of few-shot prompts.",
|
||
"Phi-3-medium-4k-instruct.description": "Een model met 14 miljard parameters van hogere kwaliteit dan Phi-3-mini, gericht op hoogwaardige, redeneerintensieve data.",
|
||
"Phi-3-mini-128k-instruct.description": "Hetzelfde Phi-3-mini model met een groter contextvenster voor RAG of few-shot prompts.",
|
||
"Phi-3-mini-4k-instruct.description": "Het kleinste lid van de Phi-3-familie, geoptimaliseerd voor kwaliteit en lage latentie.",
|
||
"Phi-3-small-128k-instruct.description": "Hetzelfde Phi-3-small model met een groter contextvenster voor RAG of few-shot prompts.",
|
||
"Phi-3-small-8k-instruct.description": "Een model met 7 miljard parameters van hogere kwaliteit dan Phi-3-mini, gericht op hoogwaardige, redeneerintensieve data.",
|
||
"Phi-3.5-mini-instruct.description": "Een bijgewerkte versie van het Phi-3-mini model.",
|
||
"Phi-3.5-vision-instrust.description": "Een bijgewerkte versie van het Phi-3-vision model.",
|
||
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct is een 7 miljard parameter instructie-afgesteld LLM uit de Qwen2-serie. Het gebruikt een Transformer-architectuur met SwiGLU, attention QKV-bias en gegroepeerde query-attentie, en verwerkt grote invoer. Het presteert sterk op taalbegrip, generatie, meertalige taken, programmeren, wiskunde en redeneren, en overtreft de meeste open modellen en concurreert met gesloten modellen. Het presteert beter dan Qwen1.5-7B-Chat op meerdere benchmarks.",
|
||
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Het 7 miljard model biedt aanzienlijke verbeteringen in programmeren en wiskunde, ondersteunt meer dan 29 talen en verbetert het volgen van instructies, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
||
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct is het nieuwste codegerichte LLM van Alibaba Cloud. Gebouwd op Qwen2.5 en getraind op 5,5 biljoen tokens, verbetert het aanzienlijk de codegeneratie, redenering en foutcorrectie, terwijl het sterke prestaties behoudt op het gebied van wiskunde en algemene taken. Het biedt een solide basis voor code-agents.",
|
||
"Pro/Qwen/Qwen2.5-VL-7B-Instruct.description": "Qwen2.5-VL is een nieuw vision-language model uit de Qwen-serie met sterke visuele interpretatie. Het analyseert tekst, grafieken en lay-outs in afbeeldingen, begrijpt lange video's en gebeurtenissen, ondersteunt redenering en gereedschapsgebruik, objectverankering in meerdere formaten en gestructureerde output. Het verbetert dynamische resolutie en framerate-training voor video-inzicht en verhoogt de efficiëntie van de vision encoder.",
|
||
"Pro/THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking is een open-source vision-language model van Zhipu AI en het KEG-lab van Tsinghua, ontworpen voor complexe multimodale cognitie. Gebaseerd op GLM-4-9B-0414, voegt het keten-van-gedachten-redenering en reinforcement learning toe om crossmodale redenering en stabiliteit aanzienlijk te verbeteren.",
|
||
"Pro/THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat is het open-source GLM-4 model van Zhipu AI. Het presteert sterk op semantiek, wiskunde, redenering, programmeren en kennis. Naast meerstapsgesprekken ondersteunt het web browsing, code-uitvoering, aangepaste tool-aanroepen en redenering over lange teksten. Het ondersteunt 26 talen (waaronder Chinees, Engels, Japans, Koreaans en Duits). Het scoort goed op AlignBench-v2, MT-Bench, MMLU en C-Eval, en ondersteunt tot 128K context voor academisch en zakelijk gebruik.",
|
||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B is gedistilleerd van Qwen2.5-Math-7B en verfijnd op 800.000 zorgvuldig geselecteerde DeepSeek-R1-samples. Het presteert sterk met 92,8% op MATH-500, 55,5% op AIME 2024 en een CodeForces-rating van 1189 voor een 7 miljard model.",
|
||
"Pro/deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 is een redeneringsmodel aangedreven door reinforcement learning dat herhaling vermindert en de leesbaarheid verbetert. Het gebruikt cold-start data vóór RL om redenering verder te verbeteren, evenaart OpenAI-o1 op wiskunde-, code- en redeneertaken, en verbetert de algehele resultaten door zorgvuldige training.",
|
||
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus is een bijgewerkt V3.1-model gepositioneerd als een hybride agent-LLM. Het lost door gebruikers gemelde problemen op en verbetert de stabiliteit, taalconsistentie en vermindert gemengde Chinees/Engels en abnormale tekens. Het integreert denk- en niet-denkmodi met chatthema's voor flexibele omschakeling. Het verbetert ook de prestaties van Code Agent en Search Agent voor betrouwbaarder gereedschapsgebruik en meerstapstaken.",
|
||
"Pro/deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp is een experimentele V3.2-release die de brug slaat naar de volgende architectuur. Het voegt DeepSeek Sparse Attention (DSA) toe bovenop V3.1-Terminus om de efficiëntie van training en inferentie met lange context te verbeteren, met optimalisaties voor gereedschapsgebruik, begrip van lange documenten en meerstapsredenering. Ideaal voor het verkennen van hogere redeneerefficiëntie met grote contextbudgetten.",
|
||
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model met 671 miljard parameters dat gebruikmaakt van MLA en DeepSeekMoE met verliesvrije load balancing voor efficiënte inferentie en training. Voorgetraind op 14,8 biljoen hoogwaardige tokens en verder verfijnd met SFT en RL, overtreft het andere open modellen en benadert toonaangevende gesloten modellen.",
|
||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste Kimi K2. Het is een topklasse MoE-model met 1 biljoen totale en 32 miljard actieve parameters. Belangrijke kenmerken zijn sterkere agentgerichte programmeerintelligentie met aanzienlijke verbeteringen op benchmarks en echte agenttaken, plus verbeterde esthetiek en bruikbaarheid van frontend-code.",
|
||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is de Turbo-variant geoptimaliseerd voor redeneersnelheid en verwerkingscapaciteit, terwijl het de meerstapsredenering en gereedschapsgebruik van K2 Thinking behoudt. Het is een MoE-model met ongeveer 1 biljoen totale parameters, native 256K context en stabiele grootschalige tool-aanroepen voor productieomgevingen met strengere eisen aan latentie en gelijktijdigheid.",
|
||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu, met verbeterde codeerprestaties, lange-termijn taakplanning en samenwerking met tools, speciaal geoptimaliseerd voor Agentic Coding-scenario’s. Het model behaalt toonaangevende resultaten onder open-source modellen op meerdere openbare benchmarks. De algemene capaciteiten zijn verbeterd: antwoorden zijn beknopter en natuurlijker, en schrijfopdrachten voelen meeslepender aan. Bij het uitvoeren van complexe agenttaken volgt het model instructies nauwkeuriger op tijdens toolgebruik. De esthetiek van gegenereerde artefacten en de efficiëntie bij het voltooien van lange taken zijn verder verbeterd.",
|
||
"QwQ-32B-Preview.description": "Qwen QwQ is een experimenteel onderzoeksmodel gericht op het verbeteren van redenering.",
|
||
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview is een onderzoeksmodel van Qwen gericht op visuele redenering, met sterke prestaties in het begrijpen van complexe scènes en visuele wiskundeproblemen.",
|
||
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ is een experimenteel onderzoeksmodel gericht op verbeterde AI-redenering.",
|
||
"Qwen/QwQ-32B.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-afgestelde modellen voegt het denk- en redeneervermogen toe dat de prestaties op downstream-taken aanzienlijk verbetert, vooral bij moeilijke problemen. QwQ-32B is een model van gemiddelde grootte dat concurreert met top-redeneermodellen zoals DeepSeek-R1 en o1-mini. Het gebruikt RoPE, SwiGLU, RMSNorm en attention QKV-bias, met 64 lagen en 40 Q-attentiehoofden (8 KV in GQA).",
|
||
"Qwen/Qwen-Image-Edit-2509.description": "Qwen-Image-Edit-2509 is de nieuwste bewerkingsversie van Qwen-Image van het Qwen-team. Gebouwd op het 20 miljard Qwen-Image model, breidt het sterke tekstrendering uit naar beeldbewerking voor nauwkeurige tekstaanpassingen. Het gebruikt een dual-control architectuur, waarbij invoer wordt gestuurd naar Qwen2.5-VL voor semantische controle en een VAE-encoder voor uiterlijkcontrole, wat bewerkingen op semantisch en uiterlijkniveau mogelijk maakt. Het ondersteunt lokale bewerkingen (toevoegen/verwijderen/wijzigen) en semantische bewerkingen op hoger niveau zoals IP-creatie en stijltransfer, terwijl de semantiek behouden blijft. Het behaalt SOTA-resultaten op meerdere benchmarks.",
|
||
"Qwen/Qwen-Image.description": "Qwen-Image is een 20 miljard-parameter beeldgeneratiemodel van het Qwen-team. Het boekt grote vooruitgang in complexe tekstrendering en nauwkeurige beeldbewerking, vooral voor Chinese/Engelse tekst met hoge getrouwheid. Het ondersteunt meerregelige en paragraaflay-outs met consistente typografie. Naast tekstrendering ondersteunt het een breed scala aan stijlen van fotorealistisch tot anime, en geavanceerde bewerkingen zoals stijltransfer, object toevoegen/verwijderen, detailverbetering, tekstbewerking en posecontrole, met als doel een allesomvattend visueel creatief fundament te zijn.",
|
||
"Qwen/Qwen2-72B-Instruct.description": "Qwen 2 Instruct (72B) biedt nauwkeurige instructieopvolging voor zakelijke toepassingen.",
|
||
"Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct is een 7B model uit de Qwen2-serie, getraind op instructies en gebaseerd op Transformer, SwiGLU, QKV-bias en grouped-query attention. Het verwerkt grote invoer en presteert sterk op benchmarks voor begrip, generatie, meertaligheid, codering, wiskunde en redeneren. Het overtreft de meeste open modellen en presteert beter dan Qwen1.5-7B-Chat in meerdere evaluaties.",
|
||
"Qwen/Qwen2-VL-72B-Instruct.description": "Qwen2-VL is het nieuwste Qwen-VL model en behaalt SOTA-resultaten op visuele benchmarks zoals MathVista, DocVQA, RealWorldQA en MTVQA. Het begrijpt video's van meer dan 20 minuten voor video-vragen, dialogen en contentcreatie. Het ondersteunt complexe redenering en besluitvorming, en kan worden geïntegreerd met apparaten/robots voor visueel gestuurde acties. Naast Engels en Chinees leest het ook tekst in veel andere talen, waaronder de meeste Europese talen, Japans, Koreaans, Arabisch en Vietnamees.",
|
||
"Qwen/Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Dit 14B-model biedt aanzienlijke verbeteringen in codering en wiskunde, ondersteunt meer dan 29 talen en verbetert instructieopvolging, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
||
"Qwen/Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Dit 32B-model biedt aanzienlijke verbeteringen in codering en wiskunde, ondersteunt meer dan 29 talen en verbetert instructieopvolging, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
||
"Qwen/Qwen2.5-72B-Instruct-128K.description": "Qwen2.5-72B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Dit 72B-model verbetert codering en wiskunde, ondersteunt tot 128K invoer en meer dan 8K uitvoer, biedt ondersteuning voor meer dan 29 talen en verbetert instructieopvolging en gestructureerde output (vooral JSON).",
|
||
"Qwen/Qwen2.5-72B-Instruct-Turbo.description": "Qwen2.5 is een nieuwe LLM-familie geoptimaliseerd voor instructiegerichte taken.",
|
||
"Qwen/Qwen2.5-72B-Instruct.description": "Qwen2.5-72B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Dit 72B-model biedt aanzienlijke verbeteringen in codering en wiskunde, ondersteunt meer dan 29 talen en verbetert instructieopvolging, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
||
"Qwen/Qwen2.5-7B-Instruct-Turbo.description": "Qwen2.5 is een nieuwe LLM-familie geoptimaliseerd voor instructiegerichte taken.",
|
||
"Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Dit 7B-model biedt aanzienlijke verbeteringen in codering en wiskunde, ondersteunt meer dan 29 talen en verbetert instructieopvolging, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
||
"Qwen/Qwen2.5-Coder-32B-Instruct.description": "Qwen2.5 Coder 32B Instruct is het nieuwste codegerichte LLM van Alibaba Cloud. Gebouwd op Qwen2.5 en getraind op 5,5T tokens, verbetert het aanzienlijk de codegeneratie, redenering en foutcorrectie, terwijl het sterke prestaties behoudt in wiskunde en algemene taken. Het biedt een solide basis voor code-agents.",
|
||
"Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct is het nieuwste codegerichte LLM van Alibaba Cloud. Gebouwd op Qwen2.5 en getraind op 5,5T tokens, verbetert het aanzienlijk de codegeneratie, redenering en foutcorrectie, terwijl het sterke prestaties behoudt in wiskunde en algemene taken. Het biedt een solide basis voor code-agents.",
|
||
"Qwen/Qwen2.5-VL-32B-Instruct.description": "Qwen2.5-VL-32B-Instruct is een multimodaal model van het Qwen-team. Het herkent veelvoorkomende objecten en analyseert tekst, grafieken, iconen, afbeeldingen en lay-outs. Als visuele agent kan het redeneren en dynamisch tools aansturen, inclusief computer- en telefoonbediening. Het lokaliseert objecten nauwkeurig en genereert gestructureerde output voor facturen en tabellen. Vergeleken met Qwen2-VL verbetert RL wiskunde en probleemoplossing, met antwoorden die beter aansluiten bij menselijke voorkeuren.",
|
||
"Qwen/Qwen2.5-VL-72B-Instruct.description": "Qwen2.5-VL is het vision-language model in de Qwen2.5-serie met grote verbeteringen: sterkere visuele interpretatie van objecten, tekst, grafieken en lay-outs; redeneren als visuele agent met dynamisch gebruik van tools; begrip van video's van meer dan 1 uur en het vastleggen van belangrijke gebeurtenissen; nauwkeurige objectlokalisatie via vakken of punten; en gestructureerde output voor gescande gegevens zoals facturen en tabellen.",
|
||
"Qwen/Qwen3-14B.description": "Qwen3 is een next-gen Tongyi Qwen-model met grote verbeteringen in redenering, algemene vaardigheden, agentcapaciteiten en meertalige prestaties, en ondersteunt het schakelen tussen denkmodi.",
|
||
"Qwen/Qwen3-235B-A22B-Instruct-2507.description": "Qwen3-235B-A22B-Instruct-2507 is een vlaggenschip MoE-model uit de Qwen3-serie met 235B totale en 22B actieve parameters. Het is een bijgewerkte niet-denkende versie gericht op het verbeteren van instructieopvolging, logische redenering, tekstbegrip, wiskunde, wetenschap, codering en toolgebruik. Het breidt ook meertalige kennis uit en sluit beter aan bij gebruikersvoorkeuren voor open, subjectieve taken.",
|
||
"Qwen/Qwen3-235B-A22B-Thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 is een Qwen3-model gericht op complexe redenering. Het gebruikt een MoE-architectuur met 235B totaal en ~22B actief per token voor meer efficiëntie. Als toegewijd denkmodel toont het grote verbeteringen in logica, wiskunde, wetenschap, codering en academische benchmarks, met topresultaten onder open denkmodellen. Het verbetert ook instructieopvolging, toolgebruik en tekstgeneratie, en ondersteunt standaard 256K context voor diepgaande redenering en lange documenten.",
|
||
"Qwen/Qwen3-235B-A22B.description": "Qwen3 is een next-gen Tongyi Qwen-model met grote verbeteringen in redenering, algemene vaardigheden, agentcapaciteiten en meertalige prestaties, en ondersteunt het schakelen tussen denkmodi.",
|
||
"Qwen/Qwen3-30B-A3B-Instruct-2507.description": "Qwen3-30B-A3B-Instruct-2507 is de bijgewerkte niet-denkende versie van Qwen3-30B-A3B. Het is een MoE-model met 30,5B totaal en 3,3B actieve parameters. Het verbetert aanzienlijk de instructieopvolging, logische redenering, tekstbegrip, wiskunde, wetenschap, codering en toolgebruik, breidt meertalige kennis uit en sluit beter aan bij gebruikersvoorkeuren voor subjectieve open taken. Het ondersteunt 256K context. Dit model is uitsluitend niet-denkend en genereert geen `<think></think>` tags.",
|
||
"Qwen/Qwen3-30B-A3B-Thinking-2507.description": "Qwen3-30B-A3B-Thinking-2507 is het nieuwste denkmodel in de Qwen3-serie. Het is een MoE-model met 30,5B totaal en 3,3B actieve parameters, gericht op complexe taken. Het toont aanzienlijke verbeteringen in logica, wiskunde, wetenschap, codering en academische benchmarks, en verbetert instructieopvolging, toolgebruik, tekstgeneratie en voorkeurafstemming. Het ondersteunt standaard 256K context en kan worden uitgebreid tot 1M tokens. Deze versie is ontworpen voor denkmodus met gedetailleerde stapsgewijze redenering en sterke agentcapaciteiten.",
|
||
"Qwen/Qwen3-30B-A3B.description": "Qwen3 is een next-gen Tongyi Qwen-model met grote verbeteringen in redenering, algemene vaardigheden, agentcapaciteiten en meertalige prestaties, en ondersteunt het schakelen tussen denkmodi.",
|
||
"Qwen/Qwen3-32B.description": "Qwen3 is een next-gen Tongyi Qwen-model met grote verbeteringen in redenering, algemene vaardigheden, agentcapaciteiten en meertalige prestaties, en ondersteunt het schakelen tussen denkmodi.",
|
||
"Qwen/Qwen3-8B.description": "Qwen3 is een next-gen Tongyi Qwen-model met grote verbeteringen in redenering, algemene vaardigheden, agentcapaciteiten en meertalige prestaties, en ondersteunt het schakelen tussen denkmodi.",
|
||
"Qwen/Qwen3-Coder-30B-A3B-Instruct.description": "Qwen3-Coder-30B-A3B-Instruct is een Qwen3-codeermodel van het Qwen-team. Het is geoptimaliseerd voor hoge prestaties en efficiëntie, met verbeterde codecapaciteiten. Het presteert sterk op agentgebaseerde codering, geautomatiseerde browseracties en toolgebruik onder open modellen. Het ondersteunt standaard 256K context en kan worden uitgebreid tot 1M tokens voor begrip op codebase-niveau. Het ondersteunt agentgebaseerde codering op platforms zoals Qwen Code en CLINE met een speciaal functie-aanroepformaat.",
|
||
"Qwen/Qwen3-Coder-480B-A35B-Instruct.description": "Qwen3-Coder-480B-A35B-Instruct is het meest geavanceerde codeermodel van Alibaba tot nu toe. Het is een MoE-model met 480B totaal en 35B actieve parameters, dat efficiëntie en prestaties in balans brengt. Het ondersteunt standaard 256K context en kan worden uitgebreid tot 1M tokens via YaRN, waardoor het geschikt is voor grote codebases. Ontworpen voor agentgebaseerde coderingsworkflows, kan het tools en omgevingen aansturen om complexe programmeertaken op te lossen. Het behaalt topresultaten op benchmarks voor codering en agenten, vergelijkbaar met toonaangevende modellen zoals Claude Sonnet 4.",
|
||
"Qwen/Qwen3-Next-80B-A3B-Instruct.description": "Qwen3-Next-80B-A3B-Instruct is een geavanceerd basismodel dat gebruikmaakt van de Qwen3-Next-architectuur voor extreem efficiënte training en inferentie. Het combineert hybride aandacht (Gated DeltaNet + Gated Attention), sterk gespreide MoE en optimalisaties voor trainingsstabiliteit. Met 80 miljard totale parameters, maar slechts ~3 miljard actief tijdens inferentie, verlaagt het de rekencapaciteit en levert het meer dan 10x doorvoersnelheid ten opzichte van Qwen3-32B bij contexten >32K. Deze instructie-afgestemde versie is gericht op algemene taken (zonder Thinking-modus). Het presteert vergelijkbaar met Qwen3-235B op sommige benchmarks en toont sterke voordelen bij taken met ultralange context.",
|
||
"Qwen/Qwen3-Next-80B-A3B-Thinking.description": "Qwen3-Next-80B-A3B-Thinking is een geavanceerd basismodel voor complexe redeneervaardigheden. Het maakt gebruik van de Qwen3-Next-architectuur met hybride aandacht (Gated DeltaNet + Gated Attention) en sterk gespreide MoE voor uiterst efficiënte training en inferentie. Met 80 miljard totale parameters, maar slechts ~3 miljard actief tijdens inferentie, verlaagt het de rekencapaciteit en levert het meer dan 10x doorvoersnelheid ten opzichte van Qwen3-32B bij contexten >32K. Deze Thinking-versie is gericht op meerstaps taken zoals bewijsvoering, codegeneratie, logische analyse en planning, en genereert gestructureerde redeneerstappen. Het overtreft Qwen3-32B-Thinking en verslaat Gemini-2.5-Flash-Thinking op meerdere benchmarks.",
|
||
"Qwen/Qwen3-Omni-30B-A3B-Captioner.description": "Qwen3-Omni-30B-A3B-Captioner is een VLM uit de Qwen3-serie, ontworpen voor hoogwaardige, gedetailleerde en nauwkeurige beeldbeschrijvingen. Het gebruikt een MoE-architectuur met 30 miljard parameters om beelden diepgaand te begrijpen en vloeiende beschrijvingen te genereren. Het blinkt uit in detailherkenning, scènebegrip, objectherkenning en relationeel redeneren.",
|
||
"Qwen/Qwen3-Omni-30B-A3B-Instruct.description": "Qwen3-Omni-30B-A3B-Instruct is een MoE-model uit de Qwen3-serie met 30 miljard totale en 3 miljard actieve parameters, dat sterke prestaties levert tegen lagere inferentiekosten. Het is getraind op hoogwaardige, meertalige data uit meerdere bronnen en ondersteunt volledige modale invoer (tekst, beeld, audio, video) en crossmodaal begrip en generatie.",
|
||
"Qwen/Qwen3-Omni-30B-A3B-Thinking.description": "Qwen3-Omni-30B-A3B-Thinking is het centrale \"denkende\" component van Qwen3-Omni. Het verwerkt multimodale invoer (tekst, audio, beeld, video) en voert complexe redeneerstappen uit, waarbij het invoer verenigt in een gedeelde representatie voor diepgaand crossmodaal begrip. Het is een MoE-model met 30 miljard totale en 3 miljard actieve parameters, en biedt een balans tussen sterke redeneervaardigheden en rekenefficiëntie.",
|
||
"Qwen/Qwen3-VL-235B-A22B-Instruct.description": "Qwen3-VL-235B-A22B-Instruct is een groot instructie-afgestemd Qwen3-VL-model gebaseerd op MoE, dat uitstekende multimodale interpretatie en generatie levert. Het ondersteunt standaard een context van 256K en is geschikt voor productieomgevingen met hoge gelijktijdigheid in multimodale toepassingen.",
|
||
"Qwen/Qwen3-VL-235B-A22B-Thinking.description": "Qwen3-VL-235B-A22B-Thinking is de vlaggenschipversie van Qwen3-VL voor denken, geoptimaliseerd voor complexe multimodale redenatie, lange contexten en agentinteractie in zakelijke toepassingen.",
|
||
"Qwen/Qwen3-VL-30B-A3B-Instruct.description": "Qwen3-VL-30B-A3B-Instruct is het instructie-afgestemde Qwen3-VL-model met sterke visuele-taalinterpretatie en generatie. Het ondersteunt standaard een context van 256K voor multimodale chat en beeldgestuurde generatie.",
|
||
"Qwen/Qwen3-VL-30B-A3B-Thinking.description": "Qwen3-VL-30B-A3B-Thinking is de redeneerversterkte versie van Qwen3-VL, geoptimaliseerd voor multimodale redenatie, beeld-naar-code en complexe visuele interpretatie. Het ondersteunt een context van 256K met verbeterde redeneervaardigheden via keten-van-gedachten.",
|
||
"Qwen/Qwen3-VL-32B-Instruct.description": "Qwen3-VL-32B-Instruct is een visuele-taalmodel van het Qwen-team met toonaangevende SOTA-resultaten op meerdere VL-benchmarks. Het ondersteunt beelden met megapixelresolutie en biedt sterke visuele interpretatie, meertalige OCR, fijnmazige visuele verankering en visuele dialoog. Het verwerkt complexe multimodale taken en ondersteunt toolgebruik en prefixaanvulling.",
|
||
"Qwen/Qwen3-VL-32B-Thinking.description": "Qwen3-VL-32B-Thinking is geoptimaliseerd voor complexe visuele redenatie. Het bevat een ingebouwde Thinking-modus die tussenstappen in het redeneerproces genereert vóór het antwoord, wat meerstapslogica, planning en complexe redenatie versterkt. Het ondersteunt megapixelbeelden, sterke visuele interpretatie, meertalige OCR, fijnmazige verankering, visuele dialoog, toolgebruik en prefixaanvulling.",
|
||
"Qwen/Qwen3-VL-8B-Instruct.description": "Qwen3-VL-8B-Instruct is een Qwen3 visuele-taalmodel gebaseerd op Qwen3-8B-Instruct en getraind op grote hoeveelheden beeld-tekstdata. Het blinkt uit in algemene visuele interpretatie, visiegerichte dialoog en meertalige tekstherkenning in beelden. Geschikt voor visuele QA, beeldbeschrijving, multimodale instructieopvolging en toolgebruik.",
|
||
"Qwen/Qwen3-VL-8B-Thinking.description": "Qwen3-VL-8B-Thinking is de visuele Thinking-versie van Qwen3, geoptimaliseerd voor complexe meerstapsredenering. Het genereert een redeneerketen vóór het antwoord om de nauwkeurigheid te verbeteren, ideaal voor diepgaande visuele QA en gedetailleerde beeldanalyse.",
|
||
"Qwen2-72B-Instruct.description": "Qwen2 is de nieuwste generatie in de Qwen-serie en ondersteunt een contextvenster van 128K. Vergeleken met de beste open modellen van dit moment, overtreft Qwen2-72B toonaangevende modellen aanzienlijk op het gebied van natuurlijke taalverwerking, kennis, code, wiskunde en meertalige capaciteiten.",
|
||
"Qwen2-7B-Instruct.description": "Qwen2 is de nieuwste generatie in de Qwen-serie en overtreft de beste open modellen van vergelijkbare of zelfs grotere omvang. Qwen2 7B toont aanzienlijke voordelen op meerdere benchmarks, vooral in code en Chinees taalbegrip.",
|
||
"Qwen2-VL-72B.description": "Qwen2-VL-72B is een krachtig visuele-taalmodel dat multimodale beeld-tekstverwerking ondersteunt, beeldinhoud nauwkeurig herkent en relevante beschrijvingen of antwoorden genereert.",
|
||
"Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct is een LLM met 14 miljard parameters en sterke prestaties, geoptimaliseerd voor Chinese en meertalige scenario's. Het ondersteunt intelligente vraag-antwoordinteractie en contentgeneratie.",
|
||
"Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct is een LLM met 32 miljard parameters en gebalanceerde prestaties, geoptimaliseerd voor Chinese en meertalige scenario's. Het ondersteunt intelligente vraag-antwoordinteractie en contentgeneratie.",
|
||
"Qwen2.5-72B-Instruct.description": "LLM voor Chinees en Engels, afgestemd op taal, codering, wiskunde en redenatie.",
|
||
"Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct is een LLM met 7 miljard parameters die functieaanroepen en naadloze integratie met externe systemen ondersteunt, wat de flexibiliteit en uitbreidbaarheid aanzienlijk verbetert. Het is geoptimaliseerd voor Chinese en meertalige scenario's en ondersteunt intelligente vraag-antwoordinteractie en contentgeneratie.",
|
||
"Qwen2.5-Coder-14B-Instruct.description": "Qwen2.5-Coder-14B-Instruct is een grootschalig voorgetraind model voor code-instructies met sterke codebegrip- en generatiecapaciteiten. Het verwerkt efficiënt een breed scala aan programmeertaken en is ideaal voor slim coderen, geautomatiseerde scriptgeneratie en programmeer-Q&A.",
|
||
"Qwen2.5-Coder-32B-Instruct.description": "Geavanceerd LLM voor codegeneratie, redenatie en bugfixing in de belangrijkste programmeertalen.",
|
||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 is geoptimaliseerd voor geavanceerde redenatie en instructieopvolging, en gebruikt MoE om redenatie op schaal efficiënt te houden.",
|
||
"Qwen3-235B.description": "Qwen3-235B-A22B is een MoE-model dat een hybride redeneermodus introduceert, waarmee gebruikers naadloos kunnen schakelen tussen denken en niet-denken. Het ondersteunt begrip en redenatie in 119 talen en dialecten en beschikt over sterke toolgebruikmogelijkheden. Het concurreert met toonaangevende modellen zoals DeepSeek R1, OpenAI o1, o3-mini, Grok 3 en Google Gemini 2.5 Pro op benchmarks voor algemene vaardigheden, code en wiskunde, meertalige capaciteiten en kennisredenering.",
|
||
"Qwen3-32B.description": "Qwen3-32B is een dense model dat een hybride redeneermodus introduceert, waarmee gebruikers kunnen schakelen tussen denken en niet-denken. Dankzij architectuurverbeteringen, meer data en betere training presteert het op hetzelfde niveau als Qwen2.5-72B.",
|
||
"SenseChat-128K.description": "Basis V4 met 128K context, sterk in het begrijpen en genereren van lange teksten.",
|
||
"SenseChat-32K.description": "Basis V4 met 32K context, flexibel inzetbaar voor diverse scenario’s.",
|
||
"SenseChat-5-1202.description": "Nieuwste versie gebaseerd op V5.5, met aanzienlijke verbeteringen in Chinese/Engelse basisvaardigheden, gesprekken, bètakennis, geesteswetenschappen, schrijven, wiskunde/logica en lengtebeheersing.",
|
||
"SenseChat-5-Cantonese.description": "Ontworpen voor de dialooggewoonten, straattaal en lokale kennis van Hongkong; overtreft GPT-4 in Kantonees begrip en is vergelijkbaar met GPT-4 Turbo in kennis, redenering, wiskunde en programmeren.",
|
||
"SenseChat-5-beta.description": "Presteert op sommige vlakken beter dan SenseChat-5-1202.",
|
||
"SenseChat-5.description": "Nieuwste V5.5 met 128K context; grote vooruitgang in wiskundige redenering, Engelse gesprekken, instructieopvolging en begrip van lange teksten, vergelijkbaar met GPT-4o.",
|
||
"SenseChat-Character-Pro.description": "Geavanceerd karaktergesprekmodel met 32K context, verbeterde capaciteiten en ondersteuning voor Chinees/Engels.",
|
||
"SenseChat-Character.description": "Standaard karaktergesprekmodel met 8K context en hoge reactiesnelheid.",
|
||
"SenseChat-Turbo-1202.description": "Nieuwste lichtgewicht model dat meer dan 90% van de volledige modelcapaciteit bereikt met aanzienlijk lagere inferentiekosten.",
|
||
"SenseChat-Turbo.description": "Geschikt voor snelle vraag-en-antwoordscenario’s en modelafstemming.",
|
||
"SenseChat-Vision.description": "Nieuwste V5.5 met invoer van meerdere afbeeldingen en brede kernverbeteringen in attributenherkenning, ruimtelijke relaties, actie-/gebeurtenisdetectie, scènebegrip, emotieherkenning, alledaagse redenering en tekstbegrip/-generatie.",
|
||
"SenseChat.description": "Basis V4 met 4K context en sterke algemene capaciteiten.",
|
||
"SenseNova-V6-5-Pro.description": "Met uitgebreide updates in multimodale, taal- en redeneergegevens en geoptimaliseerde trainingsstrategieën verbetert dit model aanzienlijk in multimodale redenering en algemene instructieopvolging. Ondersteunt tot 128K context en blinkt uit in OCR en culturele toerisme-IP-herkenning.",
|
||
"SenseNova-V6-5-Turbo.description": "Met uitgebreide updates in multimodale, taal- en redeneergegevens en geoptimaliseerde trainingsstrategieën verbetert dit model aanzienlijk in multimodale redenering en algemene instructieopvolging. Ondersteunt tot 128K context en blinkt uit in OCR en culturele toerisme-IP-herkenning.",
|
||
"SenseNova-V6-Pro.description": "Integreert beeld, tekst en video op natuurlijke wijze en doorbreekt traditionele multimodale silo’s; behaalt topposities op OpenCompass en SuperCLUE.",
|
||
"SenseNova-V6-Reasoner.description": "Combineert visuele en taalkundige diepe redenering, ondersteunt langzaam denken en volledige gedachteketens.",
|
||
"SenseNova-V6-Turbo.description": "Integreert beeld, tekst en video op natuurlijke wijze en doorbreekt traditionele multimodale silo’s. Leidt in kerncapaciteiten voor multimodale en taaltaken en scoort hoog in meerdere evaluaties.",
|
||
"Skylark2-lite-8k.description": "Tweede generatie Skylark-model. Skylark2-lite biedt snelle reacties voor realtime, kostenbewuste scenario’s met lagere nauwkeurigheidseisen, met een contextvenster van 8K.",
|
||
"Skylark2-pro-32k.description": "Tweede generatie Skylark-model. Skylark2-pro biedt hogere nauwkeurigheid voor complexe tekstgeneratie zoals professionele copywriting, roman schrijven en hoogwaardige vertaling, met een contextvenster van 32K.",
|
||
"Skylark2-pro-4k.description": "Tweede generatie Skylark-model. Skylark2-pro biedt hogere nauwkeurigheid voor complexe tekstgeneratie zoals professionele copywriting, roman schrijven en hoogwaardige vertaling, met een contextvenster van 4K.",
|
||
"Skylark2-pro-character-4k.description": "Tweede generatie Skylark-model. Skylark2-pro-character blinkt uit in rollenspel en gesprekken, met prompts die passen bij verschillende persona-stijlen en natuurlijke dialogen voor chatbots, virtuele assistenten en klantenservice, met snelle reacties.",
|
||
"Skylark2-pro-turbo-8k.description": "Tweede generatie Skylark-model. Skylark2-pro-turbo-8k biedt snellere inferentie tegen lagere kosten met een contextvenster van 8K.",
|
||
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414 is een next-gen open GLM-model met 32B parameters, vergelijkbaar in prestaties met OpenAI GPT en DeepSeek V3/R1-series.",
|
||
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414 is een 9B GLM-model dat technieken van GLM-4-32B overneemt en lichtere implementatie biedt. Presteert goed in codegeneratie, webdesign, SVG-generatie en op zoek gebaseerde tekstproductie.",
|
||
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking is een open-source VLM van Zhipu AI en Tsinghua KEG Lab, ontworpen voor complexe multimodale cognitie. Gebaseerd op GLM-4-9B-0414, voegt het gedachteketenredenering en RL toe om crossmodale redenering en stabiliteit aanzienlijk te verbeteren.",
|
||
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414 is een diepdenkend redeneermodel gebaseerd op GLM-4-32B-0414 met cold-startgegevens en uitgebreide RL, verder getraind op wiskunde, code en logica. Verbetert wiskundige vaardigheden en complexe probleemoplossing aanzienlijk ten opzichte van het basismodel.",
|
||
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414 is een klein GLM-model met 9B parameters dat open-source sterktes behoudt en indrukwekkende capaciteiten levert. Presteert sterk op wiskundige redenering en algemene taken, en is toonaangevend in zijn klasse onder open modellen.",
|
||
"THUDM/GLM-Z1-Rumination-32B-0414.description": "GLM-Z1-Rumination-32B-0414 is een diep redeneermodel met reflectievermogen (getoetst aan OpenAI Deep Research). In tegenstelling tot typische diepdenkende modellen neemt het meer tijd voor overweging om open en complexe problemen op te lossen.",
|
||
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat is het open-source GLM-4-model van Zhipu AI. Presteert sterk op semantiek, wiskunde, redenering, code en kennis. Naast meerstapsgesprekken ondersteunt het web browsing, code-uitvoering, aangepaste toolaanroepen en redenering over lange teksten. Ondersteunt 26 talen (waaronder Chinees, Engels, Japans, Koreaans, Duits). Presteert goed op AlignBench-v2, MT-Bench, MMLU en C-Eval, en ondersteunt tot 128K context voor academisch en zakelijk gebruik.",
|
||
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B is het eerste redeneermodel met lange context (LRM) getraind met RL, geoptimaliseerd voor redenering over lange teksten. De progressieve contextuitbreiding via RL maakt stabiele overdracht van korte naar lange context mogelijk. Overtreft OpenAI-o3-mini en Qwen3-235B-A22B op zeven benchmarks voor document-QA met lange context, en is vergelijkbaar met Claude-3.7-Sonnet-Thinking. Vooral sterk in wiskunde, logica en multi-hop redenering.",
|
||
"Yi-34B-Chat.description": "Yi-1.5-34B behoudt de sterke algemene taalvaardigheden van de serie en verbetert wiskundige logica en programmeren aanzienlijk door incrementele training op 500B hoogwaardige tokens.",
|
||
"abab5.5-chat.description": "Ontworpen voor productiviteitsscenario’s met complexe taakverwerking en efficiënte tekstgeneratie voor professioneel gebruik.",
|
||
"abab5.5s-chat.description": "Ontworpen voor Chinese persona-gesprekken, levert hoogwaardige Chinese dialogen voor diverse toepassingen.",
|
||
"abab6.5g-chat.description": "Ontworpen voor meertalige persona-gesprekken, ondersteunt hoogwaardige dialooggeneratie in het Engels en andere talen.",
|
||
"abab6.5s-chat.description": "Geschikt voor een breed scala aan NLP-taken, waaronder tekstgeneratie en dialoogsysteemontwikkeling.",
|
||
"abab6.5t-chat.description": "Geoptimaliseerd voor Chinese persona-gesprekken, biedt vloeiende dialogen die passen bij Chinese uitdrukkingsgewoonten.",
|
||
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1 is een geavanceerd LLM geoptimaliseerd met reinforcement learning en cold-startgegevens, met uitstekende prestaties in redenering, wiskunde en programmeren.",
|
||
"accounts/fireworks/models/deepseek-v3.description": "Een krachtig Mixture-of-Experts (MoE) taalmodel van DeepSeek met 671B totale parameters en 37B actieve parameters per token.",
|
||
"accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta heeft de Meta Llama 3 LLM-serie ontwikkeld en uitgebracht, inclusief voorgetrainde en instructie-afgestemde tekstgeneratiemodellen van 8B en 70B. De Llama 3 instructie-afgestemde modellen zijn geoptimaliseerd voor conversatiegebruik en overtreffen veel bestaande open chatmodellen op gangbare industriële benchmarks.",
|
||
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "De Meta Llama 3 instructie-afgestemde modellen zijn geoptimaliseerd voor conversatiegebruik en overtreffen veel bestaande open chatmodellen op gangbare industriële benchmarks. Llama 3 8B Instruct (HF-versie) is de originele FP16-versie van Llama 3 8B Instruct, met resultaten die overeenkomen met de officiële Hugging Face-implementatie.",
|
||
"accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta heeft de Meta Llama 3 LLM-serie ontwikkeld en uitgebracht, een verzameling voorgetrainde en instructie-afgestemde tekstgeneratiemodellen van 8B en 70B. De Llama 3 instructie-afgestemde modellen zijn geoptimaliseerd voor conversatiegebruik en overtreffen veel bestaande open chatmodellen op gangbare industriële benchmarks.",
|
||
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 is een meertalig LLM-familie met voorgetrainde en instructie-afgestemde generatiemodellen van 8B, 70B en 405B. De instructie-afgestemde tekstmodellen zijn geoptimaliseerd voor meertalige dialogen en overtreffen veel bestaande open en gesloten chatmodellen op gangbare industriële benchmarks. 405B is het krachtigste model in de Llama 3.1-familie, met FP8-inferentie die nauw aansluit bij de referentie-implementatie.",
|
||
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 is een meertalig LLM-familie met voorgetrainde en instructie-afgestemde generatiemodellen van 8B, 70B en 405B. De instructie-afgestemde tekstmodellen zijn geoptimaliseerd voor meertalige dialogen en overtreffen veel bestaande open en gesloten chatmodellen op gangbare industriële benchmarks.",
|
||
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 is een meertalig LLM-familie met voorgetrainde en instructie-afgestemde generatiemodellen van 8B, 70B en 405B. De instructie-afgestemde tekstmodellen zijn geoptimaliseerd voor meertalige dialogen en overtreffen veel bestaande open en gesloten chatmodellen op gangbare industriële benchmarks.",
|
||
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Een op instructies afgestemd visueel redeneermodel van Meta met 11 miljard parameters, geoptimaliseerd voor visuele herkenning, beeldredenering, ondertiteling en beeldgerelateerde vraag-en-antwoordtaken. Het begrijpt visuele gegevens zoals grafieken en diagrammen en slaat een brug tussen beeld en taal door tekstuele beschrijvingen van beeldinhoud te genereren.",
|
||
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct is een lichtgewicht meertalig model van Meta, ontworpen voor efficiënte uitvoering met aanzienlijke voordelen in snelheid en kosten ten opzichte van grotere modellen. Typische toepassingen zijn het herschrijven van zoekopdrachten/prompts en hulp bij schrijven.",
|
||
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Een op instructies afgestemd visueel redeneermodel van Meta met 90 miljard parameters, geoptimaliseerd voor visuele herkenning, beeldredenering, ondertiteling en beeldgerelateerde vraag-en-antwoordtaken. Het begrijpt visuele gegevens zoals grafieken en diagrammen en slaat een brug tussen beeld en taal door tekstuele beschrijvingen van beeldinhoud te genereren. Opmerking: dit model wordt momenteel experimenteel aangeboden als serverless model. Voor productiegebruik geldt dat Fireworks de implementatie mogelijk op korte termijn beëindigt.",
|
||
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct is de decemberupdate van Llama 3.1 70B. Het verbetert het gebruik van tools, meertalige tekstondersteuning, wiskunde en programmeren ten opzichte van de release van juli 2024. Het behaalt toonaangevende prestaties op het gebied van redeneren, wiskunde en het volgen van instructies, en biedt prestaties vergelijkbaar met 3.1 405B met aanzienlijke voordelen in snelheid en kosten.",
|
||
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "Een model met 24 miljard parameters dat prestaties levert op topniveau, vergelijkbaar met grotere modellen.",
|
||
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 is de op instructies afgestemde versie van Mixtral MoE 8x22B v0.1, met ondersteuning voor de chat completion API.",
|
||
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct is de op instructies afgestemde versie van Mixtral MoE 8x7B, met ondersteuning voor de chat completion API.",
|
||
"accounts/fireworks/models/mythomax-l2-13b.description": "Een verbeterde variant van MythoMix, mogelijk een verfijndere vorm, die MythoLogic-L2 en Huginn samenvoegt met een experimentele tensor-merge techniek. Door zijn unieke karakter is het uitermate geschikt voor verhalen vertellen en rollenspel.",
|
||
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct is een lichtgewicht, geavanceerd open multimodaal model, getraind op synthetische data en zorgvuldig geselecteerde openbare webdatasets. Het richt zich op hoogwaardige, redeneerintensieve tekst- en visuele gegevens. Het behoort tot de Phi-3-familie en ondersteunt een contextlengte van 128K tokens. Het model is grondig verbeterd via gesuperviseerde fine-tuning en directe voorkeuroptimalisatie, wat zorgt voor nauwkeurige instructieopvolging en sterke veiligheidsmaatregelen.",
|
||
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "Het Qwen QwQ-model richt zich op het verbeteren van AI-redenering en toont aan dat open modellen kunnen concurreren met gesloten topmodellen op het gebied van redenering. QwQ-32B-Preview is een experimentele release die gelijkwaardig presteert aan o1 en beter scoort dan GPT-4o en Claude 3.5 Sonnet op redenering en analyse in GPQA, AIME, MATH-500 en LiveCodeBench. Opmerking: dit model wordt momenteel experimenteel aangeboden als serverless model. Voor productiegebruik geldt dat Fireworks de implementatie mogelijk op korte termijn beëindigt.",
|
||
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "Het 72B Qwen-VL-model is de nieuwste iteratie van Alibaba, het resultaat van bijna een jaar innovatie.",
|
||
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 is een LLM-serie met alleen decoders, ontwikkeld door het Qwen-team en Alibaba Cloud. De serie biedt modellen van 0.5B, 1.5B, 3B, 7B, 14B, 32B en 72B, met zowel basis- als instructievarianten.",
|
||
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder is het nieuwste Qwen LLM-model gericht op programmeren (voorheen CodeQwen). Opmerking: dit model wordt momenteel experimenteel aangeboden als serverless model. Voor productiegebruik geldt dat Fireworks de implementatie mogelijk op korte termijn beëindigt.",
|
||
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large is een topklasse LLM die net onder GPT-4, Gemini 1.5 Pro en Claude 3 Opus staat op de LMSYS-ranglijst. Het blinkt uit in meertalige ondersteuning, met name in Spaans, Chinees, Japans, Duits en Frans. Yi-Large is ook ontwikkelaarsvriendelijk en gebruikt hetzelfde API-schema als OpenAI voor eenvoudige integratie.",
|
||
"ai21-jamba-1.5-large.description": "Een meertalig model met 398 miljard parameters (waarvan 94 miljard actief), een contextvenster van 256K, ondersteuning voor functieaanroepen, gestructureerde output en onderbouwde generatie.",
|
||
"ai21-jamba-1.5-mini.description": "Een meertalig model met 52 miljard parameters (waarvan 12 miljard actief), een contextvenster van 256K, ondersteuning voor functieaanroepen, gestructureerde output en onderbouwde generatie.",
|
||
"ai21-labs/AI21-Jamba-1.5-Large.description": "Een meertalig model met 398 miljard parameters (waarvan 94 miljard actief), een contextvenster van 256K, ondersteuning voor functieaanroepen, gestructureerde output en onderbouwde generatie.",
|
||
"ai21-labs/AI21-Jamba-1.5-Mini.description": "Een meertalig model met 52 miljard parameters (waarvan 12 miljard actief), een contextvenster van 256K, ondersteuning voor functieaanroepen, gestructureerde output en onderbouwde generatie.",
|
||
"alibaba/qwen-3-14b.description": "Qwen3 is de nieuwste generatie in de Qwen-serie en biedt een uitgebreide reeks dichte en MoE-modellen. Gebaseerd op uitgebreide training levert het doorbraken op het gebied van redenering, instructieopvolging, agentcapaciteiten en meertalige ondersteuning.",
|
||
"alibaba/qwen-3-235b.description": "Qwen3 is de nieuwste generatie in de Qwen-serie en biedt een uitgebreide reeks dichte en MoE-modellen. Gebaseerd op uitgebreide training levert het doorbraken op het gebied van redenering, instructieopvolging, agentcapaciteiten en meertalige ondersteuning.",
|
||
"alibaba/qwen-3-30b.description": "Qwen3 is de nieuwste generatie in de Qwen-serie en biedt een uitgebreide reeks dichte en MoE-modellen. Gebaseerd op uitgebreide training levert het doorbraken op het gebied van redenering, instructieopvolging, agentcapaciteiten en meertalige ondersteuning.",
|
||
"alibaba/qwen-3-32b.description": "Qwen3 is de nieuwste generatie in de Qwen-serie en biedt een uitgebreide reeks dichte en MoE-modellen. Gebaseerd op uitgebreide training levert het doorbraken op het gebied van redenering, instructieopvolging, agentcapaciteiten en meertalige ondersteuning.",
|
||
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct is Qwen’s meest geavanceerde programmeermodel, met sterke prestaties op het gebied van agentisch programmeren, browsergebruik en andere kernprogrammeertaken, vergelijkbaar met Claude Sonnet-niveau.",
|
||
"amazon/nova-lite.description": "Een zeer voordelig multimodaal model met extreem snelle verwerking van beeld-, video- en tekstinvoer.",
|
||
"amazon/nova-micro.description": "Een tekstgericht model met ultralage latentie tegen zeer lage kosten.",
|
||
"amazon/nova-pro.description": "Een krachtig multimodaal model met de beste balans tussen nauwkeurigheid, snelheid en kosten voor een breed scala aan taken.",
|
||
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 is een lichtgewicht, efficiënt meertalig embeddingmodel dat ondersteuning biedt voor 1024, 512 en 256 dimensies.",
|
||
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet stelt een nieuwe industriestandaard en overtreft concurrenten en Claude 3 Opus in brede evaluaties, terwijl het snelheid en kosten op middelhoog niveau behoudt.",
|
||
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet stelt een nieuwe industriestandaard en overtreft concurrenten en Claude 3 Opus in brede evaluaties, terwijl het snelheid en kosten op middelhoog niveau behoudt.",
|
||
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, dat vrijwel directe reacties levert op eenvoudige vragen. Het biedt een naadloze, mensachtige AI-ervaring en ondersteunt beeldinvoer met een contextvenster van 200K tokens.",
|
||
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus is het krachtigste AI-model van Anthropic met geavanceerde prestaties bij zeer complexe taken. Het verwerkt open vragen en nieuwe scenario’s met uitzonderlijke vloeiendheid en mensachtig begrip, en ondersteunt beeldinvoer met een contextvenster van 200K tokens.",
|
||
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met sterke prestaties tegen lagere kosten. Het is ontworpen als een betrouwbare krachtpatser voor grootschalige AI-implementaties en ondersteunt beeldinvoer met een contextvenster van 200K tokens.",
|
||
"anthropic.claude-instant-v1.description": "Een snel, voordelig en toch capabel model voor dagelijks chatten, tekstanalyse, samenvattingen en documentvragen.",
|
||
"anthropic.claude-v2.description": "Een zeer capabel model voor uiteenlopende taken, van complexe dialogen en creatieve generatie tot gedetailleerde instructieopvolging.",
|
||
"anthropic.claude-v2:1.description": "Een bijgewerkte versie van Claude 2 met een verdubbeld contextvenster en verbeterde betrouwbaarheid, lagere hallucinatiegraad en nauwkeurigheid op basis van bewijs voor lange documenten en RAG.",
|
||
"anthropic/claude-3-haiku.description": "Claude 3 Haiku is het snelste model van Anthropic, ontworpen voor zakelijke toepassingen met langere prompts. Het kan snel grote documenten analyseren zoals kwartaalrapporten, contracten of juridische dossiers, tegen de helft van de kosten van vergelijkbare modellen.",
|
||
"anthropic/claude-3-opus.description": "Claude 3 Opus is het meest intelligente model van Anthropic met toonaangevende prestaties bij zeer complexe taken. Het verwerkt open vragen en nieuwe scenario’s met uitzonderlijke vloeiendheid en mensachtig begrip.",
|
||
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku biedt verbeterde snelheid, nauwkeurigheid bij programmeren en interactie met tools, geschikt voor scenario’s met hoge eisen aan snelheid en hulpmiddelengebruik.",
|
||
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet is het snelle, efficiënte model binnen de Sonnet-familie, met betere prestaties op het gebied van programmeren en redeneren. Sommige versies worden geleidelijk vervangen door Sonnet 3.7 en latere modellen.",
|
||
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet is een geüpgraded Sonnet-model met sterkere redeneervermogen en programmeercapaciteiten, geschikt voor complexe taken op ondernemingsniveau.",
|
||
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 is het krachtige, snelle model van Anthropic, met zeer lage latentie en tegelijkertijd hoge nauwkeurigheid.",
|
||
"anthropic/claude-opus-4.1.description": "Opus 4.1 is het high-end model van Anthropic, geoptimaliseerd voor programmeren, complexe redenering en langdurige taken.",
|
||
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat topintelligentie combineert met schaalbare prestaties voor complexe taken die hoogwaardige redenering vereisen.",
|
||
"anthropic/claude-opus-4.description": "Opus 4 is het vlaggenschipmodel van Anthropic, ontworpen voor complexe taken en zakelijke toepassingen.",
|
||
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 is het nieuwste hybride redeneermodel van Anthropic, geoptimaliseerd voor complexe redenering en programmeren.",
|
||
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 is het hybride redeneermodel van Anthropic met een combinatie van denk- en niet-denkvermogen.",
|
||
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B is een gespreid LLM met 72 miljard totale en 16 miljard actieve parameters, gebaseerd op een gegroepeerde MoE (MoGE) architectuur. Het groepeert experts tijdens selectie en zorgt ervoor dat tokens een gelijk aantal experts per groep activeren, wat de belasting balanceert en de implementatie-efficiëntie op Ascend verbetert.",
|
||
"aya.description": "Aya 23 is Cohere’s meertalige model dat 23 talen ondersteunt voor uiteenlopende toepassingen.",
|
||
"aya:35b.description": "Aya 23 is Cohere’s meertalige model dat 23 talen ondersteunt voor uiteenlopende toepassingen.",
|
||
"azure-DeepSeek-R1-0528.description": "Ingezet door Microsoft; DeepSeek R1 is geüpgraded naar DeepSeek-R1-0528. De update verhoogt de rekenkracht en optimaliseert de algoritmes na training, wat de diepgang van redeneren en inferentie aanzienlijk verbetert. Het presteert sterk op benchmarks voor wiskunde, programmeren en algemene logica, en benadert toonaangevende modellen zoals O3 en Gemini 2.5 Pro.",
|
||
"baichuan-m2-32b.description": "Baichuan M2 32B is een MoE-model van Baichuan Intelligence met sterke redeneercapaciteiten.",
|
||
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B is een open-source, commercieel bruikbaar LLM met 13 miljard parameters van Baichuan, dat toonaangevende resultaten behaalt voor zijn grootte op gezaghebbende Chinese en Engelse benchmarks.",
|
||
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B is een MoE LLM van Baidu met 300 miljard totale parameters en 47 miljard actieve per token, wat sterke prestaties combineert met reken-efficiëntie. Als kernmodel van ERNIE 4.5 blinkt het uit in begrip, generatie, redeneren en programmeren. Het gebruikt een multimodale heterogene MoE pretraining met gecombineerde tekst-beeld training om de algehele capaciteit te versterken, vooral in instructievolging en wereldkennis.",
|
||
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview is Baidu’s volgende generatie native multimodale ERNIE-model, sterk in multimodaal begrip, instructievolging, creatie, feitelijke Q&A en toolgebruik.",
|
||
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro is een snellere, verbeterde versie van FLUX Pro met uitstekende beeldkwaliteit en nauwkeurige promptvolging.",
|
||
"black-forest-labs/flux-dev.description": "FLUX Dev is de ontwikkelversie van FLUX voor niet-commercieel gebruik.",
|
||
"black-forest-labs/flux-pro.description": "FLUX Pro is het professionele FLUX-model voor hoogwaardige beeldgeneratie.",
|
||
"black-forest-labs/flux-schnell.description": "FLUX Schnell is een snel beeldgeneratiemodel geoptimaliseerd voor snelheid.",
|
||
"c4ai-aya-expanse-32b.description": "Aya Expanse is een krachtig meertalig model met 32 miljard parameters dat gebruikmaakt van instructietuning, data-arbitrage, voorkeurstraining en modelfusie om te concurreren met eentalige modellen. Het ondersteunt 23 talen.",
|
||
"c4ai-aya-expanse-8b.description": "Aya Expanse is een krachtig meertalig model met 8 miljard parameters dat gebruikmaakt van instructietuning, data-arbitrage, voorkeurstraining en modelfusie om te concurreren met eentalige modellen. Het ondersteunt 23 talen.",
|
||
"c4ai-aya-vision-32b.description": "Aya Vision is een geavanceerd multimodaal model dat sterk presteert op belangrijke benchmarks voor taal, tekst en beeld. Het ondersteunt 23 talen. Deze 32B-versie richt zich op topprestaties in meertalige contexten.",
|
||
"c4ai-aya-vision-8b.description": "Aya Vision is een geavanceerd multimodaal model dat sterk presteert op belangrijke benchmarks voor taal, tekst en beeld. Deze 8B-versie is geoptimaliseerd voor lage latentie en sterke prestaties.",
|
||
"charglm-3.description": "CharGLM-3 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.",
|
||
"charglm-4.description": "CharGLM-4 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.",
|
||
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
||
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
||
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
||
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku presteert het beter op meerdere vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentiebenchmarks.",
|
||
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
||
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor de gebruiker. Sonnet blinkt uit in codering, datawetenschap, visuele taken en agenttoepassingen.",
|
||
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
||
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
||
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en uitgebreide redeneercapaciteiten.",
|
||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
||
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
||
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
||
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
||
"codegemma.description": "CodeGemma is een lichtgewicht model voor diverse programmeertaken, dat snelle iteratie en integratie mogelijk maakt.",
|
||
"codegemma:2b.description": "CodeGemma is een lichtgewicht model voor diverse programmeertaken, dat snelle iteratie en integratie mogelijk maakt.",
|
||
"codellama.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.",
|
||
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.",
|
||
"codellama:13b.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.",
|
||
"codellama:34b.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.",
|
||
"codellama:70b.description": "Code Llama is een LLM gericht op codegeneratie en -bespreking, met brede taalondersteuning voor ontwikkelworkflows.",
|
||
"codeqwen.description": "CodeQwen1.5 is een groot taalmodel getraind op uitgebreide codegegevens, ontworpen voor complexe programmeertaken.",
|
||
"codestral-latest.description": "Codestral is ons meest geavanceerde codemodel; versie 2 (jan 2025) is gericht op taken met lage latentie en hoge frequentie zoals FIM, codecorrectie en testgeneratie.",
|
||
"codestral.description": "Codestral is het eerste codemodel van Mistral AI, met sterke ondersteuning voor codegeneratie.",
|
||
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
||
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
||
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
||
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 is het meest geavanceerde meertalige open-source Llama-model, met prestaties vergelijkbaar met 405B tegen zeer lage kosten. Het is gebaseerd op een Transformer-architectuur en verbeterd met SFT en RLHF voor bruikbaarheid en veiligheid. De instructie-afgestemde versie is geoptimaliseerd voor meertalige chat en overtreft veel open en gesloten chatmodellen op industriestandaarden. Kennisgrens: december 2023.",
|
||
"meta/Meta-Llama-3-70B-Instruct.description": "Een krachtig model met 70 miljard parameters dat uitblinkt in redeneren, coderen en brede taaltaken.",
|
||
"meta/Meta-Llama-3-8B-Instruct.description": "Een veelzijdig model met 8 miljard parameters, geoptimaliseerd voor chat en tekstgeneratie.",
|
||
"meta/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 instructie-afgestemd tekstmodel, geoptimaliseerd voor meertalige chat, met sterke prestaties op gangbare industriestandaarden onder open en gesloten chatmodellen.",
|
||
"meta/Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 instructie-afgestemd tekstmodel, geoptimaliseerd voor meertalige chat, met sterke prestaties op gangbare industriestandaarden onder open en gesloten chatmodellen.",
|
||
"meta/Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 instructie-afgestemd tekstmodel, geoptimaliseerd voor meertalige chat, met sterke prestaties op gangbare industriestandaarden onder open en gesloten chatmodellen.",
|
||
"meta/llama-3-70b.description": "Een open-source model met 70 miljard parameters, door Meta fijngestemd voor het volgen van instructies, aangeboden door Groq op LPU-hardware voor snelle en efficiënte inferentie.",
|
||
"meta/llama-3-8b.description": "Een open-source model met 8 miljard parameters, door Meta fijngestemd voor het volgen van instructies, aangeboden door Groq op LPU-hardware voor snelle en efficiënte inferentie.",
|
||
"meta/llama-3.1-405b-instruct.description": "Een geavanceerd LLM dat synthetische datageneratie, kennisdistillatie en redenering ondersteunt voor chatbots, codering en domeinspecifieke taken.",
|
||
"meta/llama-3.1-70b-instruct.description": "Ontworpen voor complexe dialogen met uitstekend contextbegrip, redenering en tekstgeneratie.",
|
||
"meta/llama-3.1-70b.description": "Een bijgewerkte Meta Llama 3 70B Instruct met 128K context, meertalige ondersteuning en verbeterde redenering.",
|
||
"meta/llama-3.1-8b-instruct.description": "Een geavanceerd model met sterke taalbegrip, redenering en tekstgeneratie.",
|
||
"meta/llama-3.1-8b.description": "Llama 3.1 8B ondersteunt een contextvenster van 128K, ideaal voor realtime chat en data-analyse, en biedt aanzienlijke kostenbesparingen ten opzichte van grotere modellen. Aangeboden door Groq op LPU-hardware voor snelle, efficiënte inferentie.",
|
||
"meta/llama-3.2-11b-vision-instruct.description": "Een toonaangevend vision-language model dat uitblinkt in hoogwaardige redenering op basis van afbeeldingen.",
|
||
"meta/llama-3.2-11b.description": "Een instructie-afgestemd beeldredeneringsmodel (tekst+afbeelding input, tekst output), geoptimaliseerd voor visuele herkenning, beeldredenering, ondertiteling en algemene beeld-QA.",
|
||
"meta/llama-3.2-1b-instruct.description": "Een geavanceerd klein taalmodel met sterk begrip, redenering en tekstgeneratie.",
|
||
"meta/llama-3.2-1b.description": "Alleen-tekstmodel voor toepassingen op apparaten zoals meertalige lokale zoekopdrachten, samenvattingen en herschrijven.",
|
||
"meta/llama-3.2-3b-instruct.description": "Een geavanceerd klein taalmodel met sterk begrip, redenering en tekstgeneratie.",
|
||
"meta/llama-3.2-3b.description": "Alleen-tekstmodel, fijngestemd voor toepassingen op apparaten zoals meertalige lokale zoekopdrachten, samenvattingen en herschrijven.",
|
||
"meta/llama-3.2-90b-vision-instruct.description": "Een toonaangevend vision-language model dat uitblinkt in hoogwaardige redenering op basis van afbeeldingen.",
|
||
"meta/llama-3.2-90b.description": "Een instructie-afgestemd beeldredeneringsmodel (tekst+afbeelding input, tekst output), geoptimaliseerd voor visuele herkenning, beeldredenering, ondertiteling en algemene beeld-QA.",
|
||
"meta/llama-3.3-70b-instruct.description": "Een geavanceerd LLM dat sterk is in redenering, wiskunde, gezond verstand en functieaanroepen.",
|
||
"meta/llama-3.3-70b.description": "Een perfecte balans tussen prestaties en efficiëntie. Ontworpen voor hoogwaardige conversatie-AI in contentcreatie, zakelijke toepassingen en onderzoek, met sterk taalbegrip voor samenvattingen, classificatie, sentimentanalyse en codegeneratie.",
|
||
"meta/llama-4-maverick.description": "De Llama 4-familie is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt, met gebruik van MoE voor toonaangevend tekst- en beeldbegrip. Llama 4 Maverick is een 17B-model met 128 experts, aangeboden door DeepInfra.",
|
||
"meta/llama-4-scout.description": "De Llama 4-familie is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt, met gebruik van MoE voor toonaangevend tekst- en beeldbegrip. Llama 4 Scout is een 17B-model met 16 experts, aangeboden door DeepInfra.",
|
||
"moonshot-v1-128k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
|
||
"moonshot-v1-128k.description": "Moonshot V1 128K biedt een ultralange context voor het genereren van zeer lange teksten, met ondersteuning tot 128.000 tokens voor onderzoeks-, academische en grootschalige documenttoepassingen.",
|
||
"moonshot-v1-32k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
|
||
"moonshot-v1-32k.description": "Moonshot V1 32K ondersteunt 32.768 tokens voor contexten van gemiddelde lengte, ideaal voor lange documenten en complexe dialogen in contentcreatie, rapporten en chatsystemen.",
|
||
"moonshot-v1-8k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
|
||
"moonshot-v1-8k.description": "Moonshot V1 8K is geoptimaliseerd voor het genereren van korte teksten met efficiënte prestaties, en verwerkt 8.192 tokens voor korte gesprekken, notities en snelle content.",
|
||
"moonshot-v1-auto.description": "Moonshot V1 Auto kiest automatisch het juiste model op basis van het huidige gebruik van contexttokens.",
|
||
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B is een open-source code-LLM geoptimaliseerd met grootschalige reinforcement learning om robuuste, productieklare patches te genereren. Het behaalt 60,4% op SWE-bench Verified en vestigt een nieuw record voor open modellen bij geautomatiseerde software-engineeringtaken zoals bugfixes en codebeoordeling.",
|
||
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste Kimi K2. Het is een topklasse MoE-model met 1T totale en 32B actieve parameters. Belangrijke kenmerken zijn sterkere agentmatige code-intelligentie met aanzienlijke verbeteringen op benchmarks en real-world agenttaken, plus verbeterde frontend-code esthetiek en bruikbaarheid.",
|
||
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking is het nieuwste en krachtigste open-source denkmodel. Het vergroot de diepte van meerstapsredenering aanzienlijk en behoudt stabiel gebruik van tools over 200–300 opeenvolgende oproepen. Het vestigt nieuwe records op Humanity's Last Exam (HLE), BrowseComp en andere benchmarks. Het blinkt uit in codering, wiskunde, logica en agentscenario's. Gebouwd op een MoE-architectuur met ~1T totale parameters, ondersteunt het een contextvenster van 256K en toolgebruik.",
|
||
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711 is de instructievariant in de Kimi-serie, geschikt voor hoogwaardige code en toolgebruik.",
|
||
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905 is een update die context- en redeneervermogen uitbreidt met optimalisaties voor codering.",
|
||
"moonshotai/kimi-k2-instruct-0905.description": "Het kimi-k2-0905-preview model ondersteunt een contextvenster van 256k, met sterkere agentmatige codering, meer verfijnde en praktische frontend-code en beter contextbegrip.",
|
||
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo is een snelle versie van Kimi K2 Thinking, met aanzienlijk lagere latentie terwijl diepe redenering behouden blijft.",
|
||
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking is Moonshot’s redeneermodel, geoptimaliseerd voor diepgaande redeneertaken, met algemene agentcapaciteiten.",
|
||
"moonshotai/kimi-k2.description": "Kimi K2 is een groot MoE-model van Moonshot AI met 1T totale parameters en 32B actief per forward pass, geoptimaliseerd voor agentcapaciteiten zoals geavanceerd toolgebruik, redenering en codesynthese.",
|
||
"morph/morph-v3-fast.description": "Morph biedt een gespecialiseerd model om codewijzigingen toe te passen die zijn voorgesteld door frontier-modellen (zoals Claude of GPT-4o) op je bestaande bestanden met een snelheid van 4500+ tokens/sec. Het is de laatste stap in een AI-coderingworkflow en ondersteunt 16k input/output tokens.",
|
||
"morph/morph-v3-large.description": "Morph biedt een gespecialiseerd model om codewijzigingen toe te passen die zijn voorgesteld door frontier-modellen (zoals Claude of GPT-4o) op je bestaande bestanden met een snelheid van 2500+ tokens/sec. Het is de laatste stap in een AI-coderingworkflow en ondersteunt 16k input/output tokens.",
|
||
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B is een bijgewerkte versie van Nous Hermes 2 met de nieuwste intern ontwikkelde datasets.",
|
||
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B is een door NVIDIA aangepast LLM om behulpzaamheid te verbeteren. Het presteert sterk op Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat op 1 in alle drie auto-alignment benchmarks per 1 oktober 2024. Het is getraind vanuit Llama-3.1-70B-Instruct met behulp van RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts.",
|
||
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Een onderscheidend taalmodel dat uitzonderlijke nauwkeurigheid en efficiëntie levert.",
|
||
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct is een aangepast NVIDIA-model ontworpen om de behulpzaamheid van LLM-antwoorden te verbeteren.",
|
||
"o1-mini.description": "Kleiner en sneller dan o1-preview, 80% lagere kosten, sterk in codegeneratie en taken met korte context.",
|
||
"o1-preview.description": "Gefocust op geavanceerde redenering en complexe probleemoplossing, inclusief wiskunde en wetenschap. Ideaal voor toepassingen die diep contextbegrip en autonome workflows vereisen.",
|
||
"o1-pro.description": "De o1-serie is getraind met reinforcement learning om eerst te denken en complexe redenering aan te kunnen. o1-pro gebruikt meer rekenkracht voor diepere denkwijzen en levert consistent antwoorden van hogere kwaliteit.",
|
||
"o1.description": "o1 is OpenAI’s nieuwe redeneermodel met tekst+beeldinvoer en tekstuitvoer, geschikt voor complexe taken die brede kennis vereisen. Het heeft een contextvenster van 200K en een kennisgrens van oktober 2023.",
|
||
"o3-2025-04-16.description": "o3 is OpenAI’s nieuwe redeneermodel met tekst+beeldinvoer en tekstuitvoer voor complexe taken die brede kennis vereisen.",
|
||
"o3-deep-research.description": "o3-deep-research is ons meest geavanceerde model voor diepgaand onderzoek bij complexe meerstapstaken. Het kan het web doorzoeken en toegang krijgen tot je gegevens via MCP-connectors.",
|
||
"o3-mini.description": "o3-mini is ons nieuwste kleine redeneermodel, dat hogere intelligentie levert tegen dezelfde kosten- en latentiedoelen als o1-mini.",
|
||
"o3-pro-2025-06-10.description": "o3 Pro is OpenAI’s nieuwe redeneermodel met tekst+beeldinvoer en tekstuitvoer voor complexe taken die brede kennis vereisen.",
|
||
"o3-pro.description": "o3-pro gebruikt meer rekenkracht om dieper te denken en levert consequent betere antwoorden; alleen beschikbaar via de Responses API.",
|
||
"o3.description": "o3 is een krachtig allround model dat een nieuwe standaard zet voor wiskunde, wetenschap, programmeren en visuele redenering. Het blinkt uit in technisch schrijven en het volgen van instructies, en kan tekst, code en afbeeldingen analyseren voor meerstapsproblemen.",
|
||
"o4-mini-2025-04-16.description": "o4-mini is een OpenAI redeneermodel met tekst+beeldinvoer en tekstuitvoer, geschikt voor complexe taken die brede kennis vereisen, met een contextvenster van 200K.",
|
||
"o4-mini-deep-research.description": "o4-mini-deep-research is een sneller en betaalbaarder model voor diepgaand onderzoek bij complexe meerstapstaken. Het kan het web doorzoeken en ook toegang krijgen tot je gegevens via MCP-connectors.",
|
||
"o4-mini.description": "o4-mini is het nieuwste kleine model in de o-serie, geoptimaliseerd voor snelle, effectieve redenering met hoge efficiëntie in codeer- en visietaken.",
|
||
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B is een multimodaal model gebaseerd op Llama voor algemene beeld-tekstbegrip.",
|
||
"qianfan-multipicocr.description": "Qianfan MultiPicOCR is een OCR-model voor meerdere afbeeldingen dat tekst detecteert en herkent in verschillende beelden.",
|
||
"qianfan-qi-vl.description": "Qianfan QI VL is een multimodaal vraag-en-antwoordmodel voor nauwkeurige informatieopvraging en beantwoording in complexe beeld-tekstscenario's.",
|
||
"qianfan-singlepicocr.description": "Qianfan SinglePicOCR is een OCR-model voor één afbeelding met zeer nauwkeurige tekenherkenning.",
|
||
"qianfan-vl-70b.description": "Qianfan VL 70B is een groot vision-language model voor complex beeld-tekstbegrip.",
|
||
"qianfan-vl-8b.description": "Qianfan VL 8B is een lichtgewicht vision-language model voor dagelijkse beeld-tekstvragen en -analyses.",
|
||
"qvq-72b-preview.description": "QVQ-72B-Preview is een experimenteel onderzoeksmodel van Qwen gericht op het verbeteren van visueel redeneren.",
|
||
"qvq-max.description": "Het Qwen QVQ visueel redeneermodel ondersteunt visuele input en keten-van-gedachten output, met sterke prestaties in wiskunde, codering, visuele analyse, creativiteit en algemene taken.",
|
||
"qvq-plus.description": "Visueel redeneermodel met visuele input en keten-van-gedachten output. De qvq-plus-serie volgt op qvq-max en biedt snellere redenering met een betere balans tussen kwaliteit en kosten.",
|
||
"qwen-3-32b.description": "Qwen 3 32B: sterk in meertalige en programmeertaken, geschikt voor middelgrote productieomgevingen.",
|
||
"qwen-coder-plus.description": "Qwen codeermodel.",
|
||
"qwen-coder-turbo-latest.description": "Qwen codeermodel.",
|
||
"qwen-coder-turbo.description": "Qwen codeermodel.",
|
||
"qwen-flash.description": "Snelste en goedkoopste Qwen-model, ideaal voor eenvoudige taken.",
|
||
"qwen-image-edit.description": "Qwen Image Edit is een beeld-naar-beeldmodel dat afbeeldingen bewerkt op basis van invoerafbeeldingen en tekstprompts, voor nauwkeurige aanpassingen en creatieve transformaties.",
|
||
"qwen-image.description": "Qwen-Image is een algemeen beeldgeneratiemodel dat meerdere kunststijlen ondersteunt en complexe tekstweergave aankan, vooral in het Chinees en Engels. Het ondersteunt meerregelige lay-outs, tekst op alinea-niveau en fijne details voor complexe tekst-beeldcombinaties.",
|
||
"qwen-long.description": "Ultragroot Qwen-model met lange context en chatmogelijkheden over lange en meerdere documenten.",
|
||
"qwen-math-plus-latest.description": "Qwen Math is een taalmodel gespecialiseerd in het oplossen van wiskundige problemen.",
|
||
"qwen-math-plus.description": "Qwen Math is een taalmodel gespecialiseerd in het oplossen van wiskundige problemen.",
|
||
"qwen-math-turbo-latest.description": "Qwen Math is een taalmodel gespecialiseerd in het oplossen van wiskundige problemen.",
|
||
"qwen-math-turbo.description": "Qwen Math is een taalmodel gespecialiseerd in het oplossen van wiskundige problemen.",
|
||
"qwen-max.description": "Qwen-model op honderd miljard-schaal dat Chinees, Engels en andere talen ondersteunt; het API-model achter de huidige Qwen2.5-producten.",
|
||
"qwen-omni-turbo.description": "Qwen-Omni-modellen ondersteunen multimodale input (video, audio, afbeeldingen, tekst) en output in audio en tekst.",
|
||
"qwen-plus.description": "Verbeterd ultragroot Qwen-model dat Chinees, Engels en andere talen ondersteunt.",
|
||
"qwen-turbo.description": "Qwen Turbo wordt niet langer bijgewerkt; vervang door Qwen Flash. Ultragroot Qwen-model dat Chinees, Engels en andere talen ondersteunt.",
|
||
"qwen-vl-chat-v1.description": "Qwen VL ondersteunt flexibele interacties zoals invoer van meerdere afbeeldingen, meerstaps vraag-en-antwoord en creatieve taken.",
|
||
"qwen-vl-max-latest.description": "Ultragroot Qwen vision-language model. Vergeleken met de verbeterde versie biedt het betere visuele redenering en instructieopvolging voor sterkere waarneming en cognitie.",
|
||
"qwen-vl-max.description": "Ultragroot Qwen vision-language model. Vergeleken met de verbeterde versie biedt het betere visuele redenering en instructieopvolging voor sterkere visuele waarneming en cognitie.",
|
||
"qwen-vl-ocr.description": "Qwen OCR is een model voor tekstuittrekking uit documenten, tabellen, examenafbeeldingen en handschrift. Het ondersteunt Chinees, Engels, Frans, Japans, Koreaans, Duits, Russisch, Italiaans, Vietnamees en Arabisch.",
|
||
"qwen-vl-plus-latest.description": "Verbeterd grootschalig Qwen vision-language model met grote verbeteringen in detail- en tekstherkenning, ondersteunt resoluties boven één megapixel en willekeurige beeldverhoudingen.",
|
||
"qwen-vl-plus.description": "Verbeterd grootschalig Qwen vision-language model met grote verbeteringen in detail- en tekstherkenning, ondersteunt resoluties boven één megapixel en willekeurige beeldverhoudingen.",
|
||
"qwen-vl-v1.description": "Voorgetraind model gebaseerd op Qwen-7B met een toegevoegd visiemodule en 448 beeldresolutie-invoer.",
|
||
"qwen/qwen-2-7b-instruct.description": "Qwen2 is de nieuwe Qwen LLM-serie. Qwen2 7B is een transformer-gebaseerd model dat uitblinkt in taalbegrip, meertaligheid, programmeren, wiskunde en redeneren.",
|
||
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 is een nieuwe familie van grote taalmodellen met sterker begrip en generatievermogen.",
|
||
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL is de nieuwste iteratie van Qwen-VL en behaalt state-of-the-art prestaties op visuele benchmarks zoals MathVista, DocVQA, RealWorldQA en MTVQA. Het kan meer dan 20 minuten video begrijpen voor hoogwaardige video-vraag-en-antwoord, dialoog en contentcreatie. Het verwerkt ook complexe redenering en besluitvorming, en integreert met mobiele apparaten en robots om te handelen op basis van visuele context en tekstinstructies. Naast Engels en Chinees leest het ook tekst in afbeeldingen in vele talen, waaronder de meeste Europese talen, Japans, Koreaans, Arabisch en Vietnamees.",
|
||
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct is een van de nieuwste LLM-releases van Alibaba Cloud. Het 72B-model biedt aanzienlijke verbeteringen in codering en wiskunde, ondersteunt meer dan 29 talen (waaronder Chinees en Engels), en verbetert instructieopvolging, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
||
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct is een van de nieuwste LLM-releases van Alibaba Cloud. Het 32B-model biedt aanzienlijke verbeteringen in codering en wiskunde, ondersteunt meer dan 29 talen (waaronder Chinees en Engels), en verbetert instructieopvolging, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
||
"qwen/qwen2.5-7b-instruct.description": "Een tweetalig LLM voor Chinees en Engels op het gebied van taal, codering, wiskunde en redenering.",
|
||
"qwen/qwen2.5-coder-32b-instruct.description": "Een geavanceerd LLM voor codegeneratie, redenering en reparatie in gangbare programmeertalen.",
|
||
"qwen/qwen2.5-coder-7b-instruct.description": "Een krachtig middelgroot codeermodel met 32K context, uitblinkend in meertalig programmeren.",
|
||
"qwen/qwen3-14b.description": "Qwen3-14B is de 14B-variant voor algemene redenering en chatscenario's.",
|
||
"qwen/qwen3-14b:free.description": "Qwen3-14B is een dense 14,8B-parameter causaal LLM gebouwd voor complexe redenering en efficiënte chat. Het schakelt tussen een denkmodus voor wiskunde, codering en logica en een niet-denkmodus voor algemene chat. Fijn afgestemd op instructieopvolging, gebruik van agenttools en creatief schrijven in meer dan 100 talen en dialecten. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
|
||
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 is de instructievariant in de Qwen3-serie, die meertalige instructietaken combineert met scenario's met lange context.",
|
||
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 is de Thinking-variant van Qwen3, versterkt voor complexe wiskundige en redeneertaken.",
|
||
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B is een 235B-parameter MoE-model van Qwen met 22B actief per forward pass. Het schakelt tussen een denkmodus voor complexe redenering, wiskunde en codering en een niet-denkmodus voor efficiënte chat. Het biedt sterke redenering, meertalige ondersteuning (100+ talen/dialecten), geavanceerde instructieopvolging en gebruik van agenttools. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
|
||
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B is een 235B-parameter MoE-model van Qwen met 22B actief per forward pass. Het schakelt tussen een denkmodus voor complexe redenering, wiskunde en codering en een niet-denkmodus voor efficiënte chat. Het biedt sterke redenering, meertalige ondersteuning (100+ talen/dialecten), geavanceerde instructieopvolging en gebruik van agenttools. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
|
||
"qwen/qwen3-30b-a3b.description": "Qwen3 is de nieuwste generatie Qwen LLM met dense en MoE-architecturen, uitblinkend in redenering, meertalige ondersteuning en geavanceerde agenttaken. De unieke mogelijkheid om te schakelen tussen een denkmodus voor complexe redenering en een niet-denkmodus voor efficiënte chat zorgt voor veelzijdige, hoogwaardige prestaties.\n\nQwen3 presteert aanzienlijk beter dan eerdere modellen zoals QwQ en Qwen2.5, met uitstekende resultaten in wiskunde, codering, alledaagse redenering, creatief schrijven en interactieve chat. De Qwen3-30B-A3B-variant heeft 30,5B parameters (3,3B actief), 48 lagen, 128 experts (8 actief per taak) en ondersteunt tot 131K context met YaRN, en zet een nieuwe standaard voor open modellen.",
|
||
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct is een toonaangevend codeermodel voor meertalige programmering en complexe codebegrip.",
|
||
"qwen3-coder-flash.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
|
||
"qwen3-coder-plus.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
|
||
"qwen3-coder:480b.description": "Alibaba’s krachtige model met lange context voor agent- en programmeertaken.",
|
||
"qwen3-max-preview.description": "Best presterend Qwen-model voor complexe, meerstaps taken. De preview ondersteunt denkprocessen.",
|
||
"qwen3-max.description": "Qwen3 Max-modellen bieden aanzienlijke verbeteringen ten opzichte van de 2.5-serie op het gebied van algemene capaciteiten, Chinees/Engels begrip, complexe instructieopvolging, subjectieve open taken, meertaligheid en gereedschapsgebruik, met minder hallucinaties. De nieuwste qwen3-max verbetert programmeeragenten en gereedschapsgebruik ten opzichte van qwen3-max-preview. Deze release bereikt SOTA in het veld en richt zich op complexere agentbehoeften.",
|
||
"qwen3-next-80b-a3b-instruct.description": "Volgende generatie Qwen3 open-source model zonder denkmodus. Vergeleken met de vorige versie (Qwen3-235B-A22B-Instruct-2507) heeft het een beter Chinees begrip, sterkere logische redenering en verbeterde tekstgeneratie.",
|
||
"qwen3-next-80b-a3b-thinking.description": "Qwen3 Next 80B A3B Thinking is een toonaangevende redeneerversie voor complexe taken.",
|
||
"qwen3-omni-flash.description": "Qwen-Omni accepteert gecombineerde invoer van tekst, afbeeldingen, audio en video, en genereert tekst of spraak. Het biedt meerdere natuurlijke stemstijlen, ondersteunt meertalige en dialectspraak, en is geschikt voor toepassingen zoals schrijven, visuele herkenning en spraakassistenten.",
|
||
"qwen3-vl-235b-a22b-instruct.description": "Qwen3 VL 235B A22B Instruct is een toonaangevend multimodaal model voor veeleisend begrip en creatie.",
|
||
"qwen3-vl-235b-a22b-thinking.description": "Qwen3 VL 235B A22B Thinking is de toonaangevende redeneerversie voor complexe multimodale redenering en planning.",
|
||
"qwen3-vl-30b-a3b-instruct.description": "Qwen3 VL 30B A3B Instruct is een groot multimodaal model dat nauwkeurigheid en redeneervermogen in balans brengt.",
|
||
"qwen3-vl-30b-a3b-thinking.description": "Qwen3 VL 30B A3B Thinking is een diepdenkende versie voor complexe multimodale taken.",
|
||
"qwen3-vl-32b-instruct.description": "Qwen3 VL 32B Instruct is een multimodaal model getraind op instructies voor hoogwaardige beeld-tekst vraag-antwoord en creatie.",
|
||
"qwen3-vl-32b-thinking.description": "Qwen3 VL 32B Thinking is een diepdenkende multimodale versie voor complexe redenering en ketenanalyse.",
|
||
"qwen3-vl-8b-instruct.description": "Qwen3 VL 8B Instruct is een lichtgewicht multimodaal model voor dagelijkse visuele vraag-antwoord en app-integratie.",
|
||
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is een multimodaal keten-van-gedachten model voor gedetailleerde visuele redenering.",
|
||
"qwen3-vl-flash.description": "Qwen3 VL Flash: lichtgewicht, snelle redeneerversie voor latency-gevoelige of grootschalige verzoeken.",
|
||
"qwen3-vl-plus.description": "Qwen VL is een tekstgeneratiemodel met visueel begrip. Het kan OCR uitvoeren en ook samenvatten en redeneren, zoals het extraheren van kenmerken uit productfoto’s of het oplossen van problemen op basis van afbeeldingen.",
|
||
"qwen3.description": "Qwen3 is Alibaba’s volgende generatie groot taalmodel met sterke prestaties in diverse toepassingen.",
|
||
"qwq-32b-preview.description": "QwQ is een experimenteel onderzoeksmodel van Qwen gericht op verbeterde redenering.",
|
||
"qwq-32b.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.",
|
||
"qwq-plus.description": "QwQ redeneermodel getraind op Qwen2.5 gebruikt RL om redenering sterk te verbeteren. Kernmetingen in wiskunde/code (AIME 24/25, LiveCodeBench) en enkele algemene benchmarks (IFEval, LiveBench) bereiken het niveau van DeepSeek-R1.",
|
||
"qwq.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.",
|
||
"qwq_32b.description": "Middelgroot redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen verbeteren QwQ’s denk- en redeneervermogen de prestaties op complexe problemen aanzienlijk.",
|
||
"r1-1776.description": "R1-1776 is een na-getrainde variant van DeepSeek R1, ontworpen om ongecensureerde, onbevooroordeelde feitelijke informatie te bieden.",
|
||
"solar-mini-ja.description": "Solar Mini (Ja) breidt Solar Mini uit met focus op Japans, terwijl het efficiënte, sterke prestaties in Engels en Koreaans behoudt.",
|
||
"solar-mini.description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige ondersteuning voor Engels en Koreaans, en biedt een efficiënte oplossing met een kleine voetafdruk.",
|
||
"solar-pro.description": "Solar Pro is een intelligent LLM van Upstage, gericht op instructieopvolging op een enkele GPU, met IFEval-scores boven de 80. Momenteel ondersteunt het Engels; de volledige release stond gepland voor november 2024 met uitgebreidere taalondersteuning en langere context.",
|
||
"sonar-deep-research.description": "Deep Research voert diepgaand onderzoek op expertniveau uit en zet dit om in toegankelijke, bruikbare rapporten.",
|
||
"sonar-pro.description": "Een geavanceerd zoekproduct met zoekverankering voor complexe vragen en vervolgvragen.",
|
||
"sonar-reasoning-pro.description": "Een geavanceerd zoekproduct met zoekverankering voor complexe vragen en vervolgvragen.",
|
||
"sonar-reasoning.description": "Een geavanceerd zoekproduct met zoekverankering voor complexe vragen en vervolgvragen.",
|
||
"sonar.description": "Een lichtgewicht zoekproduct met verankering, sneller en goedkoper dan Sonar Pro.",
|
||
"spark-x.description": "X1.5-updates: (1) voegt dynamische denkmodus toe via het veld `thinking`; (2) grotere contextlengte met 64K invoer en 64K uitvoer; (3) ondersteunt FunctionCall.",
|
||
"stable-diffusion-3-medium.description": "Het nieuwste tekst-naar-beeldmodel van Stability AI. Deze versie verbetert de beeldkwaliteit, tekstbegrip en stijlvariatie aanzienlijk, interpreteert complexe natuurlijke taal nauwkeuriger en genereert preciezere, gevarieerdere beelden.",
|
||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo past adversarial diffusion distillation (ADD) toe op stable-diffusion-3.5-large voor hogere snelheid.",
|
||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is een 800M-parameter MMDiT tekst-naar-beeldmodel met uitstekende kwaliteit en prompt-afstemming, ondersteunt 1-megapixel beelden en draait efficiënt op consumentenhardware.",
|
||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 is geïnitialiseerd vanuit het v1.2-checkpoint en fijngestemd voor 595k stappen op \"laion-aesthetics v2 5+\" bij 512x512 resolutie, met 10% minder tekstconditionering voor verbeterde classifier-free guidance sampling.",
|
||
"stable-diffusion-xl-base-1.0.description": "Een open-source tekst-naar-beeldmodel van Stability AI met toonaangevende creatieve beeldgeneratie. Het heeft sterk instructiebegrip en ondersteunt omgekeerde promptdefinities voor nauwkeurige generatie.",
|
||
"stable-diffusion-xl.description": "stable-diffusion-xl biedt grote verbeteringen ten opzichte van v1.5 en evenaart de beste open tekst-naar-beeldresultaten. Verbeteringen omvatten een 3x grotere UNet-backbone, een verfijningsmodule voor betere beeldkwaliteit en efficiëntere trainingstechnieken.",
|
||
"step-1-128k.description": "Balanceert prestaties en kosten voor algemene scenario’s.",
|
||
"step-1-256k.description": "Extra lange contextverwerking, ideaal voor analyse van lange documenten.",
|
||
"step-1-32k.description": "Ondersteunt middellange gesprekken voor een breed scala aan scenario’s.",
|
||
"step-1-8k.description": "Klein model geschikt voor lichte taken.",
|
||
"step-1-flash.description": "Hogesnelheidsmodel geschikt voor realtime chat.",
|
||
"step-1.5v-mini.description": "Sterke videobegripscapaciteiten.",
|
||
"step-1o-turbo-vision.description": "Sterk beeldbegrip, beter dan 1o in wiskunde en codering. Kleiner dan 1o met snellere output.",
|
||
"step-1o-vision-32k.description": "Sterk beeldbegrip met betere visuele prestaties dan de Step-1V-serie.",
|
||
"step-1v-32k.description": "Ondersteunt visuele invoer voor rijkere multimodale interactie.",
|
||
"step-1v-8k.description": "Klein visiemodel voor basis beeld-en-tekst taken.",
|
||
"step-1x-edit.description": "Dit model richt zich op bewerken van afbeeldingen, aanpassen en verbeteren op basis van door de gebruiker aangeleverde afbeeldingen en tekst. Ondersteunt meerdere invoerformaten, waaronder tekstbeschrijvingen en voorbeeldafbeeldingen, en genereert bewerkingen die aansluiten bij de gebruikersintentie.",
|
||
"step-1x-medium.description": "Dit model biedt sterke beeldgeneratie op basis van tekstprompts. Met native ondersteuning voor Chinees begrijpt het Chinese beschrijvingen beter, vangt hun semantiek en zet deze om in visuele kenmerken voor nauwkeurigere generatie. Het produceert beelden van hoge resolutie en kwaliteit en ondersteunt een zekere mate van stijltransformatie.",
|
||
"step-2-16k-exp.description": "Experimentele Step-2-versie met de nieuwste functies en doorlopende updates. Niet aanbevolen voor productie.",
|
||
"step-2-16k.description": "Ondersteunt interacties met grote context voor complexe dialogen.",
|
||
"step-2-mini.description": "Gebouwd op de volgende generatie interne MFA-attentiearchitectuur, levert Step-1-achtige resultaten tegen veel lagere kosten met hogere doorvoer en snellere latency. Behandelt algemene taken met sterke codeercapaciteit.",
|
||
"step-2x-large.description": "Een nieuwe generatie StepFun-beeldmodel gericht op beeldgeneratie, produceert beelden van hoge kwaliteit op basis van tekstprompts. Levert realistischere texturen en sterkere Chinese/Engelse tekstrendering.",
|
||
"whisper-1.description": "Een algemeen spraakherkenningsmodel dat meertalige ASR, spraakvertaling en taalidentificatie ondersteunt.",
|
||
"wizardlm2.description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe dialogen, meertalige taken, redeneren en assistenttoepassingen.",
|
||
"wizardlm2:8x22b.description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe dialogen, meertalige taken, redeneren en assistenttoepassingen.",
|
||
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (Zonder Redenering) is xAI’s multimodale model met hoge verwerkingssnelheid en lage kosten (ondersteunt een contextvenster van 2M), bedoeld voor scenario’s die gevoelig zijn voor latentie en kosten en geen redenering binnen het model vereisen. Het staat naast de versie met redenering van Grok 4 Fast, waarbij redenering via de API-parameter kan worden ingeschakeld indien nodig. Prompts en antwoorden kunnen door xAI of OpenRouter worden gebruikt om toekomstige modellen te verbeteren.",
|
||
"x-ai/grok-4-fast.description": "Grok 4 Fast is xAI’s model met hoge verwerkingssnelheid en lage kosten (ondersteunt een contextvenster van 2M), ideaal voor toepassingen met hoge gelijktijdigheid en lange contexten.",
|
||
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4.1 Fast (Zonder Redenering) is xAI’s multimodale model met hoge verwerkingssnelheid en lage kosten (ondersteunt een contextvenster van 2M), bedoeld voor scenario’s die gevoelig zijn voor latentie en kosten en geen redenering binnen het model vereisen. Het staat naast de versie met redenering van Grok 4.1 Fast, waarbij redenering via de API-parameter kan worden ingeschakeld indien nodig. Prompts en antwoorden kunnen door xAI of OpenRouter worden gebruikt om toekomstige modellen te verbeteren.",
|
||
"x-ai/grok-4.1-fast.description": "Grok 4.1 Fast is xAI’s model met hoge verwerkingssnelheid en lage kosten (ondersteunt een contextvenster van 2M), ideaal voor toepassingen met hoge gelijktijdigheid en lange contexten.",
|
||
"x-ai/grok-4.description": "Grok 4 is xAI's toonaangevende model voor redenering met sterke multimodale capaciteiten.",
|
||
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 is xAI's snelle codemodel met leesbare, gebruiksvriendelijke output voor engineers.",
|
||
"xai/grok-2-vision.description": "Grok 2 Vision blinkt uit in visuele taken en levert SOTA-prestaties op visuele wiskundige redenering (MathVista) en documentvragen (DocVQA). Het verwerkt documenten, grafieken, diagrammen, schermafbeeldingen en foto's.",
|
||
"xai/grok-2.description": "Grok 2 is een geavanceerd model met state-of-the-art redenering, sterke chat-, codeer- en redeneercapaciteiten, en scoort hoger dan Claude 3.5 Sonnet en GPT-4 Turbo op LMSYS.",
|
||
"xai/grok-3-fast.description": "xAI’s vlaggenschipmodel blinkt uit in zakelijke toepassingen zoals data-extractie, codering en samenvatting, met diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap. De snelle variant draait op snellere infrastructuur voor veel snellere reacties tegen hogere kosten per token.",
|
||
"xai/grok-3-mini-fast.description": "xAI’s lichtgewicht model dat eerst nadenkt voordat het antwoordt, ideaal voor eenvoudige of logische taken zonder diepgaande domeinkennis. Ruwe redeneertraceringen zijn beschikbaar. De snelle variant draait op snellere infrastructuur voor veel snellere reacties tegen hogere kosten per token.",
|
||
"xai/grok-3-mini.description": "xAI’s lichtgewicht model dat eerst nadenkt voordat het antwoordt, ideaal voor eenvoudige of logische taken zonder diepgaande domeinkennis. Ruwe redeneertraceringen zijn beschikbaar.",
|
||
"xai/grok-3.description": "xAI’s vlaggenschipmodel blinkt uit in zakelijke toepassingen zoals data-extractie, codering en samenvatting, met diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap.",
|
||
"xai/grok-4.description": "xAI’s nieuwste vlaggenschipmodel met ongeëvenaarde prestaties in natuurlijke taal, wiskunde en redenering—een ideale alleskunner.",
|
||
"yi-large-fc.description": "Gebouwd op yi-large met verbeterde tool-integratie, geschikt voor agent- en workflowscenario’s.",
|
||
"yi-large-preview.description": "Een vroege versie; yi-large (nieuwer) wordt aanbevolen.",
|
||
"yi-large-rag.description": "Een geavanceerde service gebaseerd op yi-large, die ophalen en genereren combineert voor nauwkeurige antwoorden met realtime webzoekopdrachten.",
|
||
"yi-large-turbo.description": "Uitzonderlijke waarde en prestaties, afgestemd op een sterke balans tussen kwaliteit, snelheid en kosten.",
|
||
"yi-large.description": "Een nieuw model met 100 miljard parameters met sterke Q&A- en tekstgeneratiecapaciteiten.",
|
||
"yi-lightning-lite.description": "Een lichtgewicht versie; yi-lightning wordt aanbevolen.",
|
||
"yi-lightning.description": "Een recent hoogwaardig model met snellere inferentie en output van hoge kwaliteit.",
|
||
"yi-medium-200k.description": "Een 200K lang-contextmodel voor diepgaand begrip en generatie van lange teksten.",
|
||
"yi-medium.description": "Een afgestemd model van gemiddelde grootte met gebalanceerde capaciteiten en waarde, geoptimaliseerd voor instructievolging.",
|
||
"yi-spark.description": "Een compact, snel model met versterkte wiskundige en codeercapaciteiten.",
|
||
"yi-vision-v2.description": "Een visiemodel voor complexe taken met sterke multi-image interpretatie en analyse.",
|
||
"yi-vision.description": "Een visiemodel voor complexe taken met sterke beeldinterpretatie en analyse.",
|
||
"z-ai/glm-4.5-air.description": "GLM 4.5 Air is een lichtgewicht variant van GLM 4.5 voor kostenbewuste scenario’s, met behoud van sterke redeneercapaciteiten.",
|
||
"z-ai/glm-4.5.description": "GLM 4.5 is Z.AI’s vlaggenschipmodel met hybride redenering, geoptimaliseerd voor engineering- en lang-contexttaken.",
|
||
"z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's vlaggenschipmodel met uitgebreide contextlengte en codeercapaciteiten.",
|
||
"zai-glm-4.6.description": "Presteert goed op codeer- en redeneertaken, ondersteunt streaming en toolgebruik, en is geschikt voor agentgebaseerd coderen en complexe redenering.",
|
||
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is een basismodel voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenario’s aan te kunnen.",
|
||
"zai-org/GLM-4.5.description": "GLM-4.5 is een basismodel gebouwd voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is diepgaand geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenario’s aan te kunnen.",
|
||
"zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AI’s nieuwste VLM, gebaseerd op het GLM-4.5-Air vlaggenschiptekstmodel (106B totaal, 12B actief) met een MoE-architectuur voor sterke prestaties tegen lagere kosten. Het volgt het GLM-4.1V-Thinking pad en voegt 3D-RoPE toe voor verbeterde 3D-ruimtelijke redenering. Geoptimaliseerd via pretraining, SFT en RL, verwerkt het beelden, video’s en lange documenten en scoort het hoog op 41 openbare multimodale benchmarks. Een Thinking-modus schakelaar laat gebruikers kiezen tussen snelheid en diepgang.",
|
||
"zai-org/GLM-4.6.description": "In vergelijking met GLM-4.5 breidt GLM-4.6 de context uit van 128K naar 200K voor complexere agenttaken. Het scoort hoger op codebenchmarks en toont sterkere prestaties in toepassingen zoals Claude Code, Cline, Roo Code en Kilo Code, inclusief betere frontendpagina-generatie. Redenering is verbeterd en toolgebruik wordt ondersteund tijdens het redeneren, wat de algehele capaciteit versterkt. Het integreert beter in agentframeworks, verbetert tool-/zoekagents en heeft een natuurlijkere schrijfstijl en rolspelervaring.",
|
||
"zai/glm-4.5-air.description": "GLM-4.5 en GLM-4.5-Air zijn onze nieuwste vlaggenschipmodellen voor agenttoepassingen, beide gebruikmakend van MoE. GLM-4.5 heeft 355B totaal en 32B actief per forward pass; GLM-4.5-Air is slanker met 106B totaal en 12B actief.",
|
||
"zai/glm-4.5.description": "De GLM-4.5-serie is ontworpen voor agents. Het vlaggenschip GLM-4.5 combineert redenering, codering en agentvaardigheden met 355B totale parameters (32B actief) en biedt dubbele werkmodi als hybride redeneersysteem.",
|
||
"zai/glm-4.5v.description": "GLM-4.5V is gebaseerd op GLM-4.5-Air, erft bewezen technieken van GLM-4.1V-Thinking en schaalt met een krachtige 106B-parameter MoE-architectuur.",
|
||
"zenmux/auto.description": "ZenMux auto-routing selecteert het best presterende en meest kostenefficiënte model uit de ondersteunde opties op basis van je aanvraag."
|
||
}
|