mirror of
https://github.com/lobehub/lobehub
synced 2026-04-21 09:37:28 +00:00
3632 lines
341 KiB
JSON
3632 lines
341 KiB
JSON
{
|
||
"01-ai/yi-1.5-34b-chat": {
|
||
"description": "Zero One Everything, en son açık kaynak ince ayar modelidir, 34 milyar parametreye sahiptir, ince ayar çeşitli diyalog senaryolarını destekler, yüksek kaliteli eğitim verileri ile insan tercihleri ile hizalanmıştır."
|
||
},
|
||
"01-ai/yi-1.5-9b-chat": {
|
||
"description": "Zero One Everything, en son açık kaynak ince ayar modelidir, 9 milyar parametreye sahiptir, ince ayar çeşitli diyalog senaryolarını destekler, yüksek kaliteli eğitim verileri ile insan tercihleri ile hizalanmıştır."
|
||
},
|
||
"360/deepseek-r1": {
|
||
"description": "[360 Dağıtım Versiyonu] DeepSeek-R1, son eğitim aşamasında geniş çapta pekiştirme öğrenimi teknikleri kullanarak, çok az etiketli veri ile modelin çıkarım yeteneğini büyük ölçüde artırmıştır. Matematik, kod, doğal dil çıkarımı gibi görevlerde, OpenAI o1 resmi sürümü ile benzer performans sergilemektedir."
|
||
},
|
||
"360gpt-pro": {
|
||
"description": "360GPT Pro, 360 AI model serisinin önemli bir üyesi olarak, çeşitli doğal dil uygulama senaryolarını karşılamak için etkili metin işleme yeteneği sunar, uzun metin anlama ve çoklu diyalog gibi işlevleri destekler."
|
||
},
|
||
"360gpt-pro-trans": {
|
||
"description": "Çeviri için özel olarak tasarlanmış model, derinlemesine ince ayar yapılmış ve çeviri sonuçları lider konumdadır."
|
||
},
|
||
"360gpt-turbo": {
|
||
"description": "360GPT Turbo, güçlü hesaplama ve diyalog yetenekleri sunar, mükemmel anlam anlama ve oluşturma verimliliğine sahiptir, işletmeler ve geliştiriciler için ideal bir akıllı asistan çözümüdür."
|
||
},
|
||
"360gpt-turbo-responsibility-8k": {
|
||
"description": "360GPT Turbo Responsibility 8K, anlam güvenliği ve sorumluluk odaklılığı vurgular, içerik güvenliği konusunda yüksek gereksinimlere sahip uygulama senaryoları için tasarlanmıştır, kullanıcı deneyiminin doğruluğunu ve sağlamlığını garanti eder."
|
||
},
|
||
"360gpt2-o1": {
|
||
"description": "360gpt2-o1, düşünce zincirini ağaç arama ile inşa eder ve yansıtma mekanizmasını entegre eder, pekiştirme öğrenimi ile eğitilir, model kendini yansıtma ve hata düzeltme yeteneğine sahiptir."
|
||
},
|
||
"360gpt2-pro": {
|
||
"description": "360GPT2 Pro, 360 şirketi tarafından sunulan yüksek düzeyde doğal dil işleme modelidir, mükemmel metin oluşturma ve anlama yeteneğine sahiptir, özellikle oluşturma ve yaratma alanında olağanüstü performans gösterir, karmaşık dil dönüşümleri ve rol canlandırma görevlerini işleyebilir."
|
||
},
|
||
"360zhinao2-o1": {
|
||
"description": "360zhinao2-o1, düşünce zincirini oluşturmak için ağaç araması kullanır ve yansıtma mekanizmasını entegre eder, pekiştirme öğrenimi ile eğitilir, model kendini yansıtma ve hata düzeltme yeteneğine sahiptir."
|
||
},
|
||
"4.0Ultra": {
|
||
"description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür."
|
||
},
|
||
"AnimeSharp": {
|
||
"description": "AnimeSharp (diğer adıyla “4x‑AnimeSharp”), Kim2091 tarafından ESRGAN mimarisi temel alınarak geliştirilen açık kaynaklı bir süper çözünürlük modelidir ve anime tarzı görüntülerin büyütülmesi ve keskinleştirilmesine odaklanır. Şubat 2022'de “4x-TextSharpV1” olarak yeniden adlandırılmıştır; başlangıçta metin görüntüleri için de uygundu ancak performansı anime içeriği için önemli ölçüde optimize edilmiştir."
|
||
},
|
||
"Baichuan2-Turbo": {
|
||
"description": "Arama artırma teknolojisi kullanarak büyük model ile alan bilgisi ve tüm ağ bilgisi arasında kapsamlı bir bağlantı sağlar. PDF, Word gibi çeşitli belge yüklemelerini ve URL girişini destekler, bilgi edinimi zamanında ve kapsamlıdır, çıktı sonuçları doğru ve profesyoneldir."
|
||
},
|
||
"Baichuan3-Turbo": {
|
||
"description": "Kurumsal yüksek frekanslı senaryolar için optimize edilmiş, etkisi büyük ölçüde artırılmış ve yüksek maliyet etkinliği sunmaktadır. Baichuan2 modeline kıyasla, içerik üretimi %20, bilgi sorgulama %17, rol oynama yeteneği %40 oranında artmıştır. Genel performansı GPT3.5'ten daha iyidir."
|
||
},
|
||
"Baichuan3-Turbo-128k": {
|
||
"description": "128K ultra uzun bağlam penceresine sahip, kurumsal yüksek frekanslı senaryolar için optimize edilmiş, etkisi büyük ölçüde artırılmış ve yüksek maliyet etkinliği sunmaktadır. Baichuan2 modeline kıyasla, içerik üretimi %20, bilgi sorgulama %17, rol oynama yeteneği %40 oranında artmıştır. Genel performansı GPT3.5'ten daha iyidir."
|
||
},
|
||
"Baichuan4": {
|
||
"description": "Model yetenekleri ülke içinde birinci sırada, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde yurtdışındaki önde gelen modelleri geride bırakmaktadır. Ayrıca, sektör lideri çok modlu yeteneklere sahiptir ve birçok yetkili değerlendirme kriterinde mükemmel performans göstermektedir."
|
||
},
|
||
"Baichuan4-Air": {
|
||
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
||
},
|
||
"Baichuan4-Turbo": {
|
||
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
||
},
|
||
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
|
||
"description": "Seed-OSS, ByteDance Seed ekibi tarafından geliştirilen, güçlü uzun bağlam işleme, akıl yürütme, ajan (agent) ve genel yetenekler için tasarlanmış bir dizi açık kaynaklı büyük dil modelidir. Bu serideki Seed-OSS-36B-Instruct, 36 milyar parametreye sahip bir talimat ince ayar modelidir ve doğal olarak çok uzun bağlam uzunluğunu destekleyerek, büyük belgeleri veya karmaşık kod tabanlarını tek seferde işleyebilmesini sağlar. Model, akıl yürütme, kod üretimi ve araç kullanımı gibi ajan görevlerinde özel olarak optimize edilmiştir ve dengeli, üstün genel yetenekler sunar. Modelin önemli bir özelliği olan “Düşünme Bütçesi” fonksiyonu, kullanıcıların ihtiyaçlarına göre akıl yürütme uzunluğunu esnek şekilde ayarlamasına olanak tanır ve böylece gerçek uygulamalarda akıl yürütme verimliliğini artırır."
|
||
},
|
||
"DeepSeek-R1": {
|
||
"description": "En gelişmiş verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
|
||
},
|
||
"DeepSeek-R1-Distill-Llama-70B": {
|
||
"description": "DeepSeek R1 - DeepSeek setindeki daha büyük ve daha akıllı model - Llama 70B mimarisine damıtılmıştır. Kıyaslamalar ve insan değerlendirmelerine dayanarak, bu model orijinal Llama 70B'den daha akıllıdır, özellikle matematik ve gerçeklik doğruluğu gerektiren görevlerde mükemmel performans göstermektedir."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-1.5B": {
|
||
"description": "Qwen2.5-Math-1.5B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-14B": {
|
||
"description": "Qwen2.5-14B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-32B": {
|
||
"description": "DeepSeek-R1 serisi, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler, OpenAI-o1-mini seviyesini aşar."
|
||
},
|
||
"DeepSeek-R1-Distill-Qwen-7B": {
|
||
"description": "Qwen2.5-Math-7B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
||
},
|
||
"DeepSeek-V3": {
|
||
"description": "DeepSeek-V3, Derin Arayış şirketi tarafından geliştirilen bir MoE modelidir. DeepSeek-V3, birçok değerlendirmede Qwen2.5-72B ve Llama-3.1-405B gibi diğer açık kaynak modelleri geride bırakmış ve performans açısından dünya çapında en iyi kapalı kaynak model olan GPT-4o ve Claude-3.5-Sonnet ile eşit seviyededir."
|
||
},
|
||
"DeepSeek-V3-1": {
|
||
"description": "DeepSeek V3.1: Karmaşık çıkarım ve bağlantılı düşünme yeteneklerini geliştiren, derinlemesine analiz gerektiren görevler için uygun bir sonraki nesil çıkarım modeli."
|
||
},
|
||
"DeepSeek-V3-Fast": {
|
||
"description": "Model sağlayıcısı: sophnet platformu. DeepSeek V3 Fast, DeepSeek V3 0324 sürümünün yüksek TPS hızlı versiyonudur, tam performanslı ve kuantize edilmemiştir, kodlama ve matematik yetenekleri daha güçlüdür, yanıt süresi daha hızlıdır!"
|
||
},
|
||
"DeepSeek-V3.1-Fast": {
|
||
"description": "DeepSeek V3.1 Fast, DeepSeek V3.1 sürümünün yüksek TPS hızlı versiyonudur. Hibrit düşünme modu: Sohbet şablonunu değiştirerek, tek bir model hem düşünme hem de düşünmeme modlarını destekleyebilir. Daha akıllı araç çağrısı: Sonrası eğitim optimizasyonları sayesinde model, araç kullanımı ve ajan görevlerindeki performansını belirgin şekilde artırmıştır."
|
||
},
|
||
"DeepSeek-V3.1-Think": {
|
||
"description": "DeepSeek-V3.1-Düşünme modu; DeepSeek-V3.1, DeepSeek tarafından yeni sunulan hibrit akıl yürütme modelidir ve düşünme ile düşünmeme olmak üzere iki akıl yürütme modunu destekler. DeepSeek-R1-0528 modeline kıyasla düşünme verimliliği daha yüksektir. Sonrası eğitim optimizasyonları sayesinde, ajan araç kullanımı ve akıllı ajan görevlerinde performans önemli ölçüde artmıştır."
|
||
},
|
||
"Doubao-lite-128k": {
|
||
"description": "Doubao-lite, son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"Doubao-lite-32k": {
|
||
"description": "Doubao-lite, son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 32k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"Doubao-lite-4k": {
|
||
"description": "Doubao-lite, son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 4k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"Doubao-pro-128k": {
|
||
"description": "En etkili ana model olup, karmaşık görevlerin işlenmesi için uygundur. Referans soru-cevap, özet çıkarma, yaratıcı yazım, metin sınıflandırma, rol yapma gibi senaryolarda mükemmel performans gösterir. 128k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"Doubao-pro-32k": {
|
||
"description": "En etkili ana model olup, karmaşık görevlerin işlenmesi için uygundur. Referans soru-cevap, özet çıkarma, yaratıcı yazım, metin sınıflandırma, rol yapma gibi senaryolarda mükemmel performans gösterir. 32k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"Doubao-pro-4k": {
|
||
"description": "En etkili ana model olup, karmaşık görevlerin işlenmesi için uygundur. Referans soru-cevap, özet çıkarma, yaratıcı yazım, metin sınıflandırma, rol yapma gibi senaryolarda mükemmel performans gösterir. 4k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"DreamO": {
|
||
"description": "DreamO, ByteDance ve Pekin Üniversitesi iş birliğiyle geliştirilen açık kaynaklı, çok görevli görüntü üretim modelidir. Birleşik mimari sayesinde kullanıcı tarafından belirtilen kimlik, konu, stil, arka plan gibi çoklu koşullara göre yüksek tutarlılıkta ve özelleştirilmiş görüntüler oluşturabilir."
|
||
},
|
||
"ERNIE-3.5-128K": {
|
||
"description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar."
|
||
},
|
||
"ERNIE-3.5-8K": {
|
||
"description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar."
|
||
},
|
||
"ERNIE-3.5-8K-Preview": {
|
||
"description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar."
|
||
},
|
||
"ERNIE-4.0-8K-Latest": {
|
||
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar."
|
||
},
|
||
"ERNIE-4.0-8K-Preview": {
|
||
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar."
|
||
},
|
||
"ERNIE-4.0-Turbo-8K-Latest": {
|
||
"description": "Baidu tarafından geliştirilen, geniş ölçekli büyük dil modeli, genel performansı mükemmeldir ve her alanda karmaşık görev sahneleri için geniş bir şekilde kullanılabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgi güncellemelerinin zamanlamasını güvence altına alır. ERNIE 4.0'a kıyasla, performans olarak daha üstündür."
|
||
},
|
||
"ERNIE-4.0-Turbo-8K-Preview": {
|
||
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür."
|
||
},
|
||
"ERNIE-Character-8K": {
|
||
"description": "Baidu'nun kendi geliştirdiği dikey senaryo büyük dil modeli, oyun NPC'leri, müşteri hizmetleri diyalogları, diyalog karakter rolü gibi uygulama senaryoları için uygundur, karakter tarzı daha belirgin ve tutarlıdır, talimatları takip etme yeteneği daha güçlüdür ve çıkarım performansı daha iyidir."
|
||
},
|
||
"ERNIE-Lite-Pro-128K": {
|
||
"description": "Baidu'nun kendi geliştirdiği hafif büyük dil modeli, mükemmel model performansı ve çıkarım yeteneklerini dengeler, ERNIE Lite'dan daha iyi sonuçlar verir, düşük hesaplama gücüne sahip AI hızlandırıcı kartları için uygundur."
|
||
},
|
||
"ERNIE-Speed-128K": {
|
||
"description": "Baidu'nun 2024 yılında piyasaya sürdüğü kendi geliştirdiği yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel olup, belirli senaryo sorunlarını daha iyi işlemek için temel model olarak ince ayar yapmak için uygundur ve mükemmel çıkarım performansına sahiptir."
|
||
},
|
||
"ERNIE-Speed-Pro-128K": {
|
||
"description": "Baidu'nun 2024 yılında piyasaya sürdüğü kendi geliştirdiği yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel olup, ERNIE Speed'den daha iyi sonuçlar verir, belirli senaryo sorunlarını daha iyi işlemek için temel model olarak ince ayar yapmak için uygundur ve mükemmel çıkarım performansına sahiptir."
|
||
},
|
||
"FLUX-1.1-pro": {
|
||
"description": "FLUX.1.1 Pro"
|
||
},
|
||
"FLUX.1-Kontext-dev": {
|
||
"description": "FLUX.1-Kontext-dev, Black Forest Labs tarafından geliştirilen, Rectified Flow Transformer mimarisine dayanan çok modlu görüntü oluşturma ve düzenleme modelidir. 12 milyar parametreye sahip olup, verilen bağlam koşullarında görüntü oluşturma, yeniden yapılandırma, iyileştirme ve düzenleme işlemlerine odaklanır. Model, difüzyon modellerinin kontrollü üretim avantajlarını ve Transformer'ın bağlam modelleme yeteneklerini birleştirerek yüksek kaliteli görüntü çıktısı sağlar ve görüntü onarımı, tamamlama, görsel sahne yeniden yapılandırma gibi görevlerde geniş uygulama alanına sahiptir."
|
||
},
|
||
"FLUX.1-Kontext-pro": {
|
||
"description": "FLUX.1 Kontext [pro]"
|
||
},
|
||
"FLUX.1-dev": {
|
||
"description": "FLUX.1-dev, Black Forest Labs tarafından geliştirilen açık kaynaklı çok modlu dil modelidir (Multimodal Language Model, MLLM). Görüntü ve metin anlama ile üretim yeteneklerini birleştirerek görsel ve metin görevleri için optimize edilmiştir. Mistral-7B gibi gelişmiş büyük dil modelleri temel alınarak, özenle tasarlanmış görsel kodlayıcı ve çok aşamalı talimat ince ayarı ile görsel-metinsel işbirliği ve karmaşık görev çıkarımı sağlar."
|
||
},
|
||
"Gryphe/MythoMax-L2-13b": {
|
||
"description": "MythoMax-L2 (13B), çok alanlı uygulamalar ve karmaşık görevler için uygun yenilikçi bir modeldir."
|
||
},
|
||
"HelloMeme": {
|
||
"description": "HelloMeme, sağladığınız resim veya hareketlere dayanarak otomatik olarak meme, GIF veya kısa video oluşturabilen bir yapay zeka aracıdır. Hiçbir çizim veya programlama bilgisi gerektirmez; sadece referans resim hazırlamanız yeterlidir, böylece size güzel, eğlenceli ve tutarlı tarzda içerikler oluşturur."
|
||
},
|
||
"HiDream-I1-Full": {
|
||
"description": "HiDream-E1-Full, ZhiXiang Future (HiDream.ai) tarafından geliştirilen açık kaynaklı çok modlu görüntü düzenleme büyük modelidir. Gelişmiş Diffusion Transformer mimarisi ve güçlü dil anlama yeteneği (gömülü LLaMA 3.1-8B-Instruct) ile doğal dil komutlarıyla görüntü oluşturma, stil transferi, yerel düzenleme ve içerik yeniden çizim desteği sunar; üstün görsel-metinsel anlama ve yürütme kabiliyetine sahiptir."
|
||
},
|
||
"HunyuanDiT-v1.2-Diffusers-Distilled": {
|
||
"description": "hunyuandit-v1.2-distilled, damıtma optimizasyonu ile hafifletilmiş, hızlı yüksek kaliteli görüntü üretebilen bir metinden görüntüye modeldir. Özellikle düşük kaynaklı ortamlar ve gerçek zamanlı üretim görevleri için uygundur."
|
||
},
|
||
"InstantCharacter": {
|
||
"description": "InstantCharacter, Tencent AI ekibi tarafından 2025 yılında yayınlanan, ince ayar gerektirmeyen (tuning-free) kişiselleştirilmiş karakter oluşturma modelidir. Yüksek doğrulukta ve sahneler arası tutarlı karakter üretmeyi hedefler. Sadece bir referans görüntüye dayanarak karakter modellemesi yapabilir ve bu karakteri farklı stiller, hareketler ve arka planlara esnek şekilde taşıyabilir."
|
||
},
|
||
"InternVL2-8B": {
|
||
"description": "InternVL2-8B, güçlü bir görsel dil modelidir. Görüntü ve metinlerin çok modlu işlenmesini destekler, görüntü içeriğini hassas bir şekilde tanıyabilir ve ilgili açıklamalar veya yanıtlar üretebilir."
|
||
},
|
||
"InternVL2.5-26B": {
|
||
"description": "InternVL2.5-26B, güçlü bir görsel dil modelidir. Görüntü ve metinlerin çok modlu işlenmesini destekler, görüntü içeriğini hassas bir şekilde tanıyabilir ve ilgili açıklamalar veya yanıtlar üretebilir."
|
||
},
|
||
"Kolors": {
|
||
"description": "Kolors, Kuaishou Kolors ekibi tarafından geliştirilen metinden görüntüye modeldir. Milyarlarca parametre ile eğitilmiş olup, görsel kalite, Çince anlamsal anlama ve metin işleme konularında belirgin avantajlara sahiptir."
|
||
},
|
||
"Kwai-Kolors/Kolors": {
|
||
"description": "Kolors, Kuaishou Kolors ekibi tarafından geliştirilen, latent difüzyon tabanlı büyük ölçekli metinden görüntüye üretim modelidir. Milyarlarca metin-görüntü çiftinden eğitilerek görsel kalite, karmaşık anlamsal doğruluk ve Çince-İngilizce karakter işleme alanlarında üstün performans gösterir. Hem Çince hem İngilizce girişleri destekler ve özellikle Çince içerik anlama ve üretiminde başarılıdır."
|
||
},
|
||
"Kwaipilot/KAT-Dev": {
|
||
"description": "KAT-Dev (32B), yazılım mühendisliği görevleri için özel olarak tasarlanmış açık kaynaklı bir 32B parametreli modeldir. SWE-Bench Verified kıyaslamasında %62,4 başarı oranı elde etmiş ve farklı boyutlardaki tüm açık kaynak modeller arasında beşinci sırada yer almıştır. Model; ara eğitim, denetimli ince ayar (SFT) ve pekiştirmeli öğrenme (RL) dahil olmak üzere çok aşamalı bir süreçle optimize edilmiştir. Kod tamamlama, hata düzeltme, kod incelemesi gibi karmaşık programlama görevlerinde güçlü destek sunmak üzere tasarlanmıştır."
|
||
},
|
||
"Llama-3.2-11B-Vision-Instruct": {
|
||
"description": "Yüksek çözünürlüklü görüntülerde mükemmel görüntü akıl yürütme yeteneği, görsel anlama uygulamaları için uygundur."
|
||
},
|
||
"Llama-3.2-90B-Vision-Instruct\t": {
|
||
"description": "Görsel anlama ajan uygulamaları için gelişmiş görüntü akıl yürütme yeteneği."
|
||
},
|
||
"Meta-Llama-3-3-70B-Instruct": {
|
||
"description": "Llama 3.3 70B: Diyalog ve üretim görevleri için uygun, yüksek genel amaçlı Transformer modeli."
|
||
},
|
||
"Meta-Llama-3.1-405B-Instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynak ve kapalı sohbet modelinde yaygın endüstri kıyaslamalarında mükemmel performans göstermektedir."
|
||
},
|
||
"Meta-Llama-3.1-70B-Instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynak ve kapalı sohbet modelinde yaygın endüstri kıyaslamalarında mükemmel performans göstermektedir."
|
||
},
|
||
"Meta-Llama-3.1-8B-Instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynak ve kapalı sohbet modelinde yaygın endüstri kıyaslamalarında mükemmel performans göstermektedir."
|
||
},
|
||
"Meta-Llama-3.2-1B-Instruct": {
|
||
"description": "Gelişmiş, en son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin oluşturma yeteneğine sahiptir."
|
||
},
|
||
"Meta-Llama-3.2-3B-Instruct": {
|
||
"description": "Gelişmiş, en son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin oluşturma yeteneğine sahiptir."
|
||
},
|
||
"Meta-Llama-3.3-70B-Instruct": {
|
||
"description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve yararlılığını ve güvenliğini artırmak için denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) kullanılmıştır. Talimat ayarlı versiyonu çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 yılı Aralık ayıdır."
|
||
},
|
||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
||
"description": "Llama 4 Maverick: Mixture-of-Experts tabanlı büyük ölçekli model, çıkarımda üstün performans için verimli uzman aktivasyon stratejisi sunar."
|
||
},
|
||
"MiniMax-M1": {
|
||
"description": "Tamamen yeni, kendi geliştirdiğimiz çıkarım modeli. Dünya lideri: 80K düşünce zinciri x 1M girdi, performansı yurtdışındaki en iyi modellerle kıyaslanabilir düzeyde."
|
||
},
|
||
"MiniMax-M2": {
|
||
"description": "Verimli kodlama ve Agent iş akışları için özel olarak tasarlandı."
|
||
},
|
||
"MiniMax-M2-Stable": {
|
||
"description": "Yüksek verimli kodlama ve Agent iş akışları için özel olarak tasarlanmıştır, daha yüksek eşzamanlılık ve ticari kullanım için uygundur."
|
||
},
|
||
"MiniMax-Text-01": {
|
||
"description": "MiniMax-01 serisi modellerinde cesur yenilikler yaptık: ilk kez büyük ölçekli lineer dikkat mekanizmasını gerçekleştirdik, geleneksel Transformer mimarisi artık tek seçenek değil. Bu modelin parametre sayısı 456 milyara kadar çıkmakta, tek bir aktivasyonda 45.9 milyar. Modelin genel performansı, yurtdışındaki en iyi modellerle karşılaştırılabilirken, dünya genelinde 4 milyon token uzunluğundaki bağlamı verimli bir şekilde işleyebilir, bu da GPT-4o'nun 32 katı, Claude-3.5-Sonnet'in 20 katıdır."
|
||
},
|
||
"MiniMaxAI/MiniMax-M1-80k": {
|
||
"description": "MiniMax-M1, açık kaynak ağırlıklı büyük ölçekli karma dikkat çıkarım modeli olup, 456 milyar parametreye sahiptir ve her Token yaklaşık 45.9 milyar parametreyi aktive eder. Model, doğal olarak 1 milyon Token uzunluğunda bağlamı destekler ve şimşek dikkat mekanizması sayesinde 100 bin Token üretim görevlerinde DeepSeek R1'e kıyasla %75 daha az kayan nokta işlemi kullanır. Ayrıca, MiniMax-M1 MoE (karışık uzman) mimarisini, CISPO algoritması ve karma dikkat tasarımı ile verimli pekiştirmeli öğrenme eğitimiyle birleştirerek uzun giriş çıkarımı ve gerçek yazılım mühendisliği senaryolarında sektör lideri performans sunar."
|
||
},
|
||
"MiniMaxAI/MiniMax-M2": {
|
||
"description": "MiniMax-M2, yapay zekâ ajanları için verimliliği yeniden tanımlıyor. 230 milyar toplam parametreye ve 10 milyar etkin parametreye sahip olan bu kompakt, hızlı ve ekonomik MoE (Uzman Karışımı) modeli, kodlama ve yapay zekâ görevlerinde üstün performans sunmak üzere tasarlanmıştır ve aynı zamanda güçlü bir genel zekâ kapasitesini korur. Sadece 10 milyar etkin parametreyle, MiniMax-M2 büyük ölçekli modellerle karşılaştırılabilir bir performans sunarak yüksek verimlilik gerektiren uygulamalar için ideal bir tercih haline gelir."
|
||
},
|
||
"Moonshot-Kimi-K2-Instruct": {
|
||
"description": "Toplam 1 trilyon parametre, 32 milyar aktif parametreye sahip. Düşünme modeli olmayanlar arasında, güncel bilgi, matematik ve kodlama alanlarında en üst düzeyde performans gösterir ve genel ajan görevlerinde daha yetkindir. Ajan görevleri için optimize edilmiştir; sadece soruları yanıtlamakla kalmaz, aynı zamanda eylem de gerçekleştirebilir. Doğaçlama, genel sohbet ve ajan deneyimleri için en uygunudur; uzun düşünme gerektirmeyen refleks seviyesinde bir modeldir."
|
||
},
|
||
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
||
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B), karmaşık hesaplamalar için yüksek hassasiyetli bir talimat modelidir."
|
||
},
|
||
"OmniConsistency": {
|
||
"description": "OmniConsistency, büyük ölçekli Difüzyon Transformerlar (DiTs) ve eşleştirilmiş stilize veri kullanarak görüntüden görüntüye (Image-to-Image) görevlerinde stil tutarlılığı ve genelleme yeteneğini artırır, stil bozulmasını önler."
|
||
},
|
||
"Phi-3-medium-128k-instruct": {
|
||
"description": "Aynı Phi-3-medium modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
|
||
},
|
||
"Phi-3-medium-4k-instruct": {
|
||
"description": "14B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır."
|
||
},
|
||
"Phi-3-mini-128k-instruct": {
|
||
"description": "Aynı Phi-3-mini modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
|
||
},
|
||
"Phi-3-mini-4k-instruct": {
|
||
"description": "Phi-3 ailesinin en küçük üyesi. Hem kalite hem de düşük gecikme için optimize edilmiştir."
|
||
},
|
||
"Phi-3-small-128k-instruct": {
|
||
"description": "Aynı Phi-3-small modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
|
||
},
|
||
"Phi-3-small-8k-instruct": {
|
||
"description": "7B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır."
|
||
},
|
||
"Phi-3.5-mini-instruct": {
|
||
"description": "Phi-3-mini modelinin güncellenmiş versiyonu."
|
||
},
|
||
"Phi-3.5-vision-instrust": {
|
||
"description": "Phi-3-görsel modelinin güncellenmiş versiyonu."
|
||
},
|
||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||
"description": "Qwen2-7B-Instruct, Qwen2 serisindeki talimat ince ayar büyük dil modelidir ve parametre ölçeği 7B'dir. Bu model, Transformer mimarisi temelinde, SwiGLU aktivasyon fonksiyonu, dikkat QKV önyargısı ve grup sorgu dikkati gibi teknikler kullanmaktadır. Büyük ölçekli girişleri işleyebilme yeteneğine sahiptir. Bu model, dil anlama, üretim, çok dilli yetenek, kodlama, matematik ve akıl yürütme gibi birçok standart testte mükemmel performans sergilemekte ve çoğu açık kaynak modelini geride bırakmakta, bazı görevlerde özel modellere karşı rekabet edebilir. Qwen2-7B-Instruct, birçok değerlendirmede Qwen1.5-7B-Chat'ten daha iyi performans göstermekte ve belirgin bir performans artışı sergilemektedir."
|
||
},
|
||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||
"description": "Qwen2.5-7B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 7B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
|
||
},
|
||
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
|
||
"description": "Qwen2.5-Coder-7B-Instruct, Alibaba Cloud tarafından yayınlanan kod odaklı büyük dil modeli serisinin en son versiyonudur. Bu model, Qwen2.5 temelinde, 5.5 trilyon token ile eğitilerek kod üretimi, akıl yürütme ve düzeltme yeteneklerini önemli ölçüde artırmıştır. Hem kodlama yeteneklerini geliştirmiş hem de matematik ve genel yetenek avantajlarını korumuştur. Model, kod akıllı ajanları gibi pratik uygulamalar için daha kapsamlı bir temel sunmaktadır."
|
||
},
|
||
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
|
||
"description": "Qwen2.5-VL, Qwen serisinin yeni üyesidir ve güçlü görsel anlama yeteneğine sahiptir. Görsellerdeki metinleri, grafikleri ve düzenleri analiz edebilir, uzun videoları anlayabilir ve olayları yakalayabilir. Akıl yürütme yapabilir, araçları kullanabilir, çoklu format nesne konumlandırmayı destekler ve yapılandırılmış çıktılar üretebilir. Video anlama için dinamik çözünürlük ve kare hızı eğitimini optimize etmiş ve görsel kodlayıcı verimliliğini artırmıştır."
|
||
},
|
||
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
|
||
"description": "GLM-4.1V-9B-Thinking, Zhipu AI ve Tsinghua Üniversitesi KEG Laboratuvarı tarafından ortaklaşa yayınlanan açık kaynaklı bir görsel dil modeli (VLM) olup, karmaşık çok modlu bilişsel görevleri işlemek için tasarlanmıştır. Bu model, GLM-4-9B-0414 temel modeli üzerine kurulmuş olup, \"Düşünce Zinciri\" (Chain-of-Thought) akıl yürütme mekanizmasını ve pekiştirmeli öğrenme stratejisini benimseyerek, modlar arası akıl yürütme yeteneği ve kararlılığını önemli ölçüde artırmıştır."
|
||
},
|
||
"Pro/THUDM/glm-4-9b-chat": {
|
||
"description": "GLM-4-9B-Chat, Zhipu AI tarafından sunulan GLM-4 serisi önceden eğitilmiş modellerin açık kaynak versiyonudur. Bu model, anlam, matematik, akıl yürütme, kod ve bilgi gibi birçok alanda mükemmel performans sergilemektedir. Çoklu diyalogları desteklemenin yanı sıra, GLM-4-9B-Chat, web tarayıcı, kod yürütme, özelleştirilmiş araç çağrısı (Function Call) ve uzun metin akıl yürütme gibi gelişmiş özelliklere de sahiptir. Model, Çince, İngilizce, Japonca, Korece ve Almanca gibi 26 dili desteklemektedir. GLM-4-9B-Chat, AlignBench-v2, MT-Bench, MMLU ve C-Eval gibi birçok standart testte mükemmel performans sergilemiştir. Bu model, maksimum 128K bağlam uzunluğunu desteklemekte olup, akademik araştırmalar ve ticari uygulamalar için uygundur."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-R1": {
|
||
"description": "DeepSeek-R1, modeldeki tekrarlılık ve okunabilirlik sorunlarını çözen bir güçlendirilmiş öğrenme (RL) destekli çıkarım modelidir. RL'den önce, DeepSeek-R1 soğuk başlangıç verileri tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer performans göstermektedir ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmıştır."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-7B, Qwen2.5-Math-7B modelinden bilgi damıtma yöntemiyle elde edilmiş bir modeldir. Bu model, DeepSeek-R1 tarafından oluşturulan 800 bin seçkin örnekle ince ayar yapılarak geliştirilmiş olup, üstün akıl yürütme yeteneği sergilemektedir. Çeşitli kıyaslama testlerinde başarılı performans gösteren model, MATH-500'de %92,8 doğruluk, AIME 2024'te %55,5 geçme oranı ve CodeForces'ta 1189 puan alarak, 7B ölçeğindeki bir model için güçlü matematik ve programlama yeteneklerini ortaya koymuştur."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-V3": {
|
||
"description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir ve çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıplar olmadan yük dengeleme stratejileri ile çıkarım ve eğitim verimliliğini optimize etmektedir. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ve güçlendirilmiş öğrenme ile, DeepSeek-V3 performans açısından diğer açık kaynak modelleri geride bırakmakta ve lider kapalı kaynak modellere yaklaşmaktadır."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
||
"description": "DeepSeek-V3.1-Terminus, DeepSeek tarafından yayınlanan V3.1 modelinin güncellenmiş versiyonudur ve hibrit ajan büyük dil modeli olarak konumlandırılmıştır. Bu güncelleme, modelin mevcut yeteneklerini koruyarak kullanıcı geri bildirimlerine dayalı sorunları düzeltmeye ve kararlılığı artırmaya odaklanmıştır. Dil tutarlılığını önemli ölçüde iyileştirmiş, Çince ve İngilizce karışımı ile anormal karakterlerin görünümünü azaltmıştır. Model, farklı görevler için sohbet şablonları aracılığıyla esnek geçiş yapılabilen “Düşünme Modu” ve “Düşünmeme Modu”nu entegre etmiştir. Önemli bir iyileştirme olarak, V3.1-Terminus, kod ajanı (Code Agent) ve arama ajanı (Search Agent) performansını artırarak araç çağrıları ve çok adımlı karmaşık görevlerin yürütülmesinde daha güvenilir hale getirmiştir."
|
||
},
|
||
"Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
|
||
"description": "DeepSeek-V3.2-Exp, DeepSeek tarafından yayınlanan deneysel V3.2 sürümüdür ve yeni nesil mimariye geçişte bir ara keşif niteliğindedir. Bu sürüm, V3.1-Terminus temelinde geliştirilmiş olup, uzun bağlamlı eğitim ve çıkarım verimliliğini artırmak amacıyla DeepSeek Seyrek Dikkat (DeepSeek Sparse Attention, DSA) mekanizmasını entegre eder. Araç kullanımı, uzun belge anlama ve çok adımlı akıl yürütme gibi alanlarda özel optimizasyonlar yapılmıştır. V3.2-Exp, araştırma ile ürünleştirme arasında bir köprü görevi görür ve yüksek bağlam bütçesi gerektiren senaryolarda daha verimli çıkarım arayan kullanıcılar için uygundur."
|
||
},
|
||
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
||
"description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
|
||
},
|
||
"Pro/moonshotai/Kimi-K2-Thinking": {
|
||
"description": "Kimi K2 Thinking Turbo, Kimi K2 serisinin Turbo versiyonudur. Akıl yürütme hızı ve işlem hacmi açısından optimize edilmiştir ve aynı zamanda K2 Thinking’in çok adımlı akıl yürütme ve araç kullanımı yeteneklerini korur. Model, yaklaşık 1T toplam parametreye sahip karma uzman (MoE) mimarisi üzerine kuruludur, doğal olarak 256K bağlamı destekler ve büyük ölçekli araç çağrılarını istikrarlı bir şekilde gerçekleştirebilir. Gecikme ve eşzamanlılık gereksinimlerinin yüksek olduğu üretim senaryoları için uygundur."
|
||
},
|
||
"QwQ-32B-Preview": {
|
||
"description": "QwQ-32B-Preview, karmaşık diyalog oluşturma ve bağlam anlama görevlerini etkili bir şekilde işleyebilen yenilikçi bir doğal dil işleme modelidir."
|
||
},
|
||
"Qwen/QVQ-72B-Preview": {
|
||
"description": "QVQ-72B-Preview, Qwen ekibi tarafından geliştirilen ve görsel çıkarım yeteneklerine odaklanan bir araştırma modelidir. Karmaşık sahne anlayışı ve görsel ile ilgili matematiksel sorunları çözme konusundaki benzersiz avantajları ile dikkat çekmektedir."
|
||
},
|
||
"Qwen/QwQ-32B": {
|
||
"description": "QwQ, Qwen serisinin çıkarım modelidir. Geleneksel talimat ayarlama modellerine kıyasla, QwQ düşünme ve çıkarım yeteneğine sahiptir ve özellikle zor problemleri çözme konusunda önemli ölçüde artırılmış performans sergileyebilir. QwQ-32B, orta ölçekli bir çıkarım modelidir ve en son çıkarım modelleri (örneğin, DeepSeek-R1, o1-mini) ile karşılaştırıldığında rekabetçi bir performans elde edebilir. Bu model, RoPE, SwiGLU, RMSNorm ve Attention QKV bias gibi teknikleri kullanmakta olup, 64 katmanlı bir ağ yapısına ve 40 Q dikkat başlığına (GQA mimarisinde KV 8'dir) sahiptir."
|
||
},
|
||
"Qwen/QwQ-32B-Preview": {
|
||
"description": "QwQ-32B-Preview, Qwen'in en son deneysel araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır. Dil karışımı, özyinelemeli akıl yürütme gibi karmaşık mekanizmaları keşfederek, güçlü akıl yürütme analizi, matematik ve programlama yetenekleri gibi ana avantajlar sunmaktadır. Bununla birlikte, dil geçiş sorunları, akıl yürütme döngüleri, güvenlik endişeleri ve diğer yetenek farklılıkları gibi zorluklar da bulunmaktadır."
|
||
},
|
||
"Qwen/Qwen-Image": {
|
||
"description": "Qwen-Image, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen bir görsel üretim temel modelidir ve 20 milyar parametreye sahiptir. Bu model, karmaşık metin işleme ve hassas görsel düzenleme konularında önemli ilerlemeler kaydetmiştir; özellikle yüksek doğrulukta Çince ve İngilizce metin içeren görseller üretme konusunda uzmandır. Qwen-Image, çok satırlı düzenler ve paragraf düzeyindeki metinleri işleyebilmenin yanı sıra, görsel üretim sırasında tutarlı bir mizanpaj ve bağlamsal uyum sağlayabilir. Üstün metin işleme yeteneklerinin ötesinde, model gerçekçi fotoğraflardan anime estetiğine kadar geniş bir sanatsal tarz yelpazesini destekler ve çeşitli yaratıcı ihtiyaçlara esnek şekilde uyum sağlar. Ayrıca, stil transferi, nesne ekleme/çıkarma, detay iyileştirme, metin düzenleme ve insan pozu kontrolü gibi gelişmiş işlemleri destekleyen güçlü bir görsel düzenleme ve anlama yeteneğine sahiptir. Qwen-Image, dil, düzen ve görseli bir araya getiren kapsamlı bir akıllı görsel yaratım ve işleme temel modeli olmayı hedeflemektedir."
|
||
},
|
||
"Qwen/Qwen-Image-Edit-2509": {
|
||
"description": "Qwen-Image-Edit-2509, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen Qwen-Image modelinin en son görsel düzenleme versiyonudur. 20 milyar parametreli Qwen-Image modeli temel alınarak derinlemesine eğitilmiş olan bu model, özgün metin işleme yeteneklerini görsel düzenleme alanına başarıyla taşımış ve görsellerdeki metinlerin hassas şekilde düzenlenmesini mümkün kılmıştır. Qwen-Image-Edit, yenilikçi bir mimari kullanarak giriş görselini hem görsel anlamsal kontrol için Qwen2.5-VL’ye hem de görsel görünüm kontrolü için VAE Encoder’a iletir; böylece hem anlamsal hem de görsel düzenleme yeteneklerini bir arada sunar. Bu, yalnızca öğe ekleme, silme veya değiştirme gibi yerel görünüm düzenlemelerini değil, aynı zamanda IP yaratımı ve stil transferi gibi anlamsal tutarlılık gerektiren ileri düzey görsel anlamsal düzenlemeleri de desteklediği anlamına gelir. Model, birçok açık kaynaklı kıyaslama testinde en üst düzey (SOTA) performans sergileyerek güçlü bir görsel düzenleme temel modeli haline gelmiştir."
|
||
},
|
||
"Qwen/Qwen2-72B-Instruct": {
|
||
"description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir."
|
||
},
|
||
"Qwen/Qwen2-7B-Instruct": {
|
||
"description": "Qwen2-72B-Instruct, Qwen2 serisindeki talimat ince ayar büyük dil modelidir ve parametre ölçeği 72B'dir. Bu model, Transformer mimarisi temelinde, SwiGLU aktivasyon fonksiyonu, dikkat QKV önyargısı ve grup sorgu dikkati gibi teknikler kullanmaktadır. Büyük ölçekli girişleri işleyebilme yeteneğine sahiptir. Bu model, dil anlama, üretim, çok dilli yetenek, kodlama, matematik ve akıl yürütme gibi birçok standart testte mükemmel performans sergilemekte ve çoğu açık kaynak modelini geride bırakmakta, bazı görevlerde özel modellere karşı rekabet edebilir."
|
||
},
|
||
"Qwen/Qwen2-VL-72B-Instruct": {
|
||
"description": "Qwen2-VL, Qwen-VL modelinin en son yineleme versiyonudur ve görsel anlama kıyaslama testlerinde en gelişmiş performansı sergilemiştir."
|
||
},
|
||
"Qwen/Qwen2.5-14B-Instruct": {
|
||
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
||
},
|
||
"Qwen/Qwen2.5-32B-Instruct": {
|
||
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
||
},
|
||
"Qwen/Qwen2.5-72B-Instruct": {
|
||
"description": "Alibaba Cloud Tongyi Qianwen ekibi tarafından geliştirilen büyük bir dil modeli"
|
||
},
|
||
"Qwen/Qwen2.5-72B-Instruct-128K": {
|
||
"description": "Qwen2.5, daha güçlü anlama ve üretim yeteneği ile yeni bir büyük dil modeli serisidir."
|
||
},
|
||
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
|
||
"description": "Qwen2.5, komut tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
||
},
|
||
"Qwen/Qwen2.5-7B-Instruct": {
|
||
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
||
},
|
||
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
||
"description": "Qwen2.5, komut tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
||
},
|
||
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
||
"description": "Qwen2.5-Coder, kod yazımına odaklanmaktadır."
|
||
},
|
||
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
||
"description": "Qwen2.5-Coder-7B-Instruct, Alibaba Cloud tarafından yayınlanan kod odaklı büyük dil modeli serisinin en son versiyonudur. Bu model, Qwen2.5 temelinde, 5.5 trilyon token ile eğitilerek kod üretimi, akıl yürütme ve düzeltme yeteneklerini önemli ölçüde artırmıştır. Hem kodlama yeteneklerini geliştirmiş hem de matematik ve genel yetenek avantajlarını korumuştur. Model, kod akıllı ajanları gibi pratik uygulamalar için daha kapsamlı bir temel sunmaktadır."
|
||
},
|
||
"Qwen/Qwen2.5-VL-32B-Instruct": {
|
||
"description": "Qwen2.5-VL-32B-Instruct, Tongyi Qianwen ekibi tarafından geliştirilen çok modelli bir büyük modeldir ve Qwen2.5-VL serisinin bir parçasıdır. Bu model yalnızca yaygın nesneleri tanımakla kalmaz, aynı zamanda görüntülerdeki metinleri, tabloları, simgeleri, grafikleri ve düzenleri analiz edebilir. Görsel bir akıllı ajan olarak çalışabilir, araçları dinamik olarak yönetebilir ve bilgisayar ile telefon kullanma yeteneğine sahiptir. Ayrıca, bu model görüntülerdeki nesneleri hassas bir şekilde konumlandırabilir ve fatura, tablo gibi belgeler için yapılandırılmış çıktılar üretebilir. Önceki model Qwen2-VL'ye kıyasla, bu sürüm matematik ve problem çözme yeteneklerinde pekiştirmeli öğrenme ile daha da geliştirilmiştir ve yanıt tarzı insan tercihlerine daha uygun hale getirilmiştir."
|
||
},
|
||
"Qwen/Qwen2.5-VL-72B-Instruct": {
|
||
"description": "Qwen2.5-VL, Qwen2.5 serisindeki görsel-dil modelidir. Bu model birçok alanda önemli gelişmeler sunmaktadır: Gelişmiş görsel anlama yeteneğiyle yaygın nesneleri tanıyabilir, metinleri, grafikleri ve düzenleri analiz edebilir; görsel bir ajan olarak akıl yürütebilir ve araç kullanımını dinamik olarak yönlendirebilir; 1 saati aşan uzun videoları anlayabilir ve önemli olayları yakalayabilir; görüntülerdeki nesneleri sınırlayıcı kutular veya noktalar oluşturarak hassas bir şekilde konumlandırabilir; yapılandırılmış çıktılar üretebilir, özellikle fatura, tablo gibi taranmış veriler için uygundur."
|
||
},
|
||
"Qwen/Qwen3-14B": {
|
||
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
||
},
|
||
"Qwen/Qwen3-235B-A22B": {
|
||
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
||
},
|
||
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
|
||
"description": "Qwen3 serisinden, Alibaba Cloud Tongyi Qianwen ekibi tarafından geliştirilen amiral gemisi hibrit uzman (MoE) büyük dil modelidir. Toplam 235 milyar parametreye, her çıkarımda 22 milyar aktif parametreye sahiptir. Qwen3-235B-A22B'nin düşünme modu olmayan güncellenmiş versiyonudur; talimat uyumu, mantıksal çıkarım, metin anlama, matematik, bilim, programlama ve araç kullanımı gibi genel yeteneklerde önemli iyileştirmeler sunar. Ayrıca çok dilli uzun kuyruk bilgisi kapsamını artırır ve kullanıcıların öznel ve açık uçlu görev tercihlerine daha iyi uyum sağlayarak daha faydalı ve kaliteli metinler üretir."
|
||
},
|
||
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
|
||
"description": "Alibaba Tongyi Qianwen ekibi tarafından geliştirilen Qwen3 serisinden büyük dil modelidir ve karmaşık yüksek zorlukta çıkarım görevlerine odaklanır. MoE mimarisi temel alınmış olup toplam 235 milyar parametreye sahiptir; her token işlenirken yaklaşık 22 milyar parametre aktif olur, böylece güçlü performansla birlikte hesaplama verimliliği sağlanır. Özel bir \"düşünme\" modeli olarak, mantıksal çıkarım, matematik, bilim, programlama ve akademik kıyaslama testlerinde insan uzmanlığı gerektiren görevlerde üstün performans gösterir ve açık kaynak düşünme modelleri arasında en üst seviyededir. Ayrıca talimat uyumu, araç kullanımı ve metin üretimi gibi genel yetenekleri geliştirir ve 256K uzun bağlam anlama desteği ile derin çıkarım ve uzun belge işleme senaryoları için idealdir."
|
||
},
|
||
"Qwen/Qwen3-30B-A3B": {
|
||
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
||
},
|
||
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
|
||
"description": "Qwen3-30B-A3B-Instruct-2507, Qwen3-30B-A3B'nin düşünme modu olmayan güncellenmiş bir versiyonudur. Bu, toplam 30,5 milyar parametre ve 3,3 milyar aktif parametreye sahip bir Hibrit Uzman (MoE) modelidir. Model, talimat takibi, mantıksal akıl yürütme, metin anlama, matematik, bilim, kodlama ve araç kullanımı gibi genel yeteneklerde önemli geliştirmeler içermektedir. Ayrıca, çok dilli uzun kuyruk bilgi kapsamı açısından kayda değer ilerlemeler kaydetmiş ve kullanıcıların öznel ve açık uçlu görevlerdeki tercihlerine daha iyi uyum sağlayarak daha faydalı yanıtlar ve daha yüksek kaliteli metinler üretebilmektedir. Buna ek olarak, modelin uzun metin anlama kapasitesi 256K'ya kadar artırılmıştır. Bu model yalnızca düşünme modu dışındadır ve çıktılarında `<think></think>` etiketleri oluşturmaz."
|
||
},
|
||
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
|
||
"description": "Qwen3-30B-A3B-Thinking-2507, Alibaba'nın Tongyi Qianwen ekibi tarafından yayımlanan Qwen3 serisinin en yeni düşünme modelidir. Toplam 30,5 milyar parametreye ve 3,3 milyar aktif parametreye sahip bir melez uzman (MoE) modeli olarak karmaşık görevleri ele alma yeteneğini artırmaya odaklanır. Bu model mantıksal akıl yürütme, matematik, bilim, programlama ve insan uzmanlığı gerektiren akademik kıyaslama testlerinde belirgin performans artışları göstermektedir. Aynı zamanda talimatlara uyum, araç kullanımı, metin üretimi ve insan tercihlerine hizalanma gibi genel yeteneklerde de önemli ölçüde geliştirilmiştir. Model yerel olarak 256K uzun bağlam anlama yeteneğini destekler ve 1 milyona kadar token'a genişletilebilir. Bu sürüm, ayrıntılı adım adım akıl yürütmeyle yüksek derecede karmaşık görevleri çözmeyi amaçlayan \"düşünme modu\" için özel olarak tasarlanmıştır; ajan yetenekleri de öne çıkmaktadır."
|
||
},
|
||
"Qwen/Qwen3-32B": {
|
||
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
||
},
|
||
"Qwen/Qwen3-8B": {
|
||
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
||
},
|
||
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
|
||
"description": "Qwen3-Coder-30B-A3B-Instruct, Alibaba'nın Tongyi Qianwen ekibi tarafından geliştirilen Qwen3 serisindeki bir kod modelidir. Optimize edilmiş ve sadeleştirilmiş bir model olarak, yüksek performans ve verimliliği korurken özellikle kod işleme yeteneklerini artırmaya odaklanır. Bu model, ajan programlama (Agentic Coding), otomatik tarayıcı işlemleri ve araç çağırma gibi karmaşık görevlerde açık kaynak modeller içinde belirgin bir performans avantajı gösterir. Yerel olarak 256K token uzunluğunda bağlamı destekler ve 1M token'a kadar genişletilebilir; bu sayede kod tabanı düzeyinde anlama ve işleme kapasitesi artar. Ayrıca model, Qwen Code ve CLINE gibi platformlara güçlü ajan kodlama desteği sağlar ve özel bir fonksiyon çağırma formatı için tasarlanmıştır."
|
||
},
|
||
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
|
||
"description": "Qwen3-Coder-480B-A35B-Instruct, Alibaba tarafından yayımlanan ve şimdiye kadar en gelişmiş ajan (Agentic) yeteneklerine sahip kod modelidir. Bu model, toplam 480 milyar parametre ve 35 milyar aktifleşen parametreye sahip bir Mixture-of-Experts (MoE, karışık uzman) modelidir ve verimlilik ile performans arasında bir denge sağlar. Model, yerel olarak 256K (yaklaşık 260.000) token bağlam uzunluğunu destekler ve YaRN gibi dışa genelleme yöntemleriyle 1.000.000 token seviyesine kadar genişletilebilerek büyük ölçekli kod tabanları ve karmaşık programlama görevleriyle başa çıkabilir. Qwen3-Coder, ajan tabanlı kodlama iş akışları için tasarlanmış olup yalnızca kod üretmez; aynı zamanda geliştirme araçları ve ortamlarla bağımsız şekilde etkileşime girerek karmaşık programlama problemlerini çözer. Birçok kodlama ve ajan görevindeki kıyaslama testlerinde bu model, açık kaynak modeller arasında en üst düzey performansı göstermiş ve performansı Claude Sonnet 4 gibi önde gelen modellerle kıyaslanabilir düzeydedir."
|
||
},
|
||
"Qwen/Qwen3-Next-80B-A3B-Instruct": {
|
||
"description": "Qwen3-Next-80B-A3B-Instruct, Alibaba Tongyi Qianwen ekibi tarafından yayınlanan yeni nesil temel modeldir. Tamamen yeni Qwen3-Next mimarisi üzerine kurulmuş olup, en üst düzey eğitim ve çıkarım verimliliğini hedeflemektedir. Model, yenilikçi hibrit dikkat mekanizması (Gated DeltaNet ve Gated Attention), yüksek seyrekli hibrit uzman (MoE) yapısı ve çeşitli eğitim stabilitesi optimizasyonları kullanmaktadır. 80 milyar toplam parametreye sahip seyrek bir model olarak, çıkarım sırasında yalnızca yaklaşık 3 milyar parametreyi aktive ederek hesaplama maliyetlerini önemli ölçüde düşürür ve 32K token’dan uzun bağlam görevlerinde çıkarım verimliliği Qwen3-32B modeline kıyasla 10 kat daha fazladır. Bu model, genel görevler için tasarlanmış talimat ince ayarlı bir versiyondur ve Düşünme (Thinking) modunu desteklemez. Performans açısından, Tongyi Qianwen’in amiral gemisi modeli Qwen3-235B ile bazı kıyaslama testlerinde eşdeğer performans sergiler ve özellikle uzun bağlam görevlerinde belirgin avantajlar gösterir."
|
||
},
|
||
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
||
"description": "Qwen3-Next-80B-A3B-Thinking, Alibaba Tongyi Qianwen ekibi tarafından karmaşık çıkarım görevleri için tasarlanmış yeni nesil temel modeldir. Yenilikçi Qwen3-Next mimarisi üzerine kurulmuş olup, hibrit dikkat mekanizması (Gated DeltaNet ve Gated Attention) ve yüksek seyrekli hibrit uzman (MoE) yapısını birleştirerek en üst düzey eğitim ve çıkarım verimliliğini hedefler. 80 milyar toplam parametreye sahip seyrek bir model olarak, çıkarım sırasında yalnızca yaklaşık 3 milyar parametreyi aktive ederek hesaplama maliyetlerini önemli ölçüde düşürür ve 32K token’dan uzun bağlam görevlerinde çıkarım verimliliği Qwen3-32B modeline kıyasla 10 kat daha fazladır. Bu “Thinking” versiyonu, matematiksel ispatlar, kod sentezi, mantıksal analiz ve planlama gibi zorlu çok adımlı görevler için optimize edilmiştir ve çıkarım sürecini varsayılan olarak yapılandırılmış “düşünce zinciri” biçiminde sunar. Performans açısından, yalnızca daha maliyetli modeller olan Qwen3-32B-Thinking’i değil, aynı zamanda Gemini-2.5-Flash-Thinking’i de birçok kıyaslama testinde geride bırakır."
|
||
},
|
||
"Qwen/Qwen3-Omni-30B-A3B-Captioner": {
|
||
"description": "Qwen3-Omni-30B-A3B-Captioner, Alibaba Tongyi Qianwen ekibinin Qwen3 serisinden bir görsel-dil modeli (VLM)'dir. Yüksek kaliteli, ayrıntılı ve doğru görsel açıklamalar üretmek için özel olarak tasarlanmıştır. 30 milyar toplam parametreye sahip karma uzman (MoE) mimarisi üzerine kuruludur ve görsel içeriği derinlemesine anlayarak bunu doğal ve akıcı metin açıklamalarına dönüştürebilir. Görsel detay yakalama, sahne anlama, nesne tanıma ve ilişki çıkarımı gibi alanlarda üstün performans gösterir. Özellikle hassas görsel anlama ve açıklama üretimi gerektiren uygulamalar için uygundur."
|
||
},
|
||
"Qwen/Qwen3-Omni-30B-A3B-Instruct": {
|
||
"description": "Qwen3-Omni-30B-A3B-Instruct, Alibaba Tongyi Qianwen ekibinin en yeni Qwen3 serisinin bir üyesidir. 30 milyar toplam parametre ve 3 milyar aktif parametreye sahip karma uzman (MoE) mimarisiyle, güçlü performansını korurken çıkarım maliyetini etkin şekilde düşürür. Yüksek kaliteli, çok kaynaklı ve çok dilli verilerle eğitilmiştir; güçlü genel yeteneklere sahiptir ve metin, görsel, ses ve video dahil olmak üzere tüm modlarda girdi işleyebilir. Modlar arası içerik anlama ve üretme yeteneğine sahiptir."
|
||
},
|
||
"Qwen/Qwen3-Omni-30B-A3B-Thinking": {
|
||
"description": "Qwen3-Omni-30B-A3B-Thinking, Qwen3-Omni çok modlu modelinin çekirdek \"düşünen\" (Thinker) bileşenidir. Metin, ses, görsel ve video dahil olmak üzere çok modlu girdileri işlemek ve karmaşık düşünce zinciri çıkarımı gerçekleştirmek üzere tasarlanmıştır. Çıkarımın beyni olarak, tüm girdileri ortak bir temsili alana dönüştürerek modlar arası derin anlama ve karmaşık çıkarım yetenekleri sağlar. Karma uzman (MoE) mimarisi üzerine kuruludur, 30 milyar toplam parametre ve 3 milyar aktif parametreye sahiptir; güçlü çıkarım yeteneğini korurken hesaplama verimliliğini optimize eder."
|
||
},
|
||
"Qwen/Qwen3-VL-235B-A22B-Instruct": {
|
||
"description": "Qwen3-VL-235B-A22B-Instruct, Qwen3-VL serisinin büyük ölçekli talimatla ince ayarlanmış modelidir. Karışık uzman (MoE) mimarisi üzerine kuruludur ve üstün çok modlu anlama ve üretim yeteneklerine sahiptir. Doğal olarak 256K bağlamı destekler ve yüksek eşzamanlı üretim düzeyinde çok modlu hizmetler için uygundur."
|
||
},
|
||
"Qwen/Qwen3-VL-235B-A22B-Thinking": {
|
||
"description": "Qwen3-VL-235B-A22B-Thinking, Qwen3-VL serisinin amiral gemisi düşünme sürümüdür. Karmaşık çok modlu akıl yürütme, uzun bağlamlı çıkarım ve yapay zeka etkileşimleri için özel olarak optimize edilmiştir. Derin düşünme ve görsel akıl yürütme gerektiren kurumsal düzeydeki senaryolar için uygundur."
|
||
},
|
||
"Qwen/Qwen3-VL-30B-A3B-Instruct": {
|
||
"description": "Qwen3-VL-30B-A3B-Instruct, Qwen3-VL serisinin talimatla ince ayarlanmış sürümüdür. Güçlü görsel-dil anlama ve üretim yeteneklerine sahiptir, doğal olarak 256K bağlam uzunluğunu destekler ve çok modlu diyaloglar ile görsel koşullu üretim görevleri için uygundur."
|
||
},
|
||
"Qwen/Qwen3-VL-30B-A3B-Thinking": {
|
||
"description": "Qwen3-VL-30B-A3B-Thinking, Qwen3-VL serisinin akıl yürütme yetenekleri geliştirilmiş (Thinking) sürümüdür. Çok modlu akıl yürütme, görselden koda dönüşüm ve karmaşık görsel anlama görevlerinde optimize edilmiştir. 256K bağlam desteği sunar ve daha güçlü zincirleme düşünme yeteneğine sahiptir."
|
||
},
|
||
"Qwen/Qwen3-VL-32B-Instruct": {
|
||
"description": "Qwen3-VL-32B-Instruct, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen bir görsel-dil modelidir ve birçok görsel-dil kıyaslamasında SOTA (state-of-the-art) performans elde etmiştir. Milyon piksel seviyesinde yüksek çözünürlüklü görsel girdileri destekler ve güçlü genel görsel anlama, çok dilli OCR, ince ayrıntılı görsel konumlandırma ve görsel diyalog yeteneklerine sahiptir. Qwen3 serisinin bir görsel-dil modeli olarak, karmaşık çok modlu görevleri işleyebilir; araç çağırma ve ön ek tamamlama gibi gelişmiş işlevleri destekler."
|
||
},
|
||
"Qwen/Qwen3-VL-32B-Thinking": {
|
||
"description": "Qwen3-VL-32B-Thinking, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen görsel-dil modelleri arasında, karmaşık görsel çıkarım görevleri için özel olarak optimize edilmiş bir versiyondur. Dahili \"düşünme modu\" sayesinde, soruları yanıtlamadan önce ayrıntılı ara çıkarım adımları üretebilir; bu da çok adımlı mantık, planlama ve karmaşık çıkarım gerektiren görevlerde performansını önemli ölçüde artırır. Milyon piksel seviyesinde yüksek çözünürlüklü görsel girdileri destekler; güçlü genel görsel anlama, çok dilli OCR, ince ayrıntılı görsel konumlandırma ve görsel diyalog yeteneklerine sahiptir. Ayrıca araç çağırma ve ön ek tamamlama gibi işlevleri destekler."
|
||
},
|
||
"Qwen/Qwen3-VL-8B-Instruct": {
|
||
"description": "Qwen3-VL-8B-Instruct, Qwen3 serisinin bir görsel-dil modelidir. Qwen3-8B-Instruct temel alınarak geliştirilmiş ve büyük miktarda görsel-metin verisiyle eğitilmiştir. Genel görsel anlama, görsel odaklı diyaloglar ve görsellerde çok dilli metin tanıma konularında uzmandır. Görsel soru-cevap, görsel betimleme, çok modlu komut takibi ve araç çağırma gibi senaryolarda kullanılabilir."
|
||
},
|
||
"Qwen/Qwen3-VL-8B-Thinking": {
|
||
"description": "Qwen3-VL-8B-Thinking, Qwen3 serisinin görsel düşünme versiyonudur ve karmaşık çok adımlı akıl yürütme görevleri için optimize edilmiştir. Varsayılan olarak, yanıt vermeden önce adım adım düşünme zinciri (thinking chain) oluşturarak akıl yürütme doğruluğunu artırır. Derinlemesine akıl yürütme gerektiren görsel soru-cevap, görsel içerik inceleme ve ayrıntılı analiz sunma gibi senaryolar için uygundur."
|
||
},
|
||
"Qwen2-72B-Instruct": {
|
||
"description": "Qwen2, Qwen modelinin en yeni serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler açısından mevcut lider modelleri önemli ölçüde aşmaktadır."
|
||
},
|
||
"Qwen2-7B-Instruct": {
|
||
"description": "Qwen2, Qwen modelinin en yeni serisidir ve eşit ölçekli en iyi açık kaynak modelleri hatta daha büyük ölçekli modelleri aşabilmektedir. Qwen2 7B, birçok değerlendirmede belirgin bir avantaj elde etmiş, özellikle kod ve Çince anlama konusunda."
|
||
},
|
||
"Qwen2-VL-72B": {
|
||
"description": "Qwen2-VL-72B, görüntü ve metin için çok modlu işleme desteği sunan güçlü bir görsel dil modelidir, görüntü içeriğini hassas bir şekilde tanıyabilir ve ilgili açıklamalar veya yanıtlar üretebilir."
|
||
},
|
||
"Qwen2.5-14B-Instruct": {
|
||
"description": "Qwen2.5-14B-Instruct, 14 milyar parametreye sahip büyük bir dil modelidir. Performansı mükemmel olup, Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
|
||
},
|
||
"Qwen2.5-32B-Instruct": {
|
||
"description": "Qwen2.5-32B-Instruct, 32 milyar parametreye sahip büyük bir dil modelidir. Performans dengeli olup, Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
|
||
},
|
||
"Qwen2.5-72B-Instruct": {
|
||
"description": "Qwen2.5-72B-Instruct, 16k bağlamı destekler ve 8K'dan uzun metinler üretebilir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim sağlar, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Modelin bilgisi belirgin şekilde artmış ve kodlama ile matematik yetenekleri büyük ölçüde geliştirilmiştir, 29'dan fazla dil desteği sunmaktadır."
|
||
},
|
||
"Qwen2.5-7B-Instruct": {
|
||
"description": "Qwen2.5-7B-Instruct, 7 milyar parametreye sahip büyük bir dil modelidir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim destekler, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Çince ve çok dilli senaryoları optimize eder, akıllı soru-cevap, içerik üretimi gibi uygulamaları destekler."
|
||
},
|
||
"Qwen2.5-Coder-14B-Instruct": {
|
||
"description": "Qwen2.5-Coder-14B-Instruct, büyük ölçekli önceden eğitilmiş bir programlama talimat modelidir, güçlü kod anlama ve üretme yeteneğine sahiptir, çeşitli programlama görevlerini verimli bir şekilde işleyebilir, özellikle akıllı kod yazma, otomatik betik oluşturma ve programlama sorunlarına yanıt verme için uygundur."
|
||
},
|
||
"Qwen2.5-Coder-32B-Instruct": {
|
||
"description": "Qwen2.5-Coder-32B-Instruct, kod üretimi, kod anlama ve verimli geliştirme senaryoları için tasarlanmış büyük bir dil modelidir. Sektördeki en ileri 32B parametre ölçeğini kullanarak çeşitli programlama ihtiyaçlarını karşılayabilir."
|
||
},
|
||
"Qwen3-235B": {
|
||
"description": "Qwen3-235B-A22B, MoE (Hibrit Uzman Modeli) modelidir ve \"Hibrit Akıl Yürütme Modu\"nu tanıtmaktadır. Kullanıcıların \"düşünme modu\" ile \"düşünme modu dışı\" arasında kesintisiz geçiş yapmasını destekler, 119 dil ve lehçede anlama ve akıl yürütme yeteneğine sahiptir ve güçlü araç çağırma kapasitesine sahiptir. Kapsamlı yetenekler, kodlama ve matematik, çok dilli yetenekler, bilgi ve akıl yürütme gibi çeşitli kıyaslama testlerinde, DeepSeek R1, OpenAI o1, o3-mini, Grok 3 ve Google Gemini 2.5 Pro gibi piyasadaki önde gelen büyük modellerle rekabet edebilmektedir."
|
||
},
|
||
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
||
"description": "Qwen3 235B A22B Instruct 2507: Gelişmiş çıkarım ve diyalog talimatları için optimize edilmiş model, büyük ölçekli parametrelerde çıkarım verimliliğini koruyan karma uzman mimarisi."
|
||
},
|
||
"Qwen3-32B": {
|
||
"description": "Qwen3-32B, Yoğun Model (Dense Model) olup \"Hibrit Akıl Yürütme Modu\"nu tanıtmaktadır. Kullanıcıların \"düşünme modu\" ile \"düşünme modu dışı\" arasında kesintisiz geçiş yapmasını destekler. Model mimarisi iyileştirmeleri, artırılmış eğitim verisi ve daha etkili eğitim yöntemleri sayesinde genel performansı Qwen2.5-72B ile karşılaştırılabilir düzeydedir."
|
||
},
|
||
"SenseChat": {
|
||
"description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür."
|
||
},
|
||
"SenseChat-128K": {
|
||
"description": "Temel sürüm model (V4), 128K bağlam uzunluğu ile uzun metin anlama ve üretme görevlerinde mükemmel performans sergilemektedir."
|
||
},
|
||
"SenseChat-32K": {
|
||
"description": "Temel sürüm model (V4), 32K bağlam uzunluğu ile çeşitli senaryolarda esnek bir şekilde uygulanabilir."
|
||
},
|
||
"SenseChat-5": {
|
||
"description": "En son sürüm model (V5.5), 128K bağlam uzunluğu, matematiksel akıl yürütme, İngilizce diyalog, talimat takibi ve uzun metin anlama gibi alanlarda önemli gelişmeler göstermektedir ve GPT-4o ile karşılaştırılabilir."
|
||
},
|
||
"SenseChat-5-1202": {
|
||
"description": "V5.5 tabanlı en son sürüm olup, önceki sürüme kıyasla Çince ve İngilizce temel yetenekler, sohbet, fen bilimleri bilgisi, sosyal bilimler bilgisi, yazım, matematiksel mantık ve kelime sayısı kontrolü gibi birçok alanda belirgin gelişmeler sunar."
|
||
},
|
||
"SenseChat-5-Cantonese": {
|
||
"description": "32K bağlam uzunluğu ile, Kantonca diyalog anlama konusunda GPT-4'ü aşmakta, bilgi, akıl yürütme, matematik ve kod yazma gibi birçok alanda GPT-4 Turbo ile rekabet edebilmektedir."
|
||
},
|
||
"SenseChat-5-beta": {
|
||
"description": "Bazı performansları SenseCat-5-1202'den daha iyidir."
|
||
},
|
||
"SenseChat-Character": {
|
||
"description": "Standart sürüm model, 8K bağlam uzunluğu ile yüksek yanıt hızı sunmaktadır."
|
||
},
|
||
"SenseChat-Character-Pro": {
|
||
"description": "Gelişmiş sürüm model, 32K bağlam uzunluğu ile yetenekleri tamamen geliştirilmiş, Çince/İngilizce diyalogları desteklemektedir."
|
||
},
|
||
"SenseChat-Turbo": {
|
||
"description": "Hızlı soru-cevap ve model ince ayar senaryoları için uygundur."
|
||
},
|
||
"SenseChat-Turbo-1202": {
|
||
"description": "En son hafif versiyon modelidir, tam modelin %90'ından fazla yetenek sunar ve çıkarım maliyetini önemli ölçüde azaltır."
|
||
},
|
||
"SenseChat-Vision": {
|
||
"description": "En son versiyon modeli (V5.5), çoklu görsel girişi destekler, modelin temel yetenek optimizasyonunu tamamen gerçekleştirir; nesne özellik tanıma, mekansal ilişkiler, hareket olayları tanıma, sahne anlama, duygu tanıma, mantıksal bilgi çıkarımı ve metin anlama üretimi gibi alanlarda önemli gelişmeler sağlamıştır."
|
||
},
|
||
"SenseNova-V6-5-Pro": {
|
||
"description": "Çok modlu, dil ve akıl yürütme verilerinin kapsamlı güncellenmesi ve eğitim stratejilerinin optimize edilmesiyle, yeni model çok modlu akıl yürütme ve genel talimat takibi yeteneklerinde önemli gelişmeler sağlamıştır. 128k'ya kadar bağlam penceresini destekler ve OCR ile kültürel turizm IP tanıma gibi özel görevlerde üstün performans gösterir."
|
||
},
|
||
"SenseNova-V6-5-Turbo": {
|
||
"description": "Çok modlu, dil ve akıl yürütme verilerinin kapsamlı güncellenmesi ve eğitim stratejilerinin optimize edilmesiyle, yeni model çok modlu akıl yürütme ve genel talimat takibi yeteneklerinde önemli gelişmeler sağlamıştır. 128k'ya kadar bağlam penceresini destekler ve OCR ile kültürel turizm IP tanıma gibi özel görevlerde üstün performans gösterir."
|
||
},
|
||
"SenseNova-V6-Pro": {
|
||
"description": "Görüntü, metin ve video yeteneklerinin yerel birliğini sağlar, geleneksel çok modlu ayrım sınırlamalarını aşar, OpenCompass ve SuperCLUE değerlendirmelerinde çift şampiyonluk kazanmıştır."
|
||
},
|
||
"SenseNova-V6-Reasoner": {
|
||
"description": "Görsel ve dil derin akıl yürütmesini bir araya getirerek, yavaş düşünme ve derin akıl yürütmeyi gerçekleştirir, tam bir düşünce zinciri sürecini sunar."
|
||
},
|
||
"SenseNova-V6-Turbo": {
|
||
"description": "Görüntü, metin ve video yeteneklerinin yerel birliğini sağlar, geleneksel çok modlu ayrım sınırlamalarını aşar, çoklu temel yetenekler, dil temel yetenekleri gibi ana boyutlarda kapsamlı bir şekilde önde gelir, hem edebi hem de mantıksal olarak dengelidir ve birçok değerlendirmede ulusal ve uluslararası birinci lig seviyesinde yer almıştır."
|
||
},
|
||
"Skylark2-lite-8k": {
|
||
"description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-lite modeli yüksek yanıt hızı ile donatılmıştır; gerçek zamanlı talep gereksinimleri yüksek, maliyet duyarlı ve model hassasiyetine daha az ihtiyaç duyulan senaryolar için uygundur; bağlam pencere uzunluğu 8k'dır."
|
||
},
|
||
"Skylark2-pro-32k": {
|
||
"description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro sürümüyle yüksek model hassasiyetine sahiptir; profesyonel alan metin üretimi, roman yazımı, yüksek kaliteli çeviri gibi daha karmaşık metin üretim sahneleri için uygundur ve bağlam pencere uzunluğu 32k'dır."
|
||
},
|
||
"Skylark2-pro-4k": {
|
||
"description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro modeli yüksek model hassasiyetine sahiptir; profesyonel alan metin üretimi, roman yazımı, yüksek kaliteli çeviri gibi daha karmaşık metin üretim sahneleri için uygundur ve bağlam pencere uzunluğu 4k'dır."
|
||
},
|
||
"Skylark2-pro-character-4k": {
|
||
"description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro-character modeli, mükemmel rol yapma ve sohbet yeteneklerine sahiptir; kullanıcıdan gelen istem taleplerine göre farklı roller üstlenme kabiliyeti ile sohbet edebilir. Rol stili belirgindir ve diyalog içeriği doğal ve akıcıdır. Chatbot, sanal asistan ve çevrimiçi müşteri hizmetleri gibi senaryolar için uygundur ve yüksek yanıt hızı vardır."
|
||
},
|
||
"Skylark2-pro-turbo-8k": {
|
||
"description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro-turbo-8k ile daha hızlı çıkarım gerçekleştirir, maliyeti düşüktür ve bağlam pencere uzunluğu 8k'dır."
|
||
},
|
||
"THUDM/GLM-4-32B-0414": {
|
||
"description": "GLM-4-32B-0414, GLM serisinin yeni nesil açık kaynak modelidir ve 32 milyar parametreye sahiptir. Bu model, OpenAI'nin GPT serisi ve DeepSeek'in V3/R1 serisi ile karşılaştırılabilir performans sunar."
|
||
},
|
||
"THUDM/GLM-4-9B-0414": {
|
||
"description": "GLM-4-9B-0414, GLM serisinin küçük modelidir ve 9 milyar parametreye sahiptir. Bu model, GLM-4-32B serisinin teknik özelliklerini devralır, ancak daha hafif bir dağıtım seçeneği sunar. Boyutu daha küçük olmasına rağmen, GLM-4-9B-0414, kod oluşturma, web tasarımı, SVG grafik oluşturma ve arama tabanlı yazım gibi görevlerde mükemmel yetenekler sergiler."
|
||
},
|
||
"THUDM/GLM-4.1V-9B-Thinking": {
|
||
"description": "GLM-4.1V-9B-Thinking, Zhipu AI ve Tsinghua Üniversitesi KEG Laboratuvarı tarafından ortaklaşa yayınlanan açık kaynaklı bir görsel dil modeli (VLM) olup, karmaşık çok modlu bilişsel görevleri işlemek için tasarlanmıştır. Bu model, GLM-4-9B-0414 temel modeli üzerine kurulmuş olup, \"Düşünce Zinciri\" (Chain-of-Thought) akıl yürütme mekanizmasını ve pekiştirmeli öğrenme stratejisini benimseyerek, modlar arası akıl yürütme yeteneği ve kararlılığını önemli ölçüde artırmıştır."
|
||
},
|
||
"THUDM/GLM-Z1-32B-0414": {
|
||
"description": "GLM-Z1-32B-0414, derin düşünme yeteneğine sahip bir çıkarım modelidir. Bu model, GLM-4-32B-0414 temel alınarak soğuk başlatma ve genişletilmiş pekiştirme öğrenimi ile geliştirilmiştir ve matematik, kod ve mantık görevlerinde daha fazla eğitim almıştır. Temel model ile karşılaştırıldığında, GLM-Z1-32B-0414, matematik yeteneklerini ve karmaşık görevleri çözme yeteneğini önemli ölçüde artırmıştır."
|
||
},
|
||
"THUDM/GLM-Z1-9B-0414": {
|
||
"description": "GLM-Z1-9B-0414, GLM serisinin küçük modelidir, yalnızca 9 milyar parametreye sahiptir, ancak açık kaynak geleneğini sürdürürken etkileyici yetenekler sergiler. Boyutu daha küçük olmasına rağmen, bu model matematik çıkarımı ve genel görevlerde mükemmel performans gösterir, genel performansı eşit boyuttaki açık kaynak modeller arasında lider konumdadır."
|
||
},
|
||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||
"description": "GLM-Z1-Rumination-32B-0414, derin düşünme yeteneğine sahip bir derin çıkarım modelidir (OpenAI'nin Derin Araştırması ile karşılaştırılabilir). Tipik derin düşünme modellerinin aksine, düşünme modeli daha uzun süreli derin düşünme ile daha açık ve karmaşık sorunları çözmektedir."
|
||
},
|
||
"THUDM/glm-4-9b-chat": {
|
||
"description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
|
||
},
|
||
"Tongyi-Zhiwen/QwenLong-L1-32B": {
|
||
"description": "QwenLong-L1-32B, uzun bağlamlı büyük ölçekli akıl yürütme modeli (LRM) olup, pekiştirmeli öğrenme ile eğitilen ilk modeldir ve uzun metin akıl yürütme görevlerine optimize edilmiştir. Model, kademeli bağlam genişletme pekiştirmeli öğrenme çerçevesiyle kısa bağlamdan uzun bağlama stabil geçiş sağlar. Yedi uzun bağlamlı belge soru-cevap kıyaslama testinde, QwenLong-L1-32B OpenAI-o3-mini ve Qwen3-235B-A22B gibi amiral gemisi modelleri geride bırakmış ve Claude-3.7-Sonnet-Thinking ile karşılaştırılabilir performans göstermiştir. Model özellikle matematiksel akıl yürütme, mantıksal akıl yürütme ve çok adımlı akıl yürütme gibi karmaşık görevlerde uzmandır."
|
||
},
|
||
"Yi-34B-Chat": {
|
||
"description": "Yi-1.5-34B, orijinal model serisinin mükemmel genel dil yeteneklerini korurken, 500 milyar yüksek kaliteli token ile artımlı eğitim sayesinde matematiksel mantık ve kodlama yeteneklerini büyük ölçüde artırmıştır."
|
||
},
|
||
"abab5.5-chat": {
|
||
"description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur."
|
||
},
|
||
"abab5.5s-chat": {
|
||
"description": "Çin karakter diyalog senaryoları için tasarlanmış, yüksek kaliteli Çin diyalog üretim yeteneği sunar ve çeşitli uygulama senaryoları için uygundur."
|
||
},
|
||
"abab6.5g-chat": {
|
||
"description": "Çok dilli karakter diyalogları için tasarlanmış, İngilizce ve diğer birçok dilde yüksek kaliteli diyalog üretimini destekler."
|
||
},
|
||
"abab6.5s-chat": {
|
||
"description": "Metin üretimi, diyalog sistemleri gibi geniş doğal dil işleme görevleri için uygundur."
|
||
},
|
||
"abab6.5t-chat": {
|
||
"description": "Çin karakter diyalog senaryoları için optimize edilmiş, akıcı ve Çin ifade alışkanlıklarına uygun diyalog üretim yeteneği sunar."
|
||
},
|
||
"accounts/fireworks/models/deepseek-r1": {
|
||
"description": "DeepSeek-R1, güçlendirilmiş öğrenme ve soğuk başlangıç verileri ile optimize edilmiş, mükemmel akıl yürütme, matematik ve programlama performansına sahip en son teknoloji büyük bir dil modelidir."
|
||
},
|
||
"accounts/fireworks/models/deepseek-v3": {
|
||
"description": "Deepseek tarafından sunulan güçlü Mixture-of-Experts (MoE) dil modeli, toplamda 671B parametreye sahiptir ve her bir etiket için 37B parametre etkinleştirilmektedir."
|
||
},
|
||
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
||
"description": "Llama 3 70B talimat modeli, çok dilli diyalog ve doğal dil anlama için optimize edilmiştir, çoğu rakip modelden daha iyi performans gösterir."
|
||
},
|
||
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
||
"description": "Llama 3 8B talimat modeli, diyalog ve çok dilli görevler için optimize edilmiştir, mükemmel ve etkili performans sunar."
|
||
},
|
||
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
|
||
"description": "Llama 3 8B talimat modeli (HF versiyonu), resmi uygulama sonuçlarıyla uyumlu olup yüksek tutarlılık ve platformlar arası uyumluluk sunar."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
|
||
"description": "Llama 3.1 405B talimat modeli, devasa parametreler ile karmaşık görevler ve yüksek yük senaryolarında talimat takibi için uygundur."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
|
||
"description": "Llama 3.1 70B talimat modeli, mükemmel doğal dil anlama ve üretim yetenekleri sunar, diyalog ve analiz görevleri için idealdir."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
||
"description": "Llama 3.1 8B talimat modeli, çok dilli diyaloglar için optimize edilmiştir ve yaygın endüstri standartlarını aşmaktadır."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
||
"description": "Meta'nın 11B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
||
"description": "Llama 3.2 3B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında sorgulama, öneri yeniden yazma ve yazma desteği bulunmaktadır."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
||
"description": "Meta'nın 90B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
|
||
},
|
||
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
||
"description": "Llama 3.3 70B Instruct, Llama 3.1 70B'nin Aralık güncellemesi olan bir modeldir. Bu model, Llama 3.1 70B (2024 Temmuz'da piyasaya sürüldü) temel alınarak geliştirilmiş olup, araç çağrıları, çok dilli metin desteği, matematik ve programlama yeteneklerini artırmıştır. Model, akıl yürütme, matematik ve talimat takibi alanlarında sektördeki en yüksek standartlara ulaşmış olup, 3.1 405B ile benzer performans sunarken hız ve maliyet açısından önemli avantajlar sağlamaktadır."
|
||
},
|
||
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
||
"description": "24B parametreli model, daha büyük modellerle karşılaştırılabilir en son teknoloji yeteneklerine sahiptir."
|
||
},
|
||
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
||
"description": "Mixtral MoE 8x22B talimat modeli, büyük ölçekli parametreler ve çok uzmanlı mimarisi ile karmaşık görevlerin etkili işlenmesini destekler."
|
||
},
|
||
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
||
"description": "Mixtral MoE 8x7B talimat modeli, çok uzmanlı mimarisi ile etkili talimat takibi ve yürütme sunar."
|
||
},
|
||
"accounts/fireworks/models/mythomax-l2-13b": {
|
||
"description": "MythoMax L2 13B modeli, yenilikçi birleşim teknolojileri ile hikaye anlatımı ve rol yapma konularında uzmandır."
|
||
},
|
||
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
||
"description": "Phi 3 Vision talimat modeli, karmaşık görsel ve metin bilgilerini işleyebilen hafif çok modlu bir modeldir ve güçlü akıl yürütme yeteneklerine sahiptir."
|
||
},
|
||
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
||
"description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
|
||
},
|
||
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
||
"description": "Qwen-VL modelinin 72B versiyonu, Alibaba'nın en son iterasyonunun bir ürünüdür ve son bir yılın yeniliklerini temsil etmektedir."
|
||
},
|
||
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
||
"description": "Qwen2.5, Alibaba Cloud Qwen ekibi tarafından geliştirilen yalnızca kodlayıcı içeren bir dizi dil modelidir. Bu modeller, 0.5B, 1.5B, 3B, 7B, 14B, 32B ve 72B gibi farklı boyutları sunar ve temel (base) ve komut (instruct) versiyonlarına sahiptir."
|
||
},
|
||
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
||
"description": "Qwen2.5 Coder 32B Instruct, Alibaba Cloud tarafından yayınlanan kod odaklı büyük dil modeli serisinin en son versiyonudur. Bu model, Qwen2.5 temelinde, 5.5 trilyon token ile eğitilerek kod üretimi, akıl yürütme ve düzeltme yeteneklerini önemli ölçüde artırmıştır. Hem kodlama yeteneklerini geliştirmiş hem de matematik ve genel yetenek avantajlarını korumuştur. Model, kod akıllı ajanları gibi pratik uygulamalar için daha kapsamlı bir temel sunmaktadır."
|
||
},
|
||
"accounts/yi-01-ai/models/yi-large": {
|
||
"description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur."
|
||
},
|
||
"ai21-jamba-1.5-large": {
|
||
"description": "398B parametreli (94B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar."
|
||
},
|
||
"ai21-jamba-1.5-mini": {
|
||
"description": "52B parametreli (12B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar."
|
||
},
|
||
"ai21-labs/AI21-Jamba-1.5-Large": {
|
||
"description": "398 milyar parametreli (94 milyar aktif) çok dilli model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve gerçeklere dayalı üretim sunar."
|
||
},
|
||
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
||
"description": "52 milyar parametreli (12 milyar aktif) çok dilli model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve gerçeklere dayalı üretim sunar."
|
||
},
|
||
"alibaba/qwen-3-14b": {
|
||
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
||
},
|
||
"alibaba/qwen-3-235b": {
|
||
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
||
},
|
||
"alibaba/qwen-3-30b": {
|
||
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
||
},
|
||
"alibaba/qwen-3-32b": {
|
||
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
|
||
},
|
||
"alibaba/qwen3-coder": {
|
||
"description": "Qwen3-Coder-480B-A35B-Instruct, Qwen serisinin en yetenekli kodlama modeli olup, ajan kodlama, ajan tarayıcı kullanımı ve diğer temel kodlama görevlerinde belirgin performans sergiler ve Claude Sonnet ile karşılaştırılabilir sonuçlar elde eder."
|
||
},
|
||
"amazon/nova-lite": {
|
||
"description": "Çok düşük maliyetli çok modlu bir model olup, görüntü, video ve metin girişlerini çok hızlı işler."
|
||
},
|
||
"amazon/nova-micro": {
|
||
"description": "Sadece metin modeli olup, çok düşük maliyetle en düşük gecikmeli yanıtları sunar."
|
||
},
|
||
"amazon/nova-pro": {
|
||
"description": "Yüksek yetenekli çok modlu model olup, doğruluk, hız ve maliyetin en iyi kombinasyonunu sunar ve geniş görev yelpazesi için uygundur."
|
||
},
|
||
"amazon/titan-embed-text-v2": {
|
||
"description": "Amazon Titan Text Embeddings V2, hafif, verimli çok dilli gömme modeli olup, 1024, 512 ve 256 boyutlarını destekler."
|
||
},
|
||
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
||
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
|
||
},
|
||
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
||
"description": "Claude 3.5 Sonnet, sektör standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak, geniş bir değerlendirme yelpazesinde mükemmel performans sergilemekte, orta seviye modellerimizin hız ve maliyet avantajlarını sunmaktadır."
|
||
},
|
||
"anthropic.claude-3-haiku-20240307-v1:0": {
|
||
"description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir, neredeyse anında yanıt hızı sunar. Basit sorgular ve taleplere hızlı bir şekilde yanıt verebilir. Müşteriler, insan etkileşimini taklit eden kesintisiz bir AI deneyimi oluşturabileceklerdir. Claude 3 Haiku, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir."
|
||
},
|
||
"anthropic.claude-3-opus-20240229-v1:0": {
|
||
"description": "Claude 3 Opus, Anthropic'in en güçlü AI modelidir, son derece karmaşık görevlerde en ileri düzey performansa sahiptir. Açık uçlu istemleri ve daha önce görülmemiş senaryoları işleyebilir, mükemmel akıcılık ve insan benzeri anlama yeteneğine sahiptir. Claude 3 Opus, üretken AI olasılıklarının öncüsüdür. Claude 3 Opus, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir."
|
||
},
|
||
"anthropic.claude-3-sonnet-20240229-v1:0": {
|
||
"description": "Anthropic'in Claude 3 Sonnet, zeka ve hız arasında ideal bir denge sağlar - özellikle kurumsal iş yükleri için uygundur. Rakiplerine göre daha düşük bir fiyatla maksimum fayda sunar ve ölçeklenebilir AI dağıtımları için güvenilir, dayanıklı bir ana makine olarak tasarlanmıştır. Claude 3 Sonnet, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir."
|
||
},
|
||
"anthropic.claude-instant-v1": {
|
||
"description": "Günlük diyaloglar, metin analizi, özetleme ve belge soru-cevap gibi bir dizi görevi işleyebilen hızlı, ekonomik ve hala oldukça yetenekli bir modeldir."
|
||
},
|
||
"anthropic.claude-v2": {
|
||
"description": "Anthropic, karmaşık diyaloglardan yaratıcı içerik üretimine ve ayrıntılı talimat takibine kadar geniş bir görev yelpazesinde yüksek yetenek sergileyen bir modeldir."
|
||
},
|
||
"anthropic.claude-v2:1": {
|
||
"description": "Claude 2'nin güncellenmiş versiyonu, iki kat daha büyük bir bağlam penceresine sahiptir ve uzun belgeler ve RAG bağlamındaki güvenilirlik, yanılsama oranı ve kanıta dayalı doğrulukta iyileştirmeler sunar."
|
||
},
|
||
"anthropic/claude-3-haiku": {
|
||
"description": "Claude 3 Haiku, Anthropic'in şimdiye kadarki en hızlı modeli olup, genellikle uzun istemler içeren kurumsal iş yükleri için tasarlanmıştır. Haiku, çeyrek dosyaları, sözleşmeler veya hukuk davaları gibi büyük belge yığınlarını hızlıca analiz edebilir ve maliyeti performans seviyesindeki diğer modellere göre yarı yarıya düşüktür."
|
||
},
|
||
"anthropic/claude-3-opus": {
|
||
"description": "Claude 3 Opus, Anthropic'in en zeki modeli olup, yüksek karmaşıklıktaki görevlerde piyasa lideri performans sunar. Açık uçlu istemleri ve daha önce görülmemiş senaryoları üstün akıcılık ve insan benzeri anlayışla yönetebilir."
|
||
},
|
||
"anthropic/claude-3.5-haiku": {
|
||
"description": "Claude 3.5 Haiku, hız, kodlama doğruluğu ve araç kullanımı açısından geliştirilmiş yeteneklere sahiptir. Hız ve araç etkileşimi gerektiren senaryolar için uygundur."
|
||
},
|
||
"anthropic/claude-3.5-sonnet": {
|
||
"description": "Claude 3.5 Sonnet, Sonnet ailesinin hızlı ve verimli bir modelidir; daha iyi kodlama ve akıl yürütme performansı sunar. Bazı sürümleri zamanla Sonnet 3.7 gibi modellerle değiştirilecektir."
|
||
},
|
||
"anthropic/claude-3.7-sonnet": {
|
||
"description": "Claude 3.7 Sonnet, Sonnet serisinin yükseltilmiş versiyonudur; daha güçlü akıl yürütme ve kodlama yetenekleri sunar, kurumsal düzeyde karmaşık görevler için uygundur."
|
||
},
|
||
"anthropic/claude-haiku-4.5": {
|
||
"description": "Claude Haiku 4.5, Anthropic’in yüksek performanslı hızlı modelidir; yüksek doğruluğu korurken son derece düşük gecikme süresi sunar."
|
||
},
|
||
"anthropic/claude-opus-4": {
|
||
"description": "Opus 4, Anthropic’in amiral gemisi modelidir; karmaşık görevler ve kurumsal uygulamalar için özel olarak tasarlanmıştır."
|
||
},
|
||
"anthropic/claude-opus-4.1": {
|
||
"description": "Opus 4.1, Anthropic’in üst düzey modelidir; programlama, karmaşık akıl yürütme ve sürekli görevler için optimize edilmiştir."
|
||
},
|
||
"anthropic/claude-opus-4.5": {
|
||
"description": "Claude Opus 4.5, Anthropic'in amiral gemisi modelidir. Üstün zekâ ve ölçeklenebilir performansı bir araya getirerek, en yüksek kalitede yanıtlar ve akıl yürütme yeteneği gerektiren karmaşık görevler için idealdir."
|
||
},
|
||
"anthropic/claude-sonnet-4": {
|
||
"description": "Claude Sonnet 4, Anthropic’in hibrit akıl yürütme modelidir; düşünsel ve düşünsel olmayan yetenekleri bir arada sunar."
|
||
},
|
||
"anthropic/claude-sonnet-4.5": {
|
||
"description": "Claude Sonnet 4.5, Anthropic’in en yeni hibrit akıl yürütme modelidir; karmaşık akıl yürütme ve kodlama için optimize edilmiştir."
|
||
},
|
||
"ascend-tribe/pangu-pro-moe": {
|
||
"description": "Pangu-Pro-MoE 72B-A16B, 72 milyar parametreli ve 16 milyar parametre aktive eden seyrek büyük bir dil modelidir. Bu model, grup tabanlı uzman karışımı (MoGE) mimarisine dayanır; uzman seçim aşamasında uzmanları gruplar halinde düzenler ve her grupta token başına eşit sayıda uzmanı aktive ederek uzman yük dengesini sağlar. Bu sayede Ascend platformunda modelin dağıtım verimliliği önemli ölçüde artırılmıştır."
|
||
},
|
||
"aya": {
|
||
"description": "Aya 23, Cohere tarafından sunulan çok dilli bir modeldir, 23 dili destekler ve çok dilli uygulamalar için kolaylık sağlar."
|
||
},
|
||
"aya:35b": {
|
||
"description": "Aya 23, Cohere tarafından sunulan çok dilli bir modeldir, 23 dili destekler ve çok dilli uygulamalar için kolaylık sağlar."
|
||
},
|
||
"azure-DeepSeek-R1-0528": {
|
||
"description": "Microsoft tarafından dağıtılmıştır; DeepSeek R1 modeli küçük bir sürüm güncellemesi almıştır, mevcut sürüm DeepSeek-R1-0528'dir. En son güncellemede, DeepSeek R1 hesaplama kaynaklarını artırarak ve eğitim sonrası algoritma optimizasyon mekanizmasını tanıtarak çıkarım derinliği ve tahmin yeteneğini önemli ölçüde geliştirmiştir. Bu model matematik, programlama ve genel mantık gibi çeşitli kıyaslama testlerinde üstün performans göstermiştir ve genel performansı O3 ve Gemini 2.5 Pro gibi önde gelen modellerle yakındır."
|
||
},
|
||
"baichuan-m2-32b": {
|
||
"description": "Baichuan M2 32B, Baichuan Intelligence tarafından geliştirilen bir karma uzman modelidir ve güçlü akıl yürütme yeteneklerine sahiptir."
|
||
},
|
||
"baichuan/baichuan2-13b-chat": {
|
||
"description": "Baichuan-13B, Baichuan Zhi Neng tarafından geliştirilen 130 milyar parametreye sahip açık kaynaklı ticari bir büyük dil modelidir ve yetkili Çince ve İngilizce benchmark'larda aynı boyuttaki en iyi sonuçları elde etmiştir."
|
||
},
|
||
"baidu/ERNIE-4.5-300B-A47B": {
|
||
"description": "ERNIE-4.5-300B-A47B, Baidu tarafından geliştirilen, karma uzman (MoE) mimarisine dayanan büyük bir dil modelidir. Modelin toplam parametre sayısı 300 milyar olup, çıkarım sırasında her token için yalnızca 47 milyar parametre aktive edilir; böylece güçlü performans ile hesaplama verimliliği dengelenir. ERNIE 4.5 serisinin temel modellerinden biri olarak, metin anlama, üretme, akıl yürütme ve programlama gibi görevlerde üstün yetenekler sergiler. Model, metin ve görsel modların ortak eğitimiyle çok modlu heterojen MoE ön eğitim yöntemi kullanarak genel yeteneklerini artırmış, özellikle talimat takibi ve dünya bilgisi hafızasında etkileyici sonuçlar elde etmiştir."
|
||
},
|
||
"baidu/ernie-5.0-thinking-preview": {
|
||
"description": "ERNIE 5.0 Thinking Preview, Baidu’nun yeni nesil yerel çok modlu Wenxin modelidir; çok modlu anlama, komut takibi, yaratım, gerçeklere dayalı soru-cevap ve araç çağırma konularında uzmandır."
|
||
},
|
||
"c4ai-aya-expanse-32b": {
|
||
"description": "Aya Expanse, talimat ayarlama, veri arbitrajı, tercih eğitimi ve model birleştirme yenilikleri ile tek dilli modellerin performansını zorlamak için tasarlanmış yüksek performanslı bir 32B çok dilli modeldir. 23 dili desteklemektedir."
|
||
},
|
||
"c4ai-aya-expanse-8b": {
|
||
"description": "Aya Expanse, talimat ayarlama, veri arbitrajı, tercih eğitimi ve model birleştirme yenilikleri ile tek dilli modellerin performansını zorlamak için tasarlanmış yüksek performanslı bir 8B çok dilli modeldir. 23 dili desteklemektedir."
|
||
},
|
||
"c4ai-aya-vision-32b": {
|
||
"description": "Aya Vision, dil, metin ve görüntü yeteneklerinin birden fazla anahtar ölçütünde mükemmel performans sergileyen en son teknoloji çok modlu bir modeldir. 23 dili desteklemektedir. Bu 32 milyar parametreli versiyon, en son teknoloji çok dilli performansa odaklanmaktadır."
|
||
},
|
||
"c4ai-aya-vision-8b": {
|
||
"description": "Aya Vision, dil, metin ve görüntü yeteneklerinin birden fazla anahtar ölçütünde mükemmel performans sergileyen en son teknoloji çok modlu bir modeldir. Bu 8 milyar parametreli versiyon, düşük gecikme ve en iyi performansa odaklanmaktadır."
|
||
},
|
||
"charglm-3": {
|
||
"description": "CharGLM-3, rol yapma ve duygusal destek için tasarlanmış, ultra uzun çok turlu bellek ve kişiselleştirilmiş diyalog desteği sunan bir modeldir, geniş bir uygulama yelpazesine sahiptir."
|
||
},
|
||
"charglm-4": {
|
||
"description": "CharGLM-4, rol yapma ve duygusal destek için tasarlanmıştır, uzun süreli çoklu hafıza ve kişiselleştirilmiş diyalogları destekler, geniş bir uygulama yelpazesine sahiptir."
|
||
},
|
||
"chatgpt-4o-latest": {
|
||
"description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur."
|
||
},
|
||
"claude-2.0": {
|
||
"description": "Claude 2, işletmelere kritik yeteneklerin ilerlemesini sunar, sektördeki en iyi 200K token bağlamı, model yanılsamalarının önemli ölçüde azaltılması, sistem ipuçları ve yeni bir test özelliği: araç çağrısı içerir."
|
||
},
|
||
"claude-2.1": {
|
||
"description": "Claude 2, işletmelere kritik yeteneklerin ilerlemesini sunar, sektördeki en iyi 200K token bağlamı, model yanılsamalarının önemli ölçüde azaltılması, sistem ipuçları ve yeni bir test özelliği: araç çağrısı içerir."
|
||
},
|
||
"claude-3-5-haiku-20241022": {
|
||
"description": "Claude 3.5 Haiku, Anthropic'in en hızlı bir sonraki nesil modelidir. Claude 3 Haiku ile karşılaştırıldığında, Claude 3.5 Haiku, tüm becerilerde gelişim göstermiştir ve birçok zeka standart testinde bir önceki neslin en büyük modeli olan Claude 3 Opus'u geride bırakmıştır."
|
||
},
|
||
"claude-3-5-haiku-latest": {
|
||
"description": "Claude 3.5 Haiku hızlı yanıtlar sunar ve hafif görevler için uygundur."
|
||
},
|
||
"claude-3-7-sonnet-20250219": {
|
||
"description": "Claude 3.7 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak, geniş bir değerlendirme yelpazesinde mükemmel performans sergilemekte, orta seviye modellerimizin hız ve maliyet avantajlarını sunmaktadır."
|
||
},
|
||
"claude-3-7-sonnet-latest": {
|
||
"description": "Claude 3.7 Sonnet, Anthropic'in en yeni ve en güçlü modeli olup, yüksek karmaşıklıktaki görevleri işler. Performans, zeka, akıcılık ve anlama yeteneğinde üstünlük gösterir."
|
||
},
|
||
"claude-3-haiku-20240307": {
|
||
"description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir, neredeyse anlık yanıtlar sağlamak için tasarlanmıştır. Hızlı ve doğru yönlendirme performansına sahiptir."
|
||
},
|
||
"claude-3-opus-20240229": {
|
||
"description": "Claude 3 Opus, Anthropic'in yüksek karmaşıklıkta görevleri işlemek için en güçlü modelidir. Performans, zeka, akıcılık ve anlama açısından mükemmel bir şekilde öne çıkar."
|
||
},
|
||
"claude-3-sonnet-20240229": {
|
||
"description": "Claude 3 Sonnet, akıllı ve hızlı bir denge sunarak kurumsal iş yükleri için idealdir. Daha düşük bir fiyatla maksimum fayda sağlar, güvenilir ve büyük ölçekli dağıtım için uygundur."
|
||
},
|
||
"claude-haiku-4-5-20251001": {
|
||
"description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modeli olup, yıldırım hızında çalışır ve gelişmiş düşünme yeteneklerine sahiptir."
|
||
},
|
||
"claude-opus-4-1-20250805": {
|
||
"description": "Claude Opus 4.1, Anthropic'in en karmaşık görevleri işlemek için geliştirdiği en güçlü modelidir. Performans, zeka, akıcılık ve anlama yeteneği açısından olağanüstü bir performans sergiler."
|
||
},
|
||
"claude-opus-4-1-20250805-thinking": {
|
||
"description": "Claude Opus 4.1 düşünme modeli, akıl yürütme sürecini gösterebilen gelişmiş bir versiyondur."
|
||
},
|
||
"claude-opus-4-20250514": {
|
||
"description": "Claude Opus 4, Anthropic'in son derece karmaşık görevleri işlemek için geliştirdiği en güçlü modeldir. Performans, zeka, akıcılık ve anlama açısından mükemmel bir şekilde öne çıkmaktadır."
|
||
},
|
||
"claude-opus-4-5-20251101": {
|
||
"description": "Claude Opus 4.5, Anthropic'in amiral gemisi modelidir. Üstün zekâ ve ölçeklenebilir performansı bir araya getirerek, en yüksek kalitede yanıtlar ve akıl yürütme yeteneği gerektiren karmaşık görevler için idealdir."
|
||
},
|
||
"claude-sonnet-4-20250514": {
|
||
"description": "Claude Sonnet 4, neredeyse anında yanıtlar veya uzatılmış adım adım düşünme süreçleri üretebilir; kullanıcılar bu süreçleri net bir şekilde görebilir."
|
||
},
|
||
"claude-sonnet-4-20250514-thinking": {
|
||
"description": "Claude Sonnet 4 düşünme modeli, neredeyse anında yanıtlar veya uzatılmış adım adım düşünme süreçleri üretebilir; kullanıcılar bu süreçleri net bir şekilde görebilir."
|
||
},
|
||
"claude-sonnet-4-5-20250929": {
|
||
"description": "Claude Sonnet 4.5, Anthropic'in şimdiye kadarki en akıllı modelidir."
|
||
},
|
||
"codegeex-4": {
|
||
"description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır."
|
||
},
|
||
"codegeex4-all-9b": {
|
||
"description": "CodeGeeX4-ALL-9B, çok dilli kod üretim modeli olup, kod tamamlama ve üretimi, kod yorumlayıcı, web arama, fonksiyon çağrısı, depo düzeyinde kod soru-cevap gibi kapsamlı işlevleri destekler ve yazılım geliştirme için çeşitli senaryoları kapsar. 10B'den az parametreye sahip en iyi kod üretim modelidir."
|
||
},
|
||
"codegemma": {
|
||
"description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler."
|
||
},
|
||
"codegemma:2b": {
|
||
"description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler."
|
||
},
|
||
"codellama": {
|
||
"description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur."
|
||
},
|
||
"codellama/CodeLlama-34b-Instruct-hf": {
|
||
"description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir ve geniş bir programlama dili desteği sunarak geliştirici ortamları için uygundur."
|
||
},
|
||
"codellama:13b": {
|
||
"description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur."
|
||
},
|
||
"codellama:34b": {
|
||
"description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur."
|
||
},
|
||
"codellama:70b": {
|
||
"description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur."
|
||
},
|
||
"codeqwen": {
|
||
"description": "CodeQwen1.5, büyük miktarda kod verisi ile eğitilmiş büyük bir dil modelidir, karmaşık programlama görevlerini çözmek için özel olarak tasarlanmıştır."
|
||
},
|
||
"codestral": {
|
||
"description": "Codestral, Mistral AI'nın ilk kod modelidir, kod üretim görevlerine mükemmel destek sunar."
|
||
},
|
||
"codestral-latest": {
|
||
"description": "Codestral, kod üretimine odaklanan son teknoloji bir üretim modelidir, ara doldurma ve kod tamamlama görevlerini optimize etmiştir."
|
||
},
|
||
"codex-mini-latest": {
|
||
"description": "codex-mini-latest, Codex CLI için özel olarak ince ayarlanmış o4-mini versiyonudur. API üzerinden doğrudan kullanım için, gpt-4.1'den başlamanızı öneririz."
|
||
},
|
||
"cogito-2.1:671b": {
|
||
"description": "Cogito v2.1 671B, ücretsiz ticari kullanım için sunulan ABD menşeli açık kaynak büyük dil modelidir; üstün performansı, yüksek token akıl yürütme verimliliği, 128k uzun bağlam desteği ve güçlü genel yetenekleriyle öne çıkar."
|
||
},
|
||
"cogview-4": {
|
||
"description": "CogView-4, Zhipu'nun Çince karakter üretimini destekleyen ilk açık kaynaklı metinden görsele modelidir. Anlam anlayışı, görüntü üretim kalitesi ve Çince-İngilizce metin üretme yeteneklerinde kapsamlı iyileştirmeler sunar. Her uzunlukta Çince ve İngilizce çift dilli girişi destekler ve verilen aralıkta herhangi bir çözünürlükte görüntü oluşturabilir."
|
||
},
|
||
"cohere-command-r": {
|
||
"description": "Command R, üretim ölçeğinde AI sağlamak için RAG ve Araç Kullanımına yönelik ölçeklenebilir bir üretken modeldir."
|
||
},
|
||
"cohere-command-r-plus": {
|
||
"description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir."
|
||
},
|
||
"cohere/Cohere-command-r": {
|
||
"description": "Command R, RAG ve araç kullanımı için ölçeklenebilir bir üretim modeli olup, işletmelerin üretim seviyesinde yapay zeka uygulamalarını gerçekleştirmesine olanak tanır."
|
||
},
|
||
"cohere/Cohere-command-r-plus": {
|
||
"description": "Command R+, işletme düzeyindeki iş yükleri için tasarlanmış, en gelişmiş RAG optimize modelidir."
|
||
},
|
||
"cohere/command-a": {
|
||
"description": "Command A, Cohere'in şimdiye kadarki en güçlü modeli olup, araç kullanımı, ajanlık, arama destekli üretim (RAG) ve çok dilli kullanım durumlarında üstün performans gösterir. Command A'nın bağlam uzunluğu 256K'dır, sadece iki GPU ile çalışabilir ve Command R+ 08-2024'e kıyasla işlem hacminde %150 artış sağlar."
|
||
},
|
||
"cohere/command-r": {
|
||
"description": "Command R, diyalog etkileşimleri ve uzun bağlam görevleri için optimize edilmiş büyük bir dil modelidir. \"Ölçeklenebilir\" model kategorisinde konumlanır ve yüksek performans ile güçlü doğruluk arasında denge kurarak şirketlerin kavram kanıtını aşarak üretime geçmesini sağlar."
|
||
},
|
||
"cohere/command-r-plus": {
|
||
"description": "Command R+, Cohere'in en yeni büyük dil modeli olup, diyalog etkileşimleri ve uzun bağlam görevleri için optimize edilmiştir. Performansta olağanüstü olmayı hedefler ve şirketlerin kavram kanıtını aşarak üretime geçmesini sağlar."
|
||
},
|
||
"cohere/embed-v4.0": {
|
||
"description": "Metin, görüntü veya karma içeriklerin sınıflandırılması veya gömme haline dönüştürülmesine olanak tanıyan model."
|
||
},
|
||
"comfyui/flux-dev": {
|
||
"description": "FLUX.1 Dev - Yüksek kaliteli metinden görsele model, 10-50 adımda üretim, sanatsal çalışmalar ve yaratıcı içerikler için uygundur"
|
||
},
|
||
"comfyui/flux-kontext-dev": {
|
||
"description": "FLUX.1 Kontext-dev - Görsel düzenleme modeli, metin komutlarına dayalı mevcut görselleri düzenlemeyi destekler, bölgesel düzenleme ve stil transferi mümkündür"
|
||
},
|
||
"comfyui/flux-krea-dev": {
|
||
"description": "FLUX.1 Krea-dev - Geliştirilmiş güvenliğe sahip metinden görsele modeli, Krea iş birliğiyle geliştirilmiştir, yerleşik güvenlik filtresi içerir"
|
||
},
|
||
"comfyui/flux-schnell": {
|
||
"description": "FLUX.1 Schnell - Ultra hızlı metinden görsele modeli, yalnızca 1-4 adımda yüksek kaliteli görseller üretir, gerçek zamanlı uygulamalar ve hızlı prototipleme için idealdir"
|
||
},
|
||
"comfyui/stable-diffusion-15": {
|
||
"description": "Stable Diffusion 1.5 metinden görsele modeli, klasik 512x512 çözünürlükte metinden görsele üretim sağlar, hızlı prototipleme ve yaratıcı denemeler için uygundur"
|
||
},
|
||
"comfyui/stable-diffusion-35": {
|
||
"description": "Stable Diffusion 3.5 yeni nesil metinden görsele modeli, Large ve Medium olmak üzere iki sürümü destekler, harici CLIP kodlayıcı dosyası gerektirir, üstün görsel kalite ve istem uyumu sunar"
|
||
},
|
||
"comfyui/stable-diffusion-35-inclclip": {
|
||
"description": "Stable Diffusion 3.5 yerleşik CLIP/T5 kodlayıcılı sürüm, harici kodlayıcı dosyasına ihtiyaç duymaz, sd3.5_medium_incl_clips gibi modeller için uygundur, daha az kaynak kullanır"
|
||
},
|
||
"comfyui/stable-diffusion-custom": {
|
||
"description": "Özelleştirilmiş SD metinden görsele modeli, model dosya adı custom_sd_lobe.safetensors olmalıdır, varsa VAE dosyası custom_sd_vae_lobe.safetensors olarak adlandırılmalıdır, model dosyaları Comfy'nin gereksinimlerine göre ilgili klasöre yerleştirilmelidir"
|
||
},
|
||
"comfyui/stable-diffusion-custom-refiner": {
|
||
"description": "Özelleştirilmiş SDXL görselden görsele modeli, model dosya adı custom_sd_lobe.safetensors olmalıdır, varsa VAE dosyası custom_sd_vae_lobe.safetensors olarak adlandırılmalıdır, model dosyaları Comfy'nin gereksinimlerine göre ilgili klasöre yerleştirilmelidir"
|
||
},
|
||
"comfyui/stable-diffusion-refiner": {
|
||
"description": "SDXL görselden görsele modeli, giriş görseline dayalı yüksek kaliteli dönüşüm sağlar, stil transferi, görsel onarımı ve yaratıcı dönüşümleri destekler"
|
||
},
|
||
"comfyui/stable-diffusion-xl": {
|
||
"description": "SDXL metinden görsele modeli, 1024x1024 yüksek çözünürlükte metinden görsele üretimi destekler, daha iyi görsel kalite ve detay sunar"
|
||
},
|
||
"command": {
|
||
"description": "Dil görevlerinde yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve temel üretim modelimize göre daha uzun bir bağlam uzunluğuna sahiptir."
|
||
},
|
||
"command-a-03-2025": {
|
||
"description": "Command A, şimdiye kadar geliştirdiğimiz en güçlü modeldir ve araç kullanımı, ajan, bilgi artırımlı üretim (RAG) ve çok dilli uygulama senaryolarında mükemmel performans sergilemektedir. Command A, 256K bağlam uzunluğuna sahiptir, yalnızca iki GPU ile çalıştırılabilir ve Command R+ 08-2024'e kıyasla %150 daha yüksek bir verimlilik sunar."
|
||
},
|
||
"command-light": {
|
||
"description": "Neredeyse aynı güçte, ancak daha hızlı olan daha küçük ve daha hızlı bir Command versiyonudur."
|
||
},
|
||
"command-light-nightly": {
|
||
"description": "Ana sürüm güncellemeleri arasındaki süreyi kısaltmak için Command modelinin her gece sürümünü sunuyoruz. command-light serisi için bu sürüm command-light-nightly olarak adlandırılmaktadır. Lütfen dikkat edin, command-light-nightly en güncel, en deneysel ve (muhtemelen) kararsız sürümdür. Her gece sürümü düzenli olarak güncellenir ve önceden bildirilmez, bu nedenle üretim ortamında kullanılması önerilmez."
|
||
},
|
||
"command-nightly": {
|
||
"description": "Ana sürüm güncellemeleri arasındaki süreyi kısaltmak için Command modelinin her gece sürümünü sunuyoruz. Command serisi için bu sürüm command-cightly olarak adlandırılmaktadır. Lütfen dikkat edin, command-nightly en güncel, en deneysel ve (muhtemelen) kararsız sürümdür. Her gece sürümü düzenli olarak güncellenir ve önceden bildirilmez, bu nedenle üretim ortamında kullanılması önerilmez."
|
||
},
|
||
"command-r": {
|
||
"description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur."
|
||
},
|
||
"command-r-03-2024": {
|
||
"description": "Command R, dil görevlerinde daha yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve önceki modellere göre daha uzun bir bağlam uzunluğuna sahiptir. Kod üretimi, bilgi artırımlı üretim (RAG), araç kullanımı ve ajan gibi karmaşık iş akışları için kullanılabilir."
|
||
},
|
||
"command-r-08-2024": {
|
||
"description": "command-r-08-2024, Command R modelinin güncellenmiş versiyonudur ve 2024 yılının Ağustos ayında piyasaya sürülmüştür."
|
||
},
|
||
"command-r-plus": {
|
||
"description": "Command R+, gerçek işletme senaryoları ve karmaşık uygulamalar için tasarlanmış yüksek performanslı bir büyük dil modelidir."
|
||
},
|
||
"command-r-plus-04-2024": {
|
||
"description": "Command R+, dil görevlerinde daha yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve önceki modellere göre daha uzun bir bağlam uzunluğuna sahiptir. Karmaşık RAG iş akışları ve çok adımlı araç kullanımı için en uygunudur."
|
||
},
|
||
"command-r-plus-08-2024": {
|
||
"description": "Command R+ talimatları takip eden bir diyalog modelidir, dil görevlerinde daha yüksek kalite, daha güvenilirlik sunar ve önceki modellere göre daha uzun bağlam uzunluğuna sahiptir. Karmaşık RAG iş akışları ve çok adımlı araç kullanımı için en uygunudur."
|
||
},
|
||
"command-r7b-12-2024": {
|
||
"description": "command-r7b-12-2024, 2024 yılının Aralık ayında piyasaya sürülen küçük ve verimli bir güncellenmiş versiyondur. RAG, araç kullanımı, ajan gibi karmaşık akıl yürütme ve çok adımlı işlemler gerektiren görevlerde mükemmel performans sergilemektedir."
|
||
},
|
||
"computer-use-preview": {
|
||
"description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış ve bilgisayarla ilgili görevleri anlama ve yerine getirme konusunda eğitilmiş özel bir modeldir."
|
||
},
|
||
"dall-e-2": {
|
||
"description": "İkinci nesil DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi destekler, çözünürlüğü birinci neslin 4 katıdır."
|
||
},
|
||
"dall-e-3": {
|
||
"description": "En son DALL·E modeli, Kasım 2023'te piyasaya sürüldü. Daha gerçekçi ve doğru görüntü üretimi destekler, daha güçlü detay ifade yeteneğine sahiptir."
|
||
},
|
||
"databricks/dbrx-instruct": {
|
||
"description": "DBRX Instruct, yüksek güvenilirlikte talimat işleme yetenekleri sunar ve çok çeşitli endüstri uygulamalarını destekler."
|
||
},
|
||
"deepseek-ai/DeepSeek-OCR": {
|
||
"description": "DeepSeek-OCR, DeepSeek AI tarafından geliştirilen bir görsel-dil modelidir ve optik karakter tanıma (OCR) ile \"bağlam optik sıkıştırma\"ya odaklanır. Görsellerden bağlamsal bilgiyi sıkıştırma sınırlarını keşfetmeyi amaçlar; belgeleri verimli şekilde işleyerek Markdown gibi yapılandırılmış metin formatlarına dönüştürebilir. Görsellerdeki metin içeriğini doğru şekilde tanıyabilir; özellikle belge dijitalleştirme, metin çıkarımı ve yapılandırılmış işleme gibi uygulamalar için uygundur."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1": {
|
||
"description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-0528": {
|
||
"description": "DeepSeek R1, artırılmış hesaplama kaynakları ve son eğitim sürecinde algoritma optimizasyon mekanizmalarının entegrasyonu sayesinde çıkarım ve akıl yürütme derinliğini önemli ölçüde artırmıştır. Model, matematik, programlama ve genel mantık alanlarında çeşitli kıyaslama testlerinde üstün performans göstermektedir. Genel performansı, O3 ve Gemini 2.5 Pro gibi lider modellerle yakındır."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
|
||
"description": "DeepSeek-R1-0528-Qwen3-8B, DeepSeek-R1-0528 modelinden düşünce zinciri distilasyonu yoluyla Qwen3 8B Base modeline elde edilen bir modeldir. Açık kaynak modeller arasında en ileri (SOTA) performansa sahiptir, AIME 2024 testinde Qwen3 8B'yi %10 aşmış ve Qwen3-235B-thinking performans seviyesine ulaşmıştır. Model matematiksel akıl yürütme, programlama ve genel mantık gibi çeşitli kıyaslama testlerinde üstün performans gösterir; mimarisi Qwen3-8B ile aynıdır ancak DeepSeek-R1-0528'in tokenizer konfigürasyonunu paylaşır."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
||
"description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||
"description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
|
||
"description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-32B, Qwen2.5-32B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış, matematik, programlama ve çıkarım gibi birçok alanda olağanüstü performans sergilemektedir. AIME 2024, MATH-500, GPQA Diamond gibi birçok referans testinde mükemmel sonuçlar elde etmiş, MATH-500'de %94.3 doğruluk oranına ulaşarak güçlü matematik çıkarım yeteneğini göstermiştir."
|
||
},
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-7B, Qwen2.5-Math-7B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış, mükemmel çıkarım yeteneği sergilemektedir. Birçok referans testinde öne çıkmış, MATH-500'de %92.8 doğruluk oranına, AIME 2024'te %55.5 geçiş oranına ulaşmış, CodeForces'ta 1189 puan alarak 7B ölçeğindeki model olarak güçlü matematik ve programlama yeteneğini göstermiştir."
|
||
},
|
||
"deepseek-ai/DeepSeek-V2.5": {
|
||
"description": "DeepSeek V2.5, önceki sürümlerin mükemmel özelliklerini bir araya getirir, genel ve kodlama yeteneklerini artırır."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3": {
|
||
"description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir. Çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıplar olmadan yük dengeleme stratejisi ile çıkarım ve eğitim verimliliğini optimize etmektedir. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ile tekrarlayan öğrenme gerçekleştirilmiştir; DeepSeek-V3, performans açısından diğer açık kaynaklı modelleri geride bırakmakta ve lider kapalı kaynaklı modellere yaklaşmaktadır."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3.1": {
|
||
"description": "DeepSeek V3.1 modeli, hem düşünme hem de düşünme dışı modları destekleyen hibrit akıl yürütme mimarisine sahip bir modeldir."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
||
"description": "DeepSeek-V3.1-Terminus, DeepSeek tarafından yayınlanan V3.1 modelinin güncellenmiş versiyonudur ve hibrit ajan büyük dil modeli olarak konumlandırılmıştır. Bu güncelleme, modelin mevcut yeteneklerini koruyarak kullanıcı geri bildirimlerine dayalı sorunları düzeltmeye ve kararlılığı artırmaya odaklanmıştır. Dil tutarlılığını önemli ölçüde iyileştirmiş, Çince ve İngilizce karışımı ile anormal karakterlerin görünümünü azaltmıştır. Model, farklı görevler için sohbet şablonları aracılığıyla esnek geçiş yapılabilen “Düşünme Modu” ve “Düşünmeme Modu”nu entegre etmiştir. Önemli bir iyileştirme olarak, V3.1-Terminus, kod ajanı (Code Agent) ve arama ajanı (Search Agent) performansını artırarak araç çağrıları ve çok adımlı karmaşık görevlerin yürütülmesinde daha güvenilir hale getirmiştir."
|
||
},
|
||
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
||
"description": "DeepSeek-V3.2-Exp, DeepSeek tarafından yayınlanan deneysel V3.2 sürümüdür ve yeni nesil mimariye geçişte bir ara keşif niteliğindedir. Bu sürüm, V3.1-Terminus temelinde geliştirilmiş olup, uzun bağlamlı eğitim ve çıkarım verimliliğini artırmak amacıyla DeepSeek Seyrek Dikkat (DeepSeek Sparse Attention, DSA) mekanizmasını entegre eder. Araç kullanımı, uzun belge anlama ve çok adımlı akıl yürütme gibi alanlarda özel optimizasyonlar yapılmıştır. V3.2-Exp, araştırma ile ürünleştirme arasında bir köprü görevi görür ve yüksek bağlam bütçesi gerektiren senaryolarda daha verimli çıkarım arayan kullanıcılar için uygundur."
|
||
},
|
||
"deepseek-ai/deepseek-llm-67b-chat": {
|
||
"description": "DeepSeek 67B, yüksek karmaşıklıkta diyaloglar için eğitilmiş gelişmiş bir modeldir."
|
||
},
|
||
"deepseek-ai/deepseek-r1": {
|
||
"description": "En son teknolojiye sahip verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
|
||
},
|
||
"deepseek-ai/deepseek-v3.1": {
|
||
"description": "DeepSeek V3.1: Karmaşık çıkarım ve bağlantılı düşünme yeteneklerini geliştiren yeni nesil çıkarım modeli, derinlemesine analiz gerektiren görevler için uygundur."
|
||
},
|
||
"deepseek-ai/deepseek-v3.1-terminus": {
|
||
"description": "DeepSeek V3.1: Yeni nesil akıl yürütme modeli, karmaşık mantıksal çıkarımlar ve zincirleme düşünme yeteneklerini geliştirir, derinlemesine analiz gerektiren görevler için idealdir."
|
||
},
|
||
"deepseek-ai/deepseek-vl2": {
|
||
"description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı bir karma uzman (MoE) görsel dil modelidir. Seyrek etkinleştirilen MoE mimarisini kullanarak yalnızca 4.5B parametreyi etkinleştirerek olağanüstü performans sergilemektedir. Bu model, görsel soru yanıtlama, optik karakter tanıma, belge/tablolar/grafikler anlama ve görsel konumlandırma gibi birçok görevde mükemmel sonuçlar elde etmektedir."
|
||
},
|
||
"deepseek-chat": {
|
||
"description": "Genel ve kod yeteneklerini birleştiren yeni bir açık kaynak modeli, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleri ile daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazım görevleri, talimat takibi gibi birçok alanda büyük iyileştirmeler sağlamıştır."
|
||
},
|
||
"deepseek-coder-33B-instruct": {
|
||
"description": "DeepSeek Coder 33B, 20 trilyon veri ile eğitilmiş bir kod dili modelidir. Bunun %87'si kod, %13'ü ise Çince ve İngilizce dillerindendir. Model, 16K pencere boyutu ve boşluk doldurma görevini tanıtarak proje düzeyinde kod tamamlama ve parça doldurma işlevi sunmaktadır."
|
||
},
|
||
"deepseek-coder-v2": {
|
||
"description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir."
|
||
},
|
||
"deepseek-coder-v2:236b": {
|
||
"description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir."
|
||
},
|
||
"deepseek-ocr": {
|
||
"description": "DeepSeek-OCR, DeepSeek AI tarafından geliştirilen bir görsel-dil modelidir. Optik karakter tanıma (OCR) ve \"bağlamsal optik sıkıştırma\" üzerine odaklanır. Bu model, görsellerden bağlam bilgisini sıkıştırma sınırlarını keşfetmeyi amaçlar, belgeleri verimli bir şekilde işleyerek Markdown gibi yapılandırılmış metin formatlarına dönüştürebilir. Görsellerdeki metinleri doğru şekilde tanıyabilir ve özellikle belge dijitalleştirme, metin çıkarımı ve yapılandırılmış veri işleme gibi uygulamalar için uygundur."
|
||
},
|
||
"deepseek-r1": {
|
||
"description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
|
||
},
|
||
"deepseek-r1-0528": {
|
||
"description": "685 milyar parametreli tam sürüm model, 28 Mayıs 2025'te yayınlandı. DeepSeek-R1, son eğitim aşamasında pek az etiketli veriyle güçlendirilmiş öğrenme tekniklerini geniş çapta kullanarak modelin çıkarım yeteneğini büyük ölçüde artırdı. Matematik, kodlama, doğal dil çıkarımı gibi görevlerde yüksek performans ve güçlü yetenekler sergiler."
|
||
},
|
||
"deepseek-r1-250528": {
|
||
"description": "DeepSeek R1 250528, tam özellikli DeepSeek-R1 çıkarım modeli, zorlu matematik ve mantık görevleri için uygundur."
|
||
},
|
||
"deepseek-r1-70b-fast-online": {
|
||
"description": "DeepSeek R1 70B hızlı versiyonu, gerçek zamanlı çevrimiçi arama desteği ile, model performansını korurken daha hızlı yanıt süreleri sunar."
|
||
},
|
||
"deepseek-r1-70b-online": {
|
||
"description": "DeepSeek R1 70B standart versiyonu, gerçek zamanlı çevrimiçi arama desteği ile, en güncel bilgilere ihtiyaç duyan diyalog ve metin işleme görevleri için uygundur."
|
||
},
|
||
"deepseek-r1-distill-llama": {
|
||
"description": "deepseek-r1-distill-llama, DeepSeek-R1'den Llama tabanlı damıtılarak elde edilmiş bir modeldir."
|
||
},
|
||
"deepseek-r1-distill-llama-70b": {
|
||
"description": "DeepSeek R1 Distill Llama 70B, genel amaçlı R1 çıkarım yeteneğini Llama ekosistemiyle birleştiren distilasyon modeli."
|
||
},
|
||
"deepseek-r1-distill-llama-8b": {
|
||
"description": "DeepSeek-R1-Distill-Llama-8B, Llama-3.1-8B tabanlı bir distilasyon büyük dil modelidir ve DeepSeek R1 çıktılarıyla eğitilmiştir."
|
||
},
|
||
"deepseek-r1-distill-qianfan-70b": {
|
||
"description": "DeepSeek R1 Distill Qianfan 70B, Qianfan-70B tabanlı R1 distilasyon modeli, yüksek maliyet-performans oranına sahiptir."
|
||
},
|
||
"deepseek-r1-distill-qianfan-8b": {
|
||
"description": "DeepSeek R1 Distill Qianfan 8B, Qianfan-8B tabanlı R1 distilasyon modeli, orta ve küçük ölçekli uygulamalar için uygundur."
|
||
},
|
||
"deepseek-r1-distill-qianfan-llama-70b": {
|
||
"description": "DeepSeek R1 Distill Qianfan Llama 70B, Llama-70B tabanlı R1 distilasyon modelidir."
|
||
},
|
||
"deepseek-r1-distill-qwen": {
|
||
"description": "deepseek-r1-distill-qwen, Qwen temel alınarak DeepSeek-R1'den damıtılmış bir modeldir."
|
||
},
|
||
"deepseek-r1-distill-qwen-1.5b": {
|
||
"description": "DeepSeek R1 Distill Qwen 1.5B, son derece hafif R1 distilasyon modeli, düşük kaynaklı ortamlar için uygundur."
|
||
},
|
||
"deepseek-r1-distill-qwen-14b": {
|
||
"description": "DeepSeek R1 Distill Qwen 14B, orta ölçekli R1 distilasyon modeli, çoklu senaryo dağıtımı için uygundur."
|
||
},
|
||
"deepseek-r1-distill-qwen-32b": {
|
||
"description": "DeepSeek R1 Distill Qwen 32B, Qwen-32B tabanlı R1 distilasyon modeli, performans ve maliyet arasında denge sağlar."
|
||
},
|
||
"deepseek-r1-distill-qwen-7b": {
|
||
"description": "DeepSeek R1 Distill Qwen 7B, hafif R1 distilasyon modeli, uç nokta ve kurumsal özel ortamlar için uygundur."
|
||
},
|
||
"deepseek-r1-fast-online": {
|
||
"description": "DeepSeek R1 tam hızlı versiyonu, gerçek zamanlı çevrimiçi arama desteği ile, 671B parametrenin güçlü yetenekleri ile daha hızlı yanıt sürelerini birleştirir."
|
||
},
|
||
"deepseek-r1-online": {
|
||
"description": "DeepSeek R1 tam sürümü, 671B parametreye sahip olup, gerçek zamanlı çevrimiçi arama desteği ile daha güçlü anlama ve üretim yeteneklerine sahiptir."
|
||
},
|
||
"deepseek-reasoner": {
|
||
"description": "DeepSeek V3.2 Düşünme Modu. Nihai cevabı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
|
||
},
|
||
"deepseek-v2": {
|
||
"description": "DeepSeek V2, ekonomik ve verimli işleme ihtiyaçları için uygun, etkili bir Mixture-of-Experts dil modelidir."
|
||
},
|
||
"deepseek-v2:236b": {
|
||
"description": "DeepSeek V2 236B, DeepSeek'in tasarım kodu modelidir, güçlü kod üretim yetenekleri sunar."
|
||
},
|
||
"deepseek-v3": {
|
||
"description": "DeepSeek-V3, Hangzhou DeepSeek Yapay Zeka Temel Teknoloji Araştırma Şirketi tarafından geliştirilen MoE modelidir, birçok değerlendirme sonucunda öne çıkmakta ve ana akım listelerde açık kaynak modeller arasında birinci sırada yer almaktadır. V3, V2.5 modeline göre üretim hızında 3 kat artış sağlamış, kullanıcılara daha hızlı ve akıcı bir deneyim sunmuştur."
|
||
},
|
||
"deepseek-v3-0324": {
|
||
"description": "DeepSeek-V3-0324, 671B parametreye sahip bir MoE modelidir ve programlama ile teknik yetenekler, bağlam anlama ve uzun metin işleme gibi alanlarda belirgin avantajlar sunar."
|
||
},
|
||
"deepseek-v3.1": {
|
||
"description": "DeepSeek-V3.1, DeepSeek'in tamamen yeni hibrit çıkarım modeli olup, düşünme ve düşünmeme olmak üzere iki çıkarım modunu destekler ve DeepSeek-R1-0528'e kıyasla düşünme verimliliği daha yüksektir. Post-Training optimizasyonu sayesinde, Agent araç kullanımı ve akıllı görev performansı önemli ölçüde artırılmıştır. 128k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token'a kadar çıkabilir."
|
||
},
|
||
"deepseek-v3.1-terminus": {
|
||
"description": "DeepSeek-V3.1-Terminus, DeepSeek tarafından geliştirilen ve uç cihazlar için optimize edilmiş büyük dil modeli sürümüdür."
|
||
},
|
||
"deepseek-v3.1-think-250821": {
|
||
"description": "DeepSeek V3.1 Think 250821, Terminus sürümüne karşılık gelen derin düşünme modeli, yüksek performanslı çıkarım senaryoları için uygundur."
|
||
},
|
||
"deepseek-v3.1:671b": {
|
||
"description": "DeepSeek V3.1: Karmaşık çıkarım ve bağlantılı düşünme yeteneklerini geliştiren yeni nesil çıkarım modeli, derinlemesine analiz gerektiren görevler için uygundur."
|
||
},
|
||
"deepseek-v3.2-exp": {
|
||
"description": "deepseek-v3.2-exp seyrek dikkat mekanizması getirir, uzun metinlerin işlenmesinde eğitim ve çıkarım verimliliğini artırmayı amaçlar, fiyatı deepseek-v3.1'den daha düşüktür."
|
||
},
|
||
"deepseek-v3.2-think": {
|
||
"description": "DeepSeek V3.2 Think, tam özellikli derin düşünme modeli, uzun zincirli çıkarım yeteneklerini güçlendirir."
|
||
},
|
||
"deepseek-vl2": {
|
||
"description": "DeepSeek VL2, çok modlu model, görsel ve metin anlayışı ile ayrıntılı görsel soru-cevap desteği sunar."
|
||
},
|
||
"deepseek-vl2-small": {
|
||
"description": "DeepSeek VL2 Small, hafif çok modlu sürüm, kaynak kısıtlı ve yüksek eşzamanlılık gerektiren senaryolar için uygundur."
|
||
},
|
||
"deepseek/deepseek-chat": {
|
||
"description": "DeepSeek-V3, DeepSeek ekibinin yüksek performanslı hibrit akıl yürütme modelidir; karmaşık görevler ve araç entegrasyonu için uygundur."
|
||
},
|
||
"deepseek/deepseek-chat-v3-0324": {
|
||
"description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
|
||
},
|
||
"deepseek/deepseek-chat-v3-0324:free": {
|
||
"description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
|
||
},
|
||
"deepseek/deepseek-chat-v3.1": {
|
||
"description": "DeepSeek-V3.1, DeepSeek’in uzun bağlam destekli hibrit akıl yürütme modelidir; düşünsel/düşünsel olmayan modlar ve araç entegrasyonunu destekler."
|
||
},
|
||
"deepseek/deepseek-r1": {
|
||
"description": "DeepSeek R1 modeli küçük bir sürüm güncellemesi aldı, mevcut sürüm DeepSeek-R1-0528'dir. Son güncellemede, DeepSeek R1 artırılmış hesaplama kaynakları ve eğitim sonrası algoritma optimizasyon mekanizmaları kullanarak çıkarım derinliği ve yeteneğini önemli ölçüde artırdı. Model, matematik, programlama ve genel mantık gibi birçok kıyaslama testinde üstün performans gösterir ve genel performansı artık O3 ve Gemini 2.5 Pro gibi lider modellerle yakındır."
|
||
},
|
||
"deepseek/deepseek-r1-0528": {
|
||
"description": "DeepSeek R1 0528, DeepSeek’in güncellenmiş varyantıdır; açık kaynak kullanılabilirliği ve derin akıl yürütmeye odaklanır."
|
||
},
|
||
"deepseek/deepseek-r1-0528:free": {
|
||
"description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
|
||
},
|
||
"deepseek/deepseek-r1-distill-llama-70b": {
|
||
"description": "DeepSeek R1 Distill Llama 70B, Llama3.3 70B tabanlı büyük bir dil modelidir. Bu model, DeepSeek R1 tarafından sağlanan ince ayarlarla, öncü büyük modellerle kıyaslanabilir rekabetçi bir performans elde etmiştir."
|
||
},
|
||
"deepseek/deepseek-r1-distill-llama-8b": {
|
||
"description": "DeepSeek R1 Distill Llama 8B, Llama-3.1-8B-Instruct tabanlı bir damıtılmış büyük dil modelidir ve DeepSeek R1'in çıktısını kullanarak eğitilmiştir."
|
||
},
|
||
"deepseek/deepseek-r1-distill-qwen-14b": {
|
||
"description": "DeepSeek R1 Distill Qwen 14B, Qwen 2.5 14B tabanlı bir damıtılmış büyük dil modelidir ve DeepSeek R1'in çıktısını kullanarak eğitilmiştir. Bu model, birçok benchmark testinde OpenAI'nin o1-mini'sini geçerek yoğun modellerin (dense models) en son teknik liderlik başarılarını elde etmiştir. İşte bazı benchmark test sonuçları:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nBu model, DeepSeek R1'in çıktısından ince ayar yaparak daha büyük ölçekli öncü modellerle karşılaştırılabilir bir performans sergilemiştir."
|
||
},
|
||
"deepseek/deepseek-r1-distill-qwen-32b": {
|
||
"description": "DeepSeek R1 Distill Qwen 32B, Qwen 2.5 32B tabanlı bir damıtılmış büyük dil modelidir ve DeepSeek R1'in çıktısını kullanarak eğitilmiştir. Bu model, birçok benchmark testinde OpenAI'nin o1-mini'sini geçerek yoğun modellerin (dense models) en son teknik liderlik başarılarını elde etmiştir. İşte bazı benchmark test sonuçları:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nBu model, DeepSeek R1'in çıktısından ince ayar yaparak daha büyük ölçekli öncü modellerle karşılaştırılabilir bir performans sergilemiştir."
|
||
},
|
||
"deepseek/deepseek-r1/community": {
|
||
"description": "DeepSeek R1, DeepSeek ekibinin yayınladığı en son açık kaynak modelidir ve özellikle matematik, programlama ve akıl yürütme görevlerinde OpenAI'nin o1 modeli ile karşılaştırılabilir bir çıkarım performansına sahiptir."
|
||
},
|
||
"deepseek/deepseek-r1:free": {
|
||
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
||
},
|
||
"deepseek/deepseek-reasoner": {
|
||
"description": "DeepSeek-V3 Thinking (reasoner), DeepSeek’in deneysel akıl yürütme modelidir; yüksek karmaşıklıktaki akıl yürütme görevleri için uygundur."
|
||
},
|
||
"deepseek/deepseek-v3": {
|
||
"description": "Gelişmiş çıkarım yeteneklerine sahip hızlı, genel amaçlı büyük dil modeli."
|
||
},
|
||
"deepseek/deepseek-v3.1-base": {
|
||
"description": "DeepSeek V3.1 Base, DeepSeek V3 modelinin geliştirilmiş bir versiyonudur."
|
||
},
|
||
"deepseek/deepseek-v3/community": {
|
||
"description": "DeepSeek-V3, çıkarım hızında önceki modellere göre önemli bir atılım gerçekleştirmiştir. Açık kaynak modeller arasında birinci sırada yer almakta ve dünya çapındaki en gelişmiş kapalı kaynak modellerle rekabet edebilmektedir. DeepSeek-V3, DeepSeek-V2'de kapsamlı bir şekilde doğrulanan çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarilerini kullanmaktadır. Ayrıca, DeepSeek-V3, yük dengeleme için yardımcı kayıpsız bir strateji geliştirmiştir ve daha güçlü bir performans elde etmek için çok etiketli tahmin eğitim hedefleri belirlemiştir."
|
||
},
|
||
"deepseek_r1": {
|
||
"description": "DeepSeek-R1, pekiştirme öğrenimi (RL) ile yönlendirilen bir çıkarım modelidir, modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1, soğuk başlatma verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
|
||
},
|
||
"deepseek_r1_distill_llama_70b": {
|
||
"description": "DeepSeek-R1-Distill-Llama-70B, Llama-3.3-70B-Instruct temel alınarak damıtma eğitimi ile elde edilen bir modeldir. Bu model, DeepSeek-R1 serisinin bir parçasıdır ve DeepSeek-R1 tarafından üretilen örnekler kullanılarak ince ayar yapılmış, matematik, programlama ve çıkarım gibi birçok alanda mükemmel performans sergilemektedir."
|
||
},
|
||
"deepseek_r1_distill_qwen_14b": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-14B, Qwen2.5-14B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış ve mükemmel çıkarım yetenekleri sergilemektedir."
|
||
},
|
||
"deepseek_r1_distill_qwen_32b": {
|
||
"description": "DeepSeek-R1-Distill-Qwen-32B, Qwen2.5-32B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış ve matematik, programlama ve çıkarım gibi birçok alanda olağanüstü performans sergilemektedir."
|
||
},
|
||
"doubao-1.5-lite-32k": {
|
||
"description": "Doubao-1.5-lite, tamamen yeni nesil hafif modeldir, olağanüstü yanıt hızı ile etkisi ve gecikmesi dünya standartlarında bir seviyeye ulaşmıştır."
|
||
},
|
||
"doubao-1.5-pro-256k": {
|
||
"description": "Doubao-1.5-pro-256k, Doubao-1.5-Pro'nun kapsamlı bir yükseltmesi olup, genel performans %10 oranında büyük bir artış göstermektedir. 256k bağlam penceresi ile akıl yürütmeyi destekler, çıktı uzunluğu maksimum 12k token'a kadar desteklenmektedir. Daha yüksek performans, daha büyük pencere, yüksek maliyet etkinliği ile daha geniş uygulama alanlarına uygundur."
|
||
},
|
||
"doubao-1.5-pro-32k": {
|
||
"description": "Doubao-1.5-pro, tamamen yeni nesil ana model, performansı tamamen yükseltilmiş olup, bilgi, kod, akıl yürütme gibi alanlarda mükemmel bir performans sergilemektedir."
|
||
},
|
||
"doubao-1.5-thinking-pro": {
|
||
"description": "Doubao-1.5, tamamen yeni bir derin düşünme modeli, matematik, programlama, bilimsel akıl yürütme gibi uzmanlık alanlarında ve yaratıcı yazım gibi genel görevlerde olağanüstü performans sergilemektedir. AIME 2024, Codeforces, GPQA gibi birçok saygın ölçekte sektörün en üst seviyelerine ulaşmakta veya bunlara yakın bir performans göstermektedir. 128k bağlam penceresi ve 16k çıktı desteği sunmaktadır."
|
||
},
|
||
"doubao-1.5-thinking-pro-m": {
|
||
"description": "Doubao-1.5 yeni derin düşünme modeli (m versiyonu yerel çok modlu derin çıkarım yeteneği ile birlikte gelir), matematik, programlama, bilimsel çıkarım gibi uzmanlık alanlarında ve yaratıcı yazım gibi genel görevlerde üstün performans gösterir. AIME 2024, Codeforces, GPQA gibi birçok otoriter kıyaslamada sektörün ilk sıralarına ulaşmıştır veya yaklaşmıştır. 128k bağlam penceresi ve 16k çıktı desteği sağlar."
|
||
},
|
||
"doubao-1.5-thinking-vision-pro": {
|
||
"description": "Yeni görsel derin düşünme modeli, daha güçlü genel çok modlu anlama ve çıkarım yeteneklerine sahiptir ve 59 açık değerlendirme kıyaslamasından 37'sinde SOTA (en iyi) performans göstermiştir."
|
||
},
|
||
"doubao-1.5-ui-tars": {
|
||
"description": "Doubao-1.5-UI-TARS, grafik kullanıcı arayüzü (GUI) etkileşimine özgü yerel bir Agent modelidir. Algılama, çıkarım ve eylem gibi insan benzeri yeteneklerle GUI ile kesintisiz etkileşim sağlar."
|
||
},
|
||
"doubao-1.5-vision-lite": {
|
||
"description": "Doubao-1.5-vision-lite, yeni güncellenmiş çok modlu büyük modeldir, herhangi bir çözünürlük ve aşırı en-boy oranı görüntü tanıma desteği sunar, görsel çıkarım, belge tanıma, detay bilgisi anlama ve talimat takibi yeteneklerini artırır. 128k bağlam penceresi destekler, çıktı uzunluğu maksimum 16k token destekler."
|
||
},
|
||
"doubao-1.5-vision-pro": {
|
||
"description": "Doubao-1.5-vision-pro, tamamen yenilenmiş çok modlu büyük modeldir. Herhangi bir çözünürlükte ve aşırı en-boy oranlarındaki görüntüleri tanıyabilir, görsel çıkarımı, belge tanımayı, detaylı bilgi anlayışını ve komutlara uyumu artırır."
|
||
},
|
||
"doubao-1.5-vision-pro-32k": {
|
||
"description": "Doubao-1.5-vision-pro, tamamen yenilenmiş çok modlu büyük modeldir. Herhangi bir çözünürlükte ve aşırı en-boy oranlarındaki görüntüleri tanıyabilir, görsel çıkarımı, belge tanımayı, detaylı bilgi anlayışını ve komutlara uyumu artırır."
|
||
},
|
||
"doubao-lite-128k": {
|
||
"description": "Son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"doubao-lite-32k": {
|
||
"description": "Son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 32k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"doubao-lite-4k": {
|
||
"description": "Son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 4k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"doubao-pro-256k": {
|
||
"description": "En etkili ana model olup, karmaşık görevlerin işlenmesi için uygundur. Referans soru-cevap, özet çıkarma, yaratıcı yazım, metin sınıflandırma, rol yapma gibi senaryolarda mükemmel performans gösterir. 256k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"doubao-pro-32k": {
|
||
"description": "En etkili ana model olup, karmaşık görevlerin işlenmesi için uygundur. Referans soru-cevap, özet çıkarma, yaratıcı yazım, metin sınıflandırma, rol yapma gibi senaryolarda mükemmel performans gösterir. 32k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
||
},
|
||
"doubao-seed-1.6": {
|
||
"description": "Doubao-Seed-1.6, auto/thinking/non-thinking olmak üzere üç düşünme modunu destekleyen tamamen yeni çok modlu derin düşünme modelidir. Non-thinking modunda, model performansı Doubao-1.5-pro/250115'e kıyasla büyük ölçüde artmıştır. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
||
},
|
||
"doubao-seed-1.6-flash": {
|
||
"description": "Doubao-Seed-1.6-flash, TPOT sadece 10ms olan son derece hızlı çok modlu derin düşünme modelidir; hem metin hem de görsel anlayışı destekler, metin anlama yeteneği önceki lite neslini aşar, görsel anlama ise rakiplerin pro serisi modelleriyle eşdeğerdir. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
||
},
|
||
"doubao-seed-1.6-lite": {
|
||
"description": "Doubao-Seed-1.6-lite, yeni nesil çok modlu derin düşünme modelidir. Ayarlanabilir düşünme düzeylerini (reasoning effort) destekler: Minimal, Düşük, Orta ve Yüksek. Yüksek fiyat-performans oranı sunar ve yaygın görevler için en iyi tercihtir. 256k'ya kadar bağlam penceresini destekler."
|
||
},
|
||
"doubao-seed-1.6-thinking": {
|
||
"description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir, Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir, görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
||
},
|
||
"doubao-seed-1.6-vision": {
|
||
"description": "Doubao-Seed-1.6-vision görsel derin düşünme modeli, eğitim, görüntü denetimi, denetim ve güvenlik ile AI arama ve soru-cevap gibi senaryolarda daha güçlü genel çok modlu anlama ve akıl yürütme yetenekleri sergiler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token olabilir."
|
||
},
|
||
"doubao-seed-code": {
|
||
"description": "Doubao-Seed-Code, Agentic programlama görevleri için derinlemesine optimize edilmiştir. Çok modlu (metin/görsel/video) desteği ve 256K uzun bağlam kapasitesi sunar, Anthropic API ile uyumludur. Programlama, görsel anlama ve Agent senaryoları için uygundur."
|
||
},
|
||
"doubao-seededit-3-0-i2i-250628": {
|
||
"description": "Doubao resim oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve resim girişini destekler, yüksek kontrol ve kaliteli resim oluşturma deneyimi sunar. Metin komutlarıyla görüntü düzenlemeyi destekler ve oluşturulan görüntülerin kenar uzunluğu 512 ile 1536 piksel arasındadır."
|
||
},
|
||
"doubao-seedream-3-0-t2i-250415": {
|
||
"description": "Seedream 3.0 resim oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve resim girişini destekler, yüksek kontrol ve kaliteli resim oluşturma deneyimi sunar. Metin istemlerine dayalı olarak resim oluşturur."
|
||
},
|
||
"doubao-seedream-4-0-250828": {
|
||
"description": "Seedream 4.0 resim oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve resim girişini destekler, yüksek kontrol ve kaliteli resim oluşturma deneyimi sunar. Metin istemlerine dayalı olarak resim oluşturur."
|
||
},
|
||
"doubao-vision-lite-32k": {
|
||
"description": "Doubao-vision modeli, Doubao tarafından geliştirilen çok modlu büyük bir modeldir. Güçlü görüntü anlama ve çıkarım yeteneklerine ve hassas komut anlama becerisine sahiptir. Model, görüntü metin bilgisi çıkarımı ve görüntü tabanlı çıkarım görevlerinde güçlü performans sergiler ve daha karmaşık, geniş kapsamlı görsel soru-cevap görevlerinde kullanılabilir."
|
||
},
|
||
"doubao-vision-pro-32k": {
|
||
"description": "Doubao-vision modeli, Doubao tarafından geliştirilen çok modlu büyük bir modeldir. Güçlü görüntü anlama ve çıkarım yeteneklerine ve hassas komut anlama becerisine sahiptir. Model, görüntü metin bilgisi çıkarımı ve görüntü tabanlı çıkarım görevlerinde güçlü performans sergiler ve daha karmaşık, geniş kapsamlı görsel soru-cevap görevlerinde kullanılabilir."
|
||
},
|
||
"emohaa": {
|
||
"description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
|
||
},
|
||
"ernie-4.5-0.3b": {
|
||
"description": "ERNIE 4.5 0.3B, açık kaynaklı hafif model, yerel ve özelleştirilmiş dağıtım çözümleri için uygundur."
|
||
},
|
||
"ernie-4.5-21b-a3b": {
|
||
"description": "ERNIE 4.5 21B A3B, büyük parametreli açık kaynak modeli, anlama ve üretim görevlerinde üstün performans sunar."
|
||
},
|
||
"ernie-4.5-300b-a47b": {
|
||
"description": "ERNIE 4.5 300B A47B, Baidu Wenxin tarafından geliştirilen son derece büyük ölçekli karma uzman modelidir ve üstün akıl yürütme yeteneklerine sahiptir."
|
||
},
|
||
"ernie-4.5-8k-preview": {
|
||
"description": "ERNIE 4.5 8K Preview, 8K bağlam önizleme modeli, Wenxin 4.5 yeteneklerini deneyimlemek ve test etmek için kullanılır."
|
||
},
|
||
"ernie-4.5-turbo-128k": {
|
||
"description": "ERNIE 4.5 Turbo 128K, yüksek performanslı genel model, arama destekli ve araç çağrılı görevleri destekler, soru-cevap, kodlama ve akıllı ajanlar gibi çeşitli iş senaryolarına uygundur."
|
||
},
|
||
"ernie-4.5-turbo-128k-preview": {
|
||
"description": "ERNIE 4.5 Turbo 128K Preview, resmi sürümle aynı yetenek deneyimini sunar, entegrasyon ve kademeli testler için uygundur."
|
||
},
|
||
"ernie-4.5-turbo-32k": {
|
||
"description": "ERNIE 4.5 Turbo 32K, orta-uzun bağlam sürümü, soru-cevap, bilgi tabanı arama ve çok turlu diyalog gibi senaryolar için uygundur."
|
||
},
|
||
"ernie-4.5-turbo-latest": {
|
||
"description": "ERNIE 4.5 Turbo En Son Sürüm, kapsamlı performans optimizasyonu ile üretim ortamında genel amaçlı ana model olarak uygundur."
|
||
},
|
||
"ernie-4.5-turbo-vl": {
|
||
"description": "ERNIE 4.5 Turbo VL, olgun çok modlu model, üretim ortamında görsel-metin anlama ve tanıma görevleri için uygundur."
|
||
},
|
||
"ernie-4.5-turbo-vl-32k": {
|
||
"description": "ERNIE 4.5 Turbo VL 32K, orta-uzun metin çok modlu sürüm, uzun belgeler ve görsellerin birlikte anlaşılması için uygundur."
|
||
},
|
||
"ernie-4.5-turbo-vl-32k-preview": {
|
||
"description": "ERNIE 4.5 Turbo VL 32K Preview, çok modlu 32K önizleme sürümü, uzun bağlamlı görsel yeteneklerin değerlendirilmesini kolaylaştırır."
|
||
},
|
||
"ernie-4.5-turbo-vl-latest": {
|
||
"description": "ERNIE 4.5 Turbo VL En Son Sürüm, en yeni çok modlu sürüm, daha iyi görsel-metin anlama ve çıkarım performansı sunar."
|
||
},
|
||
"ernie-4.5-turbo-vl-preview": {
|
||
"description": "ERNIE 4.5 Turbo VL Preview, çok modlu önizleme modeli, görsel-metin anlama ve üretimi destekler, görsel soru-cevap ve içerik anlama deneyimi için uygundur."
|
||
},
|
||
"ernie-4.5-vl-28b-a3b": {
|
||
"description": "ERNIE 4.5 VL 28B A3B, çok modlu açık kaynak modeli, görsel-metin anlama ve çıkarım görevlerini destekler."
|
||
},
|
||
"ernie-5.0-thinking-latest": {
|
||
"description": "Wenxin 5.0 Thinking, yerel tam modlu amiral gemisi modelidir. Metin, görsel, ses ve video gibi tüm modaliteleri tek bir modelde birleştirir. Kapsamlı yetenek yükseltmeleriyle karmaşık soru-cevap, içerik üretimi ve akıllı ajan senaryoları için uygundur."
|
||
},
|
||
"ernie-5.0-thinking-preview": {
|
||
"description": "Wenxin 5.0 Thinking Önizleme Sürümü, yerel tam modlu amiral gemisi modeli, metin, görsel, ses ve video için birleşik modelleme desteği sunar, karmaşık soru-cevap, yaratım ve akıllı ajan senaryoları için uygundur."
|
||
},
|
||
"ernie-char-8k": {
|
||
"description": "ERNIE Character 8K, karakter kişiliği diyalog modeli, IP karakter oluşturma ve uzun vadeli sohbet için uygundur."
|
||
},
|
||
"ernie-char-fiction-8k": {
|
||
"description": "ERNIE Character Fiction 8K, roman ve hikaye yaratımı için kişilik modeli, uzun metinli hikaye üretimi için uygundur."
|
||
},
|
||
"ernie-char-fiction-8k-preview": {
|
||
"description": "ERNIE Character Fiction 8K Preview, karakter ve hikaye yaratımı modeli önizleme sürümü, işlev deneyimi ve test için kullanılır."
|
||
},
|
||
"ernie-irag-edit": {
|
||
"description": "ERNIE iRAG Edit, görsel silme, yeniden çizim ve varyant üretimini destekleyen görsel düzenleme modeli."
|
||
},
|
||
"ernie-lite-8k": {
|
||
"description": "ERNIE Lite 8K, hafif genel model, maliyet duyarlı günlük soru-cevap ve içerik üretimi senaryoları için uygundur."
|
||
},
|
||
"ernie-lite-pro-128k": {
|
||
"description": "ERNIE Lite Pro 128K, hafif ve yüksek performanslı model, gecikme ve maliyet hassas iş senaryoları için uygundur."
|
||
},
|
||
"ernie-novel-8k": {
|
||
"description": "ERNIE Novel 8K, uzun roman ve IP hikaye yaratımı modeli, çok karakterli ve çok katmanlı anlatımda uzmandır."
|
||
},
|
||
"ernie-speed-128k": {
|
||
"description": "ERNIE Speed 128K, giriş-çıkış ücreti olmayan büyük model, uzun metin anlama ve büyük ölçekli deneme senaryoları için uygundur."
|
||
},
|
||
"ernie-speed-8k": {
|
||
"description": "ERNIE Speed 8K, ücretsiz ve hızlı model, günlük diyalog ve hafif metin görevleri için uygundur."
|
||
},
|
||
"ernie-speed-pro-128k": {
|
||
"description": "ERNIE Speed Pro 128K, yüksek eşzamanlılık ve yüksek maliyet-performans oranına sahip model, büyük ölçekli çevrimiçi hizmetler ve kurumsal uygulamalar için uygundur."
|
||
},
|
||
"ernie-tiny-8k": {
|
||
"description": "ERNIE Tiny 8K, son derece hafif model, basit soru-cevap, sınıflandırma gibi düşük maliyetli çıkarım senaryoları için uygundur."
|
||
},
|
||
"ernie-x1-turbo-32k": {
|
||
"description": "ERNIE X1 Turbo 32K, yüksek hızlı düşünme modeli, 32K uzun bağlam desteği ile karmaşık çıkarım ve çok turlu diyaloglar için uygundur."
|
||
},
|
||
"ernie-x1.1-preview": {
|
||
"description": "ERNIE X1.1 Preview, ERNIE X1.1 düşünme modeli önizleme sürümü, yetenek doğrulama ve test için uygundur."
|
||
},
|
||
"fal-ai/bytedance/seedream/v4": {
|
||
"description": "Seedream 4.0 resim oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve resim girişini destekler, yüksek kontrol ve kaliteli resim oluşturma deneyimi sunar. Metin istemlerine dayalı olarak resim oluşturur."
|
||
},
|
||
"fal-ai/flux-kontext/dev": {
|
||
"description": "Görüntü düzenleme görevlerine odaklanan FLUX.1 modeli, metin ve resim girişini destekler."
|
||
},
|
||
"fal-ai/flux-pro/kontext": {
|
||
"description": "FLUX.1 Kontext [pro], metin ve referans görüntüleri giriş olarak işleyebilir; hedefe yönelik yerel düzenlemeler ve karmaşık genel sahne dönüşümlerini sorunsuzca gerçekleştirir."
|
||
},
|
||
"fal-ai/flux/krea": {
|
||
"description": "Flux Krea [dev], estetik tercihlere sahip bir görüntü oluşturma modelidir ve daha gerçekçi, doğal görüntüler üretmeyi hedefler."
|
||
},
|
||
"fal-ai/flux/schnell": {
|
||
"description": "FLUX.1 [schnell], 12 milyar parametreye sahip bir görüntü oluşturma modelidir ve hızlı yüksek kaliteli görüntü üretimine odaklanır."
|
||
},
|
||
"fal-ai/hunyuan-image/v3": {
|
||
"description": "Güçlü bir yerel çok modlu görüntü oluşturma modeli"
|
||
},
|
||
"fal-ai/imagen4/preview": {
|
||
"description": "Google tarafından sunulan yüksek kaliteli görüntü oluşturma modeli."
|
||
},
|
||
"fal-ai/nano-banana": {
|
||
"description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; diyalog yoluyla görüntü oluşturma ve düzenleme imkanı sunar."
|
||
},
|
||
"fal-ai/qwen-image": {
|
||
"description": "Qwen ekibinin güçlü ham görüntü modeli, etkileyici Çince metin oluşturma yeteneği ve çeşitli görsel stil seçenekleri sunar."
|
||
},
|
||
"fal-ai/qwen-image-edit": {
|
||
"description": "Qwen ekibi tarafından geliştirilen profesyonel görüntü düzenleme modeli; anlamsal ve görünüm düzenlemeyi destekler, Çince ve İngilizce metinleri hassas şekilde düzenleyebilir, stil dönüşümü, nesne döndürme gibi yüksek kaliteli düzenlemeler yapabilir."
|
||
},
|
||
"flux-1-schnell": {
|
||
"description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görüntüye modeldir. Latent adversarial diffusion distillation teknolojisi kullanır ve 1 ila 4 adımda yüksek kaliteli görüntüler oluşturabilir. Performansı kapalı kaynak alternatiflerle karşılaştırılabilir ve Apache-2.0 lisansı altında kişisel, akademik ve ticari kullanıma uygundur."
|
||
},
|
||
"flux-dev": {
|
||
"description": "FLUX.1 [dev], ticari olmayan uygulamalar için açık kaynaklı ağırlık ve rafine modeldir. FLUX.1 [dev], FLUX profesyonel sürümüne yakın görüntü kalitesi ve talimat uyumu sağlarken daha yüksek çalışma verimliliğine sahiptir. Aynı boyuttaki standart modellere kıyasla kaynak kullanımı açısından daha etkilidir."
|
||
},
|
||
"flux-kontext-max": {
|
||
"description": "En gelişmiş bağlamsal görsel oluşturma ve düzenleme — metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunar."
|
||
},
|
||
"flux-kontext-pro": {
|
||
"description": "Metin ve görüntüleri birleştirerek hassas ve tutarlı sonuçlar elde etmek için en gelişmiş bağlamsal görüntü oluşturma ve düzenleme."
|
||
},
|
||
"flux-merged": {
|
||
"description": "FLUX.1-merged modeli, geliştirme aşamasında \"DEV\" tarafından keşfedilen derin özellikler ile \"Schnell\" in yüksek hızlı yürütme avantajlarını birleştirir. Bu sayede model performans sınırlarını artırır ve uygulama alanlarını genişletir."
|
||
},
|
||
"flux-pro": {
|
||
"description": "En üst düzey ticari yapay zeka görüntü oluşturma modeli — eşsiz görüntü kalitesi ve çok çeşitli çıktı yetenekleri."
|
||
},
|
||
"flux-pro-1.1": {
|
||
"description": "Geliştirilmiş profesyonel düzeyde yapay zeka görüntü oluşturma modeli — üstün görüntü kalitesi ve verilen promptlara/komutlara hassas uyum sağlama yeteneği sunar."
|
||
},
|
||
"flux-pro-1.1-ultra": {
|
||
"description": "Ultra yüksek çözünürlüklü yapay zeka ile görüntü üretimi — 4 megapiksel çıktı desteği; 10 saniye içinde ultra net görseller oluşturur."
|
||
},
|
||
"flux-schnell": {
|
||
"description": "FLUX.1 [schnell], şu anda açık kaynaklı en gelişmiş az adımlı modeldir; benzer rakiplerini aşmakla kalmaz, Midjourney v6.0 ve DALL·E 3 (HD) gibi güçlü damıtılmamış modellerden bile üstündür. Model, ön eğitim aşamasındaki tüm çıktı çeşitliliğini koruyacak şekilde özel olarak ince ayar yapılmıştır. Piyasadaki en gelişmiş modellere kıyasla görsel kalite, talimat uyumu, boyut/oran değişiklikleri, yazı tipi işleme ve çıktı çeşitliliği gibi alanlarda belirgin iyileştirmeler sunar ve kullanıcılara daha zengin ve çeşitli yaratıcı görüntü üretim deneyimi sağlar."
|
||
},
|
||
"flux.1-schnell": {
|
||
"description": "FLUX.1-schnell, yüksek performanslı görsel üretim modeli, çok çeşitli tarzlarda hızlı görsel üretimi destekler."
|
||
},
|
||
"gemini-1.0-pro-001": {
|
||
"description": "Gemini 1.0 Pro 001 (Tuning), kararlı ve ayarlanabilir bir performans sunar, karmaşık görev çözümleri için ideal bir seçimdir."
|
||
},
|
||
"gemini-1.0-pro-002": {
|
||
"description": "Gemini 1.0 Pro 002 (Tuning), mükemmel çok modlu destek sunar ve karmaşık görevlerin etkili bir şekilde çözülmesine odaklanır."
|
||
},
|
||
"gemini-1.0-pro-latest": {
|
||
"description": "Gemini 1.0 Pro, Google'ın yüksek performanslı AI modelidir ve geniş görev genişletmeleri için tasarlanmıştır."
|
||
},
|
||
"gemini-1.5-flash-001": {
|
||
"description": "Gemini 1.5 Flash 001, geniş uygulama alanları için destekleyen verimli bir çok modlu modeldir."
|
||
},
|
||
"gemini-1.5-flash-002": {
|
||
"description": "Gemini 1.5 Flash 002, geniş uygulama yelpazesini destekleyen verimli bir çok modlu modeldir."
|
||
},
|
||
"gemini-1.5-flash-8b": {
|
||
"description": "Gemini 1.5 Flash 8B, geniş uygulama yelpazesini destekleyen verimli bir çok modlu modeldir."
|
||
},
|
||
"gemini-1.5-flash-8b-exp-0924": {
|
||
"description": "Gemini 1.5 Flash 8B 0924, metin ve çok modlu kullanım durumlarında önemli performans artışları sunan en son deneysel modeldir."
|
||
},
|
||
"gemini-1.5-flash-8b-latest": {
|
||
"description": "Gemini 1.5 Flash 8B, geniş uygulama desteğiyle çoklu modaliteyi destekleyen yüksek verimli bir modeldir."
|
||
},
|
||
"gemini-1.5-flash-exp-0827": {
|
||
"description": "Gemini 1.5 Flash 0827, optimize edilmiş çok modlu işleme yetenekleri sunarak çeşitli karmaşık görev sahnelerine uygundur."
|
||
},
|
||
"gemini-1.5-flash-latest": {
|
||
"description": "Gemini 1.5 Flash, Google'ın en son çok modlu AI modelidir, hızlı işleme yeteneğine sahiptir ve metin, görüntü ve video girişi destekler, çeşitli görevlerin verimli bir şekilde genişletilmesine olanak tanır."
|
||
},
|
||
"gemini-1.5-pro-001": {
|
||
"description": "Gemini 1.5 Pro 001, geniş karmaşık görevleri destekleyen ölçeklenebilir bir çok modlu AI çözümüdür."
|
||
},
|
||
"gemini-1.5-pro-002": {
|
||
"description": "Gemini 1.5 Pro 002, daha yüksek kaliteli çıktılar sunan en son üretim hazır modeldir; özellikle matematik, uzun bağlam ve görsel görevlerde önemli iyileştirmeler sağlamaktadır."
|
||
},
|
||
"gemini-1.5-pro-exp-0801": {
|
||
"description": "Gemini 1.5 Pro 0801, olağanüstü çok modlu işleme yetenekleri sunarak uygulama geliştirmeye daha fazla esneklik getirir."
|
||
},
|
||
"gemini-1.5-pro-exp-0827": {
|
||
"description": "Gemini 1.5 Pro 0827, en son optimize edilmiş teknolojilerle birleştirilmiş daha verimli çok modlu veri işleme yeteneği sunar."
|
||
},
|
||
"gemini-1.5-pro-latest": {
|
||
"description": "Gemini 1.5 Pro, 2 milyon token'a kadar destekler, orta ölçekli çok modlu modeller için ideal bir seçimdir ve karmaşık görevler için çok yönlü destek sunar."
|
||
},
|
||
"gemini-2.0-flash": {
|
||
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
|
||
},
|
||
"gemini-2.0-flash-001": {
|
||
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
|
||
},
|
||
"gemini-2.0-flash-exp": {
|
||
"description": "Gemini 2.0 Flash modeli varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
|
||
},
|
||
"gemini-2.0-flash-exp-image-generation": {
|
||
"description": "Gemini 2.0 Flash deneysel modeli, görüntü oluşturmayı destekler"
|
||
},
|
||
"gemini-2.0-flash-lite": {
|
||
"description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
|
||
},
|
||
"gemini-2.0-flash-lite-001": {
|
||
"description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
|
||
},
|
||
"gemini-2.5-flash": {
|
||
"description": "Gemini 2.5 Flash, Google'ın en yüksek maliyet-performans modelidir ve kapsamlı özellikler sunar."
|
||
},
|
||
"gemini-2.5-flash-image": {
|
||
"description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; diyalog yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
|
||
},
|
||
"gemini-2.5-flash-image-preview": {
|
||
"description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; diyalog yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
|
||
},
|
||
"gemini-2.5-flash-image-preview:image": {
|
||
"description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; diyalog yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
|
||
},
|
||
"gemini-2.5-flash-image:image": {
|
||
"description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; diyalog yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
|
||
},
|
||
"gemini-2.5-flash-lite": {
|
||
"description": "Gemini 2.5 Flash-Lite, Google'ın en küçük ve en uygun maliyetli modeli olup, geniş çaplı kullanım için tasarlanmıştır."
|
||
},
|
||
"gemini-2.5-flash-lite-preview-06-17": {
|
||
"description": "Gemini 2.5 Flash-Lite Önizlemesi, Google'ın en küçük ve en yüksek maliyet-performans modelidir ve büyük ölçekli kullanım için tasarlanmıştır."
|
||
},
|
||
"gemini-2.5-flash-lite-preview-09-2025": {
|
||
"description": "Gemini 2.5 Flash-Lite'ın önizleme sürümü (25 Eylül 2025)"
|
||
},
|
||
"gemini-2.5-flash-preview-04-17": {
|
||
"description": "Gemini 2.5 Flash Önizleme, Google'ın en iyi fiyat-performans oranına sahip modelidir ve kapsamlı özellikler sunar."
|
||
},
|
||
"gemini-2.5-flash-preview-09-2025": {
|
||
"description": "Gemini 2.5 Flash'ın önizleme sürümü (25 Eylül 2025)"
|
||
},
|
||
"gemini-2.5-pro": {
|
||
"description": "Gemini 2.5 Pro, Google'ın en gelişmiş düşünce modelidir; kodlama, matematik ve STEM alanlarındaki karmaşık problemleri çıkarım yapabilir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
|
||
},
|
||
"gemini-2.5-pro-preview-03-25": {
|
||
"description": "Gemini 2.5 Pro Önizleme, Google'ın en gelişmiş düşünce modeli olup, kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütme yeteneğine sahiptir. Uzun bağlamları analiz ederek büyük veri setleri, kod havuzları ve belgeler üzerinde çalışabilir."
|
||
},
|
||
"gemini-2.5-pro-preview-05-06": {
|
||
"description": "Gemini 2.5 Pro Önizleme, Google'ın en gelişmiş düşünce modelidir ve kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütme yeteneğine sahiptir. Uzun bağlamları analiz ederek büyük veri setleri, kod havuzları ve belgeler üzerinde çalışabilir."
|
||
},
|
||
"gemini-2.5-pro-preview-06-05": {
|
||
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modelidir; kodlama, matematik ve STEM alanlarındaki karmaşık problemleri çözebilir ve uzun bağlam kullanarak büyük veri setleri, kod kütüphaneleri ve belgeleri analiz edebilir."
|
||
},
|
||
"gemini-3-pro-image-preview": {
|
||
"description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görüntü üretim modelidir; aynı zamanda çok modlu diyaloğu destekler."
|
||
},
|
||
"gemini-3-pro-image-preview:image": {
|
||
"description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görüntü üretim modelidir; aynı zamanda çok modlu diyaloğu destekler."
|
||
},
|
||
"gemini-3-pro-preview": {
|
||
"description": "Gemini 3 Pro, dünyanın en iyi çok modlu anlama modeli olup, Google’ın şimdiye kadarki en güçlü yapay zekâsı ve ortam programlama modelidir; gelişmiş görsel efektler ve derin etkileşim sunar, tüm bunlar ileri düzey akıl yürütme yetenekleri üzerine inşa edilmiştir."
|
||
},
|
||
"gemini-flash-latest": {
|
||
"description": "Gemini Flash'ın en son sürümü"
|
||
},
|
||
"gemini-flash-lite-latest": {
|
||
"description": "Gemini Flash-Lite'ın en son sürümü"
|
||
},
|
||
"gemini-pro-latest": {
|
||
"description": "Gemini Pro'nun en son sürümü"
|
||
},
|
||
"gemma-7b-it": {
|
||
"description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
|
||
},
|
||
"gemma2": {
|
||
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
||
},
|
||
"gemma2-9b-it": {
|
||
"description": "Gemma 2 9B, belirli görevler ve araç entegrasyonu için optimize edilmiş bir modeldir."
|
||
},
|
||
"gemma2:27b": {
|
||
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
||
},
|
||
"gemma2:2b": {
|
||
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
||
},
|
||
"generalv3": {
|
||
"description": "Spark Pro, profesyonel alanlar için optimize edilmiş yüksek performanslı büyük dil modelidir, matematik, programlama, sağlık, eğitim gibi birçok alana odaklanır ve çevrimiçi arama ile yerleşik hava durumu, tarih gibi eklentileri destekler. Optimize edilmiş modeli, karmaşık bilgi sorgulama, dil anlama ve yüksek düzeyde metin oluşturma konularında mükemmel performans ve yüksek verimlilik sergiler, profesyonel uygulama senaryoları için ideal bir seçimdir."
|
||
},
|
||
"generalv3.5": {
|
||
"description": "Spark3.5 Max, en kapsamlı özelliklere sahip versiyondur, çevrimiçi arama ve birçok yerleşik eklentiyi destekler. Kapsamlı optimize edilmiş temel yetenekleri ve sistem rol ayarları ile fonksiyon çağırma özellikleri, çeşitli karmaşık uygulama senaryolarında son derece mükemmel ve olağanüstü performans sergiler."
|
||
},
|
||
"glm-4": {
|
||
"description": "GLM-4, Ocak 2024'te piyasaya sürülen eski amiral gemisi versiyonudur, şu anda daha güçlü GLM-4-0520 ile değiştirilmiştir."
|
||
},
|
||
"glm-4-0520": {
|
||
"description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model versiyonudur, olağanüstü performans sergiler."
|
||
},
|
||
"glm-4-32b-0414": {
|
||
"description": "GLM-4 32B 0414, GLM serisi genel büyük model sürümü, çok görevli metin üretimi ve anlama desteği sunar."
|
||
},
|
||
"glm-4-9b-chat": {
|
||
"description": "GLM-4-9B-Chat, anlamsal anlama, matematik, akıl yürütme, kodlama ve bilgi alanlarında yüksek performans sergiler. Web tarama, kod yürütme, özel araç çağırma ve uzun metin akıl yürütme gibi özellikleri destekler. Japonca, Korece ve Almanca dahil olmak üzere 26 dili destekler."
|
||
},
|
||
"glm-4-air": {
|
||
"description": "GLM-4-Air, maliyet etkin bir versiyondur, GLM-4'e yakın performans sunar ve hızlı hız ve uygun fiyat sağlar."
|
||
},
|
||
"glm-4-air-250414": {
|
||
"description": "GLM-4-Air, maliyet açısından yüksek verimlilik sunan bir versiyondur, GLM-4'e yakın performans sunar, hızlı hız ve uygun fiyat sağlar."
|
||
},
|
||
"glm-4-airx": {
|
||
"description": "GLM-4-AirX, GLM-4-Air'ın verimli bir versiyonunu sunar, çıkarım hızı 2.6 katına kadar çıkabilir."
|
||
},
|
||
"glm-4-alltools": {
|
||
"description": "GLM-4-AllTools, karmaşık talimat planlaması ve araç çağrıları gibi çok işlevli görevleri desteklemek için optimize edilmiş bir akıllı modeldir. İnternet tarayıcıları, kod açıklamaları ve metin üretimi gibi çoklu görevleri yerine getirmek için uygundur."
|
||
},
|
||
"glm-4-flash": {
|
||
"description": "GLM-4-Flash, basit görevleri işlemek için ideal bir seçimdir, en hızlı ve en uygun fiyatlıdır."
|
||
},
|
||
"glm-4-flash-250414": {
|
||
"description": "GLM-4-Flash, basit görevler için ideal bir seçimdir, en hızlı ve ücretsizdir."
|
||
},
|
||
"glm-4-flashx": {
|
||
"description": "GLM-4-FlashX, Flash'ın geliştirilmiş bir versiyonudur ve ultra hızlı çıkarım hızı sunar."
|
||
},
|
||
"glm-4-long": {
|
||
"description": "GLM-4-Long, ultra uzun metin girişlerini destekler, bellek tabanlı görevler ve büyük ölçekli belge işleme için uygundur."
|
||
},
|
||
"glm-4-plus": {
|
||
"description": "GLM-4-Plus, güçlü uzun metin işleme ve karmaşık görevler için yeteneklere sahip yüksek akıllı bir amiral gemisidir, performansı tamamen artırılmıştır."
|
||
},
|
||
"glm-4.1v-thinking-flash": {
|
||
"description": "GLM-4.1V-Thinking serisi modeller, bilinen 10 milyar parametre seviyesindeki VLM modelleri arasında en güçlü görsel modellerdir. Aynı seviyedeki SOTA görsel dil görevlerini birleştirir; video anlama, görsel soru-cevap, akademik problem çözme, OCR metin tanıma, belge ve grafik yorumlama, GUI ajanı, ön uç web kodlama, grounding gibi birçok görevde 8 kat daha büyük parametreli Qwen2.5-VL-72B modelini bile aşan performans gösterir. Önde gelen pekiştirmeli öğrenme teknikleri sayesinde, düşünce zinciri akıl yürütme yoluyla cevapların doğruluğu ve zenginliği artırılmıştır; nihai sonuçlar ve açıklanabilirlik açısından geleneksel düşünce zinciri olmayan modellerin çok ötesindedir."
|
||
},
|
||
"glm-4.1v-thinking-flashx": {
|
||
"description": "GLM-4.1V-Thinking serisi modeller, bilinen 10 milyar parametre seviyesindeki VLM modelleri arasında en güçlü görsel modellerdir. Aynı seviyedeki SOTA görsel dil görevlerini birleştirir; video anlama, görsel soru-cevap, akademik problem çözme, OCR metin tanıma, belge ve grafik yorumlama, GUI ajanı, ön uç web kodlama, grounding gibi birçok görevde 8 kat daha büyük parametreli Qwen2.5-VL-72B modelini bile aşan performans gösterir. Önde gelen pekiştirmeli öğrenme teknikleri sayesinde, düşünce zinciri akıl yürütme yoluyla cevapların doğruluğu ve zenginliği artırılmıştır; nihai sonuçlar ve açıklanabilirlik açısından geleneksel düşünce zinciri olmayan modellerin çok ötesindedir."
|
||
},
|
||
"glm-4.5": {
|
||
"description": "Zhipu'nun amiral gemisi modeli, düşünme modu geçişini destekler, kapsamlı yetenekleri açık kaynak modellerin SOTA seviyesine ulaşır, bağlam uzunluğu 128K'ya kadar çıkabilir."
|
||
},
|
||
"glm-4.5-air": {
|
||
"description": "GLM-4.5'in hafif versiyonu olup performans ve maliyet etkinliğini dengeler; hibrit düşünme modeli olarak esnek geçiş sağlar."
|
||
},
|
||
"glm-4.5-airx": {
|
||
"description": "GLM-4.5-Air'in ultra hızlı versiyonu olup daha hızlı yanıt süresi sunar ve büyük ölçekli yüksek hız gereksinimleri için tasarlanmıştır."
|
||
},
|
||
"glm-4.5-flash": {
|
||
"description": "GLM-4.5'in ücretsiz versiyonu olup çıkarım, kodlama ve ajan görevlerinde üstün performans gösterir."
|
||
},
|
||
"glm-4.5-x": {
|
||
"description": "GLM-4.5'in ultra hızlı versiyonu olup güçlü performansla birlikte saniyede 100 token üretim hızına ulaşır."
|
||
},
|
||
"glm-4.5v": {
|
||
"description": "Zhipu'nun MOE mimarisine dayanan yeni nesil görsel akıl yürütme modeli; 106B toplam parametreye ve 12B aktif parametreye sahip olup çeşitli kıyaslama testlerinde aynı seviyedeki açık kaynaklı çok modlu modeller arasında dünya çapında SOTA'ya ulaşır; görüntü, video, belge anlama ve GUI görevleri gibi yaygın görevleri kapsar."
|
||
},
|
||
"glm-4.6": {
|
||
"description": "Zhipu'nun en yeni amiral gemisi modeli GLM-4.6 (355B), gelişmiş kodlama, uzun metin işleme, çıkarım ve ajan yeteneklerinde önceki nesli tamamen aşar, özellikle programlama yeteneklerinde Claude Sonnet 4 ile hizalanarak ülkenin en iyi Kodlama modeli olur."
|
||
},
|
||
"glm-4v": {
|
||
"description": "GLM-4V, güçlü görüntü anlama ve akıl yürütme yetenekleri sunar, çeşitli görsel görevleri destekler."
|
||
},
|
||
"glm-4v-flash": {
|
||
"description": "GLM-4V-Flash, hızlı görsel analiz veya toplu görsel işleme gibi sahnelerde, tek bir görüntü anlayışına odaklanarak etkili bir performans sunar."
|
||
},
|
||
"glm-4v-plus": {
|
||
"description": "GLM-4V-Plus, video içeriği ve çoklu görüntüleri anlama yeteneğine sahiptir, çok modlu görevler için uygundur."
|
||
},
|
||
"glm-4v-plus-0111": {
|
||
"description": "GLM-4V-Plus, video içeriği ve çoklu görüntüleri anlama yeteneğine sahiptir, çok modlu görevler için uygundur."
|
||
},
|
||
"glm-z1-air": {
|
||
"description": "Çıkarım modeli: Güçlü çıkarım yeteneklerine sahiptir, derin çıkarım gerektiren görevler için uygundur."
|
||
},
|
||
"glm-z1-airx": {
|
||
"description": "Hızlı çıkarım: Süper hızlı çıkarım hızı ve güçlü çıkarım etkisi sunar."
|
||
},
|
||
"glm-z1-flash": {
|
||
"description": "GLM-Z1 serisi, karmaşık çıkarım yeteneklerine sahiptir ve mantıksal çıkarım, matematik, programlama gibi alanlarda üstün performans gösterir."
|
||
},
|
||
"glm-z1-flashx": {
|
||
"description": "Yüksek hız ve düşük maliyet: Flash geliştirilmiş versiyon, ultra hızlı çıkarım hızı ve daha hızlı eşzamanlılık garantisi sunar."
|
||
},
|
||
"glm-zero-preview": {
|
||
"description": "GLM-Zero-Preview, karmaşık akıl yürütme yeteneklerine sahip olup, mantıksal akıl yürütme, matematik, programlama gibi alanlarda mükemmel performans sergilemektedir."
|
||
},
|
||
"global.anthropic.claude-opus-4-5-20251101-v1:0": {
|
||
"description": "Claude Opus 4.5, Anthropic'in amiral gemisi modelidir. Üstün zekâ ve ölçeklenebilir performansı bir araya getirerek, en yüksek kalitede yanıtlar ve akıl yürütme yeteneği gerektiren karmaşık görevler için idealdir."
|
||
},
|
||
"google/gemini-2.0-flash": {
|
||
"description": "Gemini 2.0 Flash, Google’ın yüksek performanslı akıl yürütme modelidir; genişletilmiş çok modlu görevler için uygundur."
|
||
},
|
||
"google/gemini-2.0-flash-001": {
|
||
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
|
||
},
|
||
"google/gemini-2.0-flash-exp:free": {
|
||
"description": "Gemini 2.0 Flash Deneysel, Google'ın en yeni deneysel çok modlu AI modelidir ve önceki sürümlere göre belirli bir kalite artışı sağlamaktadır, özellikle dünya bilgisi, kod ve uzun bağlam için."
|
||
},
|
||
"google/gemini-2.0-flash-lite": {
|
||
"description": "Gemini 2.0 Flash Lite, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
|
||
},
|
||
"google/gemini-2.0-flash-lite-001": {
|
||
"description": "Gemini 2.0 Flash Lite, Gemini ailesinin hafif sürümüdür; gecikme ve maliyet performansını artırmak için varsayılan olarak düşünme devre dışı bırakılmıştır, ancak parametre ile etkinleştirilebilir."
|
||
},
|
||
"google/gemini-2.5-flash": {
|
||
"description": "Gemini 2.5 Flash (Lite/Pro/Flash) serisi, Google’ın düşük gecikmeden yüksek performansa kadar uzanan akıl yürütme modelleridir."
|
||
},
|
||
"google/gemini-2.5-flash-image": {
|
||
"description": "Gemini 2.5 Flash Image (Nano Banana), Google’ın görüntü üretim modelidir; aynı zamanda çok modlu diyaloğu destekler."
|
||
},
|
||
"google/gemini-2.5-flash-image-free": {
|
||
"description": "Gemini 2.5 Flash Image ücretsiz sürümüdür; sınırlı çok modlu üretim kotasını destekler."
|
||
},
|
||
"google/gemini-2.5-flash-image-preview": {
|
||
"description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
|
||
},
|
||
"google/gemini-2.5-flash-lite": {
|
||
"description": "Gemini 2.5 Flash Lite, Gemini 2.5’in hafif sürümüdür; gecikme ve maliyet açısından optimize edilmiştir, yüksek verimlilik gerektiren senaryolar için uygundur."
|
||
},
|
||
"google/gemini-2.5-flash-preview": {
|
||
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
||
},
|
||
"google/gemini-2.5-flash-preview:thinking": {
|
||
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
||
},
|
||
"google/gemini-2.5-pro": {
|
||
"description": "Gemini 2.5 Pro, Google’ın amiral gemisi akıl yürütme modelidir; uzun bağlam ve karmaşık görevleri destekler."
|
||
},
|
||
"google/gemini-2.5-pro-free": {
|
||
"description": "Gemini 2.5 Pro ücretsiz sürümüdür; sınırlı çok modlu uzun bağlam desteği sunar, deneme ve hafif iş akışları için uygundur."
|
||
},
|
||
"google/gemini-2.5-pro-preview": {
|
||
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modeli olup, kodlama, matematik ve STEM alanlarındaki karmaşık sorunları çözme yeteneğine sahiptir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
|
||
},
|
||
"google/gemini-3-pro-image-preview": {
|
||
"description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın görüntü oluşturma modelidir ve çok modlu diyalogları destekler."
|
||
},
|
||
"google/gemini-3-pro-image-preview-free": {
|
||
"description": "Gemini 3 Pro Image ücretsiz sürümüdür; sınırlı çok modlu üretim kotasını destekler."
|
||
},
|
||
"google/gemini-3-pro-preview": {
|
||
"description": "Gemini 3 Pro, Gemini serisinin yeni nesil çok modlu akıl yürütme modelidir; metin, ses, görüntü, video gibi çeşitli girdileri anlayabilir ve karmaşık görevler ile büyük kod tabanlarını işleyebilir."
|
||
},
|
||
"google/gemini-3-pro-preview-free": {
|
||
"description": "Gemini 3 Pro ücretsiz önizleme sürümüdür; standart sürümle aynı çok modlu anlama ve akıl yürütme yeteneklerine sahiptir, ancak ücretsiz kota ve hız sınırlamaları nedeniyle deneyim ve düşük frekanslı kullanım için daha uygundur."
|
||
},
|
||
"google/gemini-embedding-001": {
|
||
"description": "İngilizce, çok dilli ve kod görevlerinde üstün performans sunan en gelişmiş gömme modeli."
|
||
},
|
||
"google/gemini-flash-1.5": {
|
||
"description": "Gemini 1.5 Flash, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur."
|
||
},
|
||
"google/gemini-pro-1.5": {
|
||
"description": "Gemini 1.5 Pro, en son optimize edilmiş teknolojileri birleştirerek daha verimli çok modlu veri işleme yetenekleri sunar."
|
||
},
|
||
"google/gemma-2-27b": {
|
||
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
||
},
|
||
"google/gemma-2-27b-it": {
|
||
"description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir."
|
||
},
|
||
"google/gemma-2-2b-it": {
|
||
"description": "Google'ın hafif talimat ayarlama modeli"
|
||
},
|
||
"google/gemma-2-9b": {
|
||
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
||
},
|
||
"google/gemma-2-9b-it": {
|
||
"description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir."
|
||
},
|
||
"google/gemma-2-9b-it:free": {
|
||
"description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir."
|
||
},
|
||
"google/gemma-2b-it": {
|
||
"description": "Gemma Instruct (2B), temel talimat işleme yetenekleri sunar ve hafif uygulamalar için uygundur."
|
||
},
|
||
"google/gemma-3-12b-it": {
|
||
"description": "Gemma 3 12B, Google tarafından geliştirilen açık kaynaklı bir dil modelidir ve verimlilik ile performansta yeni standartlar belirlemiştir."
|
||
},
|
||
"google/gemma-3-27b-it": {
|
||
"description": "Gemma 3 27B, Google'ın verimlilik ve performans açısından yeni standartlar belirleyen açık kaynaklı bir dil modelidir."
|
||
},
|
||
"google/text-embedding-005": {
|
||
"description": "Kod ve İngilizce dil görevleri için optimize edilmiş İngilizce odaklı metin gömme modeli."
|
||
},
|
||
"google/text-multilingual-embedding-002": {
|
||
"description": "Çoklu dil görevleri için optimize edilmiş çok dilli metin gömme modeli, birçok dili destekler."
|
||
},
|
||
"gpt-3.5-turbo": {
|
||
"description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
|
||
},
|
||
"gpt-3.5-turbo-0125": {
|
||
"description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
|
||
},
|
||
"gpt-3.5-turbo-1106": {
|
||
"description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
|
||
},
|
||
"gpt-3.5-turbo-instruct": {
|
||
"description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
|
||
},
|
||
"gpt-35-turbo": {
|
||
"description": "GPT 3.5 Turbo, OpenAI tarafından sağlanan verimli bir modeldir ve sohbet ve metin üretim görevleri için uygundur, paralel fonksiyon çağrılarını destekler."
|
||
},
|
||
"gpt-35-turbo-16k": {
|
||
"description": "GPT 3.5 Turbo 16k, karmaşık görevler için uygun yüksek kapasiteli bir metin üretim modelidir."
|
||
},
|
||
"gpt-4": {
|
||
"description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur."
|
||
},
|
||
"gpt-4-0125-preview": {
|
||
"description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4-0613": {
|
||
"description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur."
|
||
},
|
||
"gpt-4-1106-preview": {
|
||
"description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4-32k": {
|
||
"description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur."
|
||
},
|
||
"gpt-4-32k-0613": {
|
||
"description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur."
|
||
},
|
||
"gpt-4-turbo": {
|
||
"description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4-turbo-2024-04-09": {
|
||
"description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4-turbo-preview": {
|
||
"description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4-vision-preview": {
|
||
"description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4.1": {
|
||
"description": "GPT-4.1, karmaşık görevler için kullandığımız amiral gemisi modelidir. Farklı alanlarda sorunları çözmek için son derece uygundur."
|
||
},
|
||
"gpt-4.1-mini": {
|
||
"description": "GPT-4.1 mini, zeka, hız ve maliyet arasında bir denge sunarak birçok kullanım durumu için çekici bir model haline getirir."
|
||
},
|
||
"gpt-4.1-nano": {
|
||
"description": "GPT-4.1 mini, zeka, hız ve maliyet arasında bir denge sunarak birçok kullanım durumu için çekici bir model haline getirir."
|
||
},
|
||
"gpt-4.5-preview": {
|
||
"description": "GPT-4.5-preview, kapsamlı dünya bilgisine ve kullanıcı niyetlerini daha iyi anlama yeteneğine sahip en yeni genel amaçlı modeldir; yaratıcı görevler ve ajan planlaması konusunda uzmandır. Modelin bilgi kesiti Ekim 2023'tür."
|
||
},
|
||
"gpt-4o": {
|
||
"description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4o-2024-05-13": {
|
||
"description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4o-2024-08-06": {
|
||
"description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur."
|
||
},
|
||
"gpt-4o-2024-11-20": {
|
||
"description": "ChatGPT-4o, güncel en son sürümü korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli uygulama senaryoları için güçlü dil anlama ve üretme yeteneklerini bir araya getirir."
|
||
},
|
||
"gpt-4o-audio-preview": {
|
||
"description": "Ses giriş ve çıkışını destekleyen GPT-4o Ses Önizleme modeli"
|
||
},
|
||
"gpt-4o-mini": {
|
||
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
|
||
},
|
||
"gpt-4o-mini-audio-preview": {
|
||
"description": "GPT-4o mini Ses modeli, sesli giriş ve çıkışı destekler."
|
||
},
|
||
"gpt-4o-mini-realtime-preview": {
|
||
"description": "GPT-4o-mini gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
|
||
},
|
||
"gpt-4o-mini-search-preview": {
|
||
"description": "GPT-4o mini arama önizleme sürümü, web arama sorgularını anlama ve yürütme için özel olarak eğitilmiş bir modeldir ve Chat Completions API kullanır. Jeton ücretlerinin yanı sıra, web arama sorguları her araç çağrısı başına ücretlendirilir."
|
||
},
|
||
"gpt-4o-mini-transcribe": {
|
||
"description": "GPT-4o Mini Transcribe, GPT-4o kullanarak sesleri metne dönüştüren bir konuşma tanıma modelidir. Orijinal Whisper modeline kıyasla kelime hata oranını düşürür ve dil tanıma ile doğruluğu artırır. Daha doğru transkripsiyonlar için kullanın."
|
||
},
|
||
"gpt-4o-mini-tts": {
|
||
"description": "GPT-4o mini TTS, GPT-4o mini'ye dayalı bir metin-ses modeldir ve yüksek kaliteli ses üretimi, düşük maliyetli oluşturma sunar."
|
||
},
|
||
"gpt-4o-realtime-preview": {
|
||
"description": "GPT-4o gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
|
||
},
|
||
"gpt-4o-realtime-preview-2024-10-01": {
|
||
"description": "GPT-4o gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
|
||
},
|
||
"gpt-4o-realtime-preview-2025-06-03": {
|
||
"description": "GPT-4o gerçek zamanlı sürümü, ses ve metin giriş-çıkışını gerçek zamanlı destekler."
|
||
},
|
||
"gpt-4o-search-preview": {
|
||
"description": "GPT-4o arama önizleme sürümü, web arama sorgularını anlama ve yürütme için özel olarak eğitilmiş bir modeldir ve Chat Completions API kullanır. Jeton ücretlerinin yanı sıra, web arama sorguları her araç çağrısı başına ücretlendirilir."
|
||
},
|
||
"gpt-4o-transcribe": {
|
||
"description": "GPT-4o Transcribe, GPT-4o kullanarak sesleri metne dönüştüren bir konuşma tanıma modelidir. Orijinal Whisper modeline kıyasla kelime hata oranını düşürür ve dil tanıma ile doğruluğu artırır. Daha doğru transkripsiyonlar için kullanın."
|
||
},
|
||
"gpt-5": {
|
||
"description": "Çapraz alan kodlama ve temsil görevleri için en iyi model. GPT-5, doğruluk, hız, akıl yürütme, bağlam tanıma, yapısal düşünme ve problem çözmede büyük ilerleme kaydetti."
|
||
},
|
||
"gpt-5-chat": {
|
||
"description": "GPT-5 Chat, diyalog senaryoları için optimize edilmiş bir önizleme sürümüdür. Metin ve görsel girişi destekler, yalnızca metin çıktısı verir; sohbet robotları ve diyalog tabanlı yapay zeka uygulamaları için uygundur."
|
||
},
|
||
"gpt-5-chat-latest": {
|
||
"description": "ChatGPT'de kullanılan GPT-5 modeli. Güçlü dil anlama ve üretme yeteneklerini birleştirerek diyalog tabanlı etkileşim uygulamaları için uygundur."
|
||
},
|
||
"gpt-5-codex": {
|
||
"description": "GPT-5 Codex, Codex veya benzeri ortamlardaki ajan kodlama görevleri için optimize edilmiş GPT-5 versiyonudur."
|
||
},
|
||
"gpt-5-mini": {
|
||
"description": "Daha hızlı ve ekonomik GPT-5 versiyonu, belirgin tanımlı görevler için uygundur. Yüksek kaliteli çıktıyı korurken daha hızlı yanıt sağlar."
|
||
},
|
||
"gpt-5-nano": {
|
||
"description": "En hızlı ve en ekonomik GPT-5 versiyonu. Hızlı yanıt gerektiren ve maliyet duyarlı uygulamalar için idealdir."
|
||
},
|
||
"gpt-5-pro": {
|
||
"description": "GPT-5 pro, daha derin düşünme için daha fazla hesaplama gücü kullanır ve sürekli olarak daha iyi yanıtlar sunar."
|
||
},
|
||
"gpt-5.1": {
|
||
"description": "GPT-5.1 — Kodlama ve ajan görevleri için optimize edilmiş amiral gemisi modelidir; yapılandırılabilir akıl yürütme gücü ve daha uzun bağlam desteği sunar."
|
||
},
|
||
"gpt-5.1-chat-latest": {
|
||
"description": "GPT-5.1 Chat: Sohbet senaryoları için uygun, ChatGPT’ye özel GPT-5.1 varyantı."
|
||
},
|
||
"gpt-5.1-codex": {
|
||
"description": "GPT-5.1 Codex: Ajan tabanlı kodlama görevleri için optimize edilmiş GPT-5.1 sürümüdür; daha karmaşık kod/ajan iş akışları için Responses API ile kullanılabilir."
|
||
},
|
||
"gpt-5.1-codex-mini": {
|
||
"description": "GPT-5.1 Codex mini: Daha küçük boyutlu ve daha düşük maliyetli Codex varyantı; ajan tabanlı kodlama görevleri için optimize edilmiştir."
|
||
},
|
||
"gpt-audio": {
|
||
"description": "GPT Audio, ses giriş ve çıkışına yönelik genel sohbet modelidir ve Chat Completions API’de ses I/O kullanımını destekler."
|
||
},
|
||
"gpt-image-1": {
|
||
"description": "ChatGPT'nin yerel çok modlu görüntü oluşturma modeli"
|
||
},
|
||
"gpt-image-1-mini": {
|
||
"description": "Daha düşük maliyetli bir GPT Image 1 sürümüdür, metin ve görsel girdilerini doğal olarak destekler ve görsel çıktılar üretebilir."
|
||
},
|
||
"gpt-oss-120b": {
|
||
"description": "Bu modelin kullanımı için başvuru gereklidir. GPT-OSS-120B, OpenAI tarafından geliştirilen açık kaynaklı büyük ölçekli bir dil modelidir ve güçlü metin üretme yeteneklerine sahiptir."
|
||
},
|
||
"gpt-oss-20b": {
|
||
"description": "Bu modelin kullanımı için başvuru gereklidir. GPT-OSS-20B, OpenAI tarafından geliştirilen açık kaynaklı orta ölçekli bir dil modelidir ve verimli metin üretme yeteneklerine sahiptir."
|
||
},
|
||
"gpt-oss:120b": {
|
||
"description": "GPT-OSS 120B, OpenAI tarafından yayımlanan büyük ölçekli açık kaynak dil modelidir ve MXFP4 kuantizasyon teknolojisini kullanır. Amiral gemisi model olarak çoklu GPU veya yüksek performanslı iş istasyonu ortamlarında çalıştırılması gerekmektedir. Karmaşık çıkarım, kod üretimi ve çok dilli işleme konularında üstün performans sunar ve gelişmiş fonksiyon çağrıları ile araç entegrasyonunu destekler."
|
||
},
|
||
"gpt-oss:20b": {
|
||
"description": "GPT-OSS 20B, OpenAI tarafından yayınlanan açık kaynaklı büyük dil modelidir. MXFP4 kuantizasyon teknolojisi kullanır ve üst düzey tüketici sınıfı GPU’lar veya Apple Silicon Mac üzerinde çalışmaya uygundur. Model, diyalog üretimi, kod yazımı ve çıkarım görevlerinde üstün performans sergiler, fonksiyon çağrısı ve araç kullanımını destekler."
|
||
},
|
||
"gpt-realtime": {
|
||
"description": "Metin ve sesin gerçek zamanlı giriş ve çıkışını destekleyen genel amaçlı gerçek zamanlı model, ayrıca görüntü girişini de destekler."
|
||
},
|
||
"grok-2-image-1212": {
|
||
"description": "En yeni görüntü oluşturma modelimiz, metin istemlerine dayanarak canlı ve gerçekçi görüntüler oluşturabilir. Pazarlama, sosyal medya ve eğlence gibi alanlarda görüntü üretiminde mükemmel performans sergiler."
|
||
},
|
||
"grok-2-vision-1212": {
|
||
"description": "Bu model, doğruluk, talimat takibi ve çok dilli yetenekler açısından geliştirilmiştir."
|
||
},
|
||
"grok-3": {
|
||
"description": "Amiral gemisi model olup, veri çıkarımı, programlama ve metin özetleme gibi kurumsal uygulamalarda uzmandır; finans, sağlık, hukuk ve bilim alanlarında derin bilgiye sahiptir."
|
||
},
|
||
"grok-3-mini": {
|
||
"description": "Hafif model olup, konuşma öncesi düşünür. Hızlı ve akıllı çalışır, derin alan bilgisi gerektirmeyen mantıksal görevler için uygundur ve orijinal düşünce izlerini elde edebilir."
|
||
},
|
||
"grok-4": {
|
||
"description": "En yeni ve en güçlü amiral gemisi modelimiz, doğal dil işleme, matematiksel hesaplama ve akıl yürütme alanlarında üstün performans sergiliyor — mükemmel bir çok yönlü oyuncu."
|
||
},
|
||
"grok-4-0709": {
|
||
"description": "xAI'nin Grok 4 modeli, güçlü akıl yürütme yeteneklerine sahiptir."
|
||
},
|
||
"grok-4-1-fast-non-reasoning": {
|
||
"description": "Yüksek performanslı aracı araç çağrıları için özel olarak optimize edilmiş, son teknoloji çok modlu model."
|
||
},
|
||
"grok-4-1-fast-reasoning": {
|
||
"description": "Yüksek performanslı aracı araç çağrıları için özel olarak optimize edilmiş, son teknoloji çok modlu model."
|
||
},
|
||
"grok-4-fast-non-reasoning": {
|
||
"description": "Maliyet-etkin çıkarım modellerinde en son gelişmemiz olan Grok 4 Fast’i sunmaktan mutluluk duyuyoruz."
|
||
},
|
||
"grok-4-fast-reasoning": {
|
||
"description": "Maliyet-etkin çıkarım modellerinde en son gelişmemiz olan Grok 4 Fast’i sunmaktan mutluluk duyuyoruz."
|
||
},
|
||
"grok-code-fast-1": {
|
||
"description": "Hızlı ve ekonomik bir çıkarım modeli olan grok-code-fast-1'i sunmaktan mutluluk duyuyoruz; ajan kodlamasında mükemmel performans sergiler."
|
||
},
|
||
"groq/compound": {
|
||
"description": "Compound, GroqCloud’da desteklenen birden fazla açık erişimli model tarafından desteklenen birleşik bir yapay zeka sistemidir ve kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanabilir."
|
||
},
|
||
"groq/compound-mini": {
|
||
"description": "Compound-mini, GroqCloud’da desteklenen açık erişimli modeller tarafından desteklenen birleşik bir yapay zeka sistemidir ve kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanabilir."
|
||
},
|
||
"gryphe/mythomax-l2-13b": {
|
||
"description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir."
|
||
},
|
||
"hunyuan-a13b": {
|
||
"description": "Hunyuan'ın ilk karma akıl yürütme modeli olan hunyuan-standard-256K'nın yükseltilmiş versiyonu, toplam 80 milyar parametre ve 13 milyar parametre aktive eder. Varsayılan olarak yavaş düşünme modundadır ve parametre veya komut yoluyla hızlı ve yavaş düşünme modları arasında geçişi destekler; hızlı/yavaş düşünme geçişi için sorguya / no_think eklenir. Genel yetenekler önceki nesle göre kapsamlı şekilde geliştirilmiş olup, özellikle matematik, bilim, uzun metin anlama ve ajan yeteneklerinde belirgin artışlar vardır."
|
||
},
|
||
"hunyuan-code": {
|
||
"description": "Hunyuan'ın en son kod oluşturma modeli, 200B yüksek kaliteli kod verisi ile artırılmış temel model ile altı ay boyunca yüksek kaliteli SFT verisi eğitimi almıştır. Bağlam penceresi uzunluğu 8K'ya çıkarılmıştır ve beş büyük dil için kod oluşturma otomatik değerlendirme göstergelerinde ön sıralardadır; beş büyük dilde 10 kriterin her yönüyle yüksek kaliteli değerlendirmelerde performansı birinci sıradadır."
|
||
},
|
||
"hunyuan-functioncall": {
|
||
"description": "Hunyuan'ın en son MOE mimarisi FunctionCall modeli, yüksek kaliteli FunctionCall verisi ile eğitilmiş olup, bağlam penceresi 32K'ya ulaşmıştır ve birçok boyutta değerlendirme göstergelerinde lider konumdadır."
|
||
},
|
||
"hunyuan-large": {
|
||
"description": "Hunyuan-large modelinin toplam parametre sayısı yaklaşık 389B, etkin parametre sayısı yaklaşık 52B'dir; bu, mevcut endüstrideki en büyük parametre ölçeğine sahip ve en iyi performansı gösteren Transformer mimarisinin açık kaynaklı MoE modelidir."
|
||
},
|
||
"hunyuan-large-longcontext": {
|
||
"description": "Uzun metin görevlerini, örneğin belge özeti ve belge sorgulama gibi, işleme konusunda uzmandır; aynı zamanda genel metin oluşturma görevlerini de yerine getirme yeteneğine sahiptir. Uzun metinlerin analizi ve oluşturulmasında mükemmel bir performans sergiler, karmaşık ve ayrıntılı uzun metin içerik işleme ihtiyaçlarına etkili bir şekilde yanıt verebilir."
|
||
},
|
||
"hunyuan-large-vision": {
|
||
"description": "Bu model, görsel ve metin anlama senaryoları için uygundur. Hunyuan Large tabanlı görsel-dil büyük modelidir, herhangi bir çözünürlükte çoklu resim ve metin girişini destekler, metin üretir, görsel-metinsel anlama görevlerine odaklanır ve çok dilli görsel-metinsel anlama yeteneğinde belirgin gelişme sağlar."
|
||
},
|
||
"hunyuan-lite": {
|
||
"description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde."
|
||
},
|
||
"hunyuan-lite-vision": {
|
||
"description": "Hunyuan'ın en son 7B çok modlu modeli, bağlam penceresi 32K, Çince ve İngilizce senaryolarında çok modlu diyalog, görüntü nesne tanıma, belge tablo anlama, çok modlu matematik vb. destekler; birçok boyutta değerlendirme kriterleri 7B rakip modellerden üstündür."
|
||
},
|
||
"hunyuan-pro": {
|
||
"description": "Trilyon seviyesinde parametre ölçeğine sahip MOE-32K uzun metin modeli. Çeşitli benchmarklarda kesin bir liderlik seviyesine ulaşarak, karmaşık talimatlar ve akıl yürütme yetenekleri ile karmaşık matematik yetenekleri sunar, functioncall desteği ile çok dilli çeviri, finans, hukuk ve sağlık gibi alanlarda önemli optimizasyonlar sağlar."
|
||
},
|
||
"hunyuan-role": {
|
||
"description": "Hunyuan'ın en son rol yapma modeli, Hunyuan resmi ince ayar eğitimi ile geliştirilmiş rol yapma modelidir. Hunyuan modeli ile rol yapma senaryosu veri seti birleştirilerek artırılmıştır ve rol yapma senaryolarında daha iyi temel performans sunmaktadır."
|
||
},
|
||
"hunyuan-standard": {
|
||
"description": "Daha iyi bir yönlendirme stratejisi kullanarak, yük dengeleme ve uzman yakınsaması sorunlarını hafifletir. Uzun metinlerde, iğne arama göstergesi %99.9'a ulaşmaktadır. MOE-32K, uzun metin girişlerini işleme yeteneği ile etki ve fiyat dengesini sağlarken, maliyet açısından daha yüksek bir değer sunar."
|
||
},
|
||
"hunyuan-standard-256K": {
|
||
"description": "Daha iyi bir yönlendirme stratejisi kullanarak, yük dengeleme ve uzman yakınsaması sorunlarını hafifletir. Uzun metinlerde, iğne arama göstergesi %99.9'a ulaşmaktadır. MOE-256K, uzunluk ve etki açısından daha fazla bir sıçrama yaparak, girdi uzunluğunu büyük ölçüde genişletir."
|
||
},
|
||
"hunyuan-standard-vision": {
|
||
"description": "Hunyuan'ın en son çok modlu modeli, çok dilli yanıtları destekler, Çince ve İngilizce yetenekleri dengelidir."
|
||
},
|
||
"hunyuan-t1-20250321": {
|
||
"description": "Modelin hem fen hem de sosyal bilimler alanındaki yeteneklerini kapsamlı bir şekilde inşa eder, uzun metin bilgilerini yakalama yeteneği yüksektir. Her türlü zorluktaki matematik/ mantık çıkarımı/ bilim/ kod gibi bilimsel sorunları çözme yeteneğini destekler."
|
||
},
|
||
"hunyuan-t1-20250403": {
|
||
"description": "Proje düzeyinde kod üretme yeteneğini artırır; metin oluşturma ve yazma kalitesini yükseltir; metin anlama, çok turlu konu takibi, toB komut uyumu ve kelime-anlama yeteneklerini geliştirir; karmaşık geleneksel ve basitleştirilmiş Çince ile İngilizce karışık çıktı sorunlarını optimize eder."
|
||
},
|
||
"hunyuan-t1-20250529": {
|
||
"description": "Metin oluşturma ve kompozisyon yazımını optimize eder; kod ön yüzü, matematik, mantıksal çıkarım gibi fen bilimleri yeteneklerini geliştirir ve talimatlara uyum yeteneğini artırır."
|
||
},
|
||
"hunyuan-t1-20250711": {
|
||
"description": "Zorlu matematik, mantık ve kodlama yeteneklerinde büyük iyileştirmeler sağlar, model çıktı kararlılığını optimize eder ve uzun metin işleme kapasitesini artırır."
|
||
},
|
||
"hunyuan-t1-latest": {
|
||
"description": "Ana modelin yavaş düşünme modelinin yüksek zorlukta matematik, karmaşık akıl yürütme, zor kodlama, talimat uyumu ve metin oluşturma kalitesi gibi yeteneklerinde büyük gelişmeler sağlar."
|
||
},
|
||
"hunyuan-t1-vision-20250619": {
|
||
"description": "Hunyuan'ın en yeni t1-vision çok modlu anlama derin düşünme modeli, çok modlu doğal düşünce zincirini destekler ve önceki nesil varsayılan modele kıyasla kapsamlı iyileştirmeler sunar."
|
||
},
|
||
"hunyuan-t1-vision-20250916": {
|
||
"description": "Hunyuan'ın en son sürümü t1-vision, görsel derin düşünme modeli olarak önceki versiyona kıyasla genel görsel-sözel soru-cevap, görsel konumlandırma, OCR, grafik yorumlama, soru çözme ve görsel yaratıcılık gibi görevlerde kapsamlı iyileştirmeler sunar. İngilizce ve az konuşulan dillerdeki performansı da belirgin şekilde geliştirilmiştir."
|
||
},
|
||
"hunyuan-turbo": {
|
||
"description": "Hunyuan'ın yeni nesil büyük dil modelinin önizleme sürümü, tamamen yeni bir karma uzman modeli (MoE) yapısı kullanır ve hunyuan-pro'ya kıyasla daha hızlı çıkarım verimliliği ve daha güçlü performans sunar."
|
||
},
|
||
"hunyuan-turbo-20241223": {
|
||
"description": "Bu sürümde yapılan optimizasyonlar: veri talimatı ölçeklendirme, modelin genel genelleme yeteneğini büyük ölçüde artırma; matematik, kodlama, mantıksal akıl yürütme yeteneklerini büyük ölçüde artırma; metin anlama ve kelime anlama ile ilgili yetenekleri optimize etme; metin oluşturma içerik üretim kalitesini optimize etme."
|
||
},
|
||
"hunyuan-turbo-latest": {
|
||
"description": "Genel deneyim optimizasyonu, NLP anlama, metin oluşturma, sohbet, bilgi sorgulama, çeviri, alan vb. dahil; insan benzeri özellikleri artırma, modelin duygusal zekasını optimize etme; niyet belirsiz olduğunda modelin aktif olarak netleştirme yeteneğini artırma; kelime ve terim analizi ile ilgili sorunların işlenme yeteneğini artırma; yaratım kalitesini ve etkileşimliğini artırma; çoklu tur deneyimini geliştirme."
|
||
},
|
||
"hunyuan-turbo-vision": {
|
||
"description": "Hunyuan'ın yeni nesil görsel dil amiral modeli, tamamen yeni bir karışık uzman modeli (MoE) yapısını benimser; metin ve görüntü anlama ile ilgili temel tanıma, içerik oluşturma, bilgi sorgulama, analiz ve akıl yürütme gibi yeteneklerde bir önceki nesil modele göre kapsamlı bir iyileştirme sağlar."
|
||
},
|
||
"hunyuan-turbos-20250313": {
|
||
"description": "Matematik problem çözme adımlarının stilini birleştirir, matematikte çok turlu soru-cevapları güçlendirir. Metin oluşturma, yanıt stilini optimize eder, yapay zeka izlerini kaldırır, edebi ifadeyi artırır."
|
||
},
|
||
"hunyuan-turbos-20250416": {
|
||
"description": "Ön eğitim tabanı yükseltmesi, tabanın komut anlama ve uyum yeteneklerini güçlendirir; hizalama aşamasında matematik, kodlama, mantık ve bilimsel alanlardaki yetenekleri artırır; yaratıcı yazım kalitesi, metin anlama, çeviri doğruluğu ve bilgi tabanlı soru-cevap gibi beşeri bilimler yeteneklerini geliştirir; çeşitli alanlardaki ajan yeteneklerini güçlendirir, özellikle çok turlu diyalog anlama yeteneğine odaklanır."
|
||
},
|
||
"hunyuan-turbos-20250604": {
|
||
"description": "Ön eğitim tabanı yükseltildi; yazma ve okuduğunu anlama yetenekleri geliştirildi; kodlama ve fen bilimleri yeteneklerinde önemli iyileştirmeler sağlandı; karmaşık talimatlara uyum gibi alanlarda sürekli gelişme devam ediyor."
|
||
},
|
||
"hunyuan-turbos-20250926": {
|
||
"description": "Ön eğitim tabanı veri kalitesi yükseltmesi. Post-train aşaması eğitim stratejisi optimize edilerek Agent, İngilizce dışı küçük diller, talimat uyumu, kodlama ve fen bilimleri yetenekleri sürekli geliştirilmiştir."
|
||
},
|
||
"hunyuan-turbos-latest": {
|
||
"description": "hunyuan-TurboS, daha güçlü düşünme yeteneği ve daha iyi deneyim sunan en son sürümüdür."
|
||
},
|
||
"hunyuan-turbos-longtext-128k-20250325": {
|
||
"description": "Uzun metin görevlerini, örneğin belge özetleme ve belge yanıtları gibi, işleme konusunda uzmandır ve genel metin oluşturma görevlerini de yerine getirebilir. Uzun metinlerin analizi ve oluşturulmasında mükemmel performans gösterir, karmaşık ve ayrıntılı uzun metin içerik işleme ihtiyaçlarını etkili bir şekilde karşılar."
|
||
},
|
||
"hunyuan-turbos-role-plus": {
|
||
"description": "Hunyuan'ın en son rol yapma modeli, Hunyuan tarafından resmi olarak ince ayar ve eğitimle geliştirilmiş, rol yapma senaryoları veri setiyle artırılmıştır ve rol yapma senaryolarında daha iyi temel performans sunar."
|
||
},
|
||
"hunyuan-turbos-vision": {
|
||
"description": "Bu model, görsel ve metin anlama senaryoları için uygundur ve Hunyuan'ın en yeni turbos tabanlı yeni nesil görsel dil amiral gemisi büyük modelidir. Görsel tabanlı varlık tanıma, bilgi sorgulama, metin oluşturma, fotoğrafla problem çözme gibi görevlerde odaklanır ve önceki nesil modele kıyasla kapsamlı iyileştirmeler içerir."
|
||
},
|
||
"hunyuan-turbos-vision-20250619": {
|
||
"description": "Hunyuan'ın en yeni turbos-vision görsel dil amiral gemisi büyük modeli, görsel ve metin anlama ile ilgili görevlerde, görsel tabanlı varlık tanıma, bilgi sorgulama, metin oluşturma, fotoğrafla problem çözme gibi alanlarda önceki nesil varsayılan modele kıyasla kapsamlı iyileştirmeler sunar."
|
||
},
|
||
"hunyuan-vision": {
|
||
"description": "Hunyuan'ın en son çok modlu modeli, resim + metin girişi ile metin içeriği oluşturmayı destekler."
|
||
},
|
||
"image-01": {
|
||
"description": "Yepyeni görüntü oluşturma modeli, ince detaylı görseller sunar; metinden görüntü ve görüntüden görüntü desteği vardır."
|
||
},
|
||
"image-01-live": {
|
||
"description": "Görüntü oluşturma modeli, ince detaylı görseller sunar; metinden görüntü oluşturmayı ve stil ayarlarını destekler."
|
||
},
|
||
"imagen-4.0-fast-generate-001": {
|
||
"description": "Imagen 4. nesil metinden görsele model serisi — Hızlı sürüm"
|
||
},
|
||
"imagen-4.0-generate-001": {
|
||
"description": "Imagen 4. nesil metinden görüntüye model serisi"
|
||
},
|
||
"imagen-4.0-generate-preview-06-06": {
|
||
"description": "Imagen dördüncü nesil metinden görsele model serisi"
|
||
},
|
||
"imagen-4.0-ultra-generate-001": {
|
||
"description": "Imagen 4. nesil metinden-görüntüye model serisi, Ultra sürümü"
|
||
},
|
||
"imagen-4.0-ultra-generate-preview-06-06": {
|
||
"description": "Imagen dördüncü nesil metinden görsele model serisinin Ultra versiyonu"
|
||
},
|
||
"inception/mercury-coder-small": {
|
||
"description": "Mercury Coder Small, kod üretimi, hata ayıklama ve yeniden yapılandırma görevleri için ideal olup, minimum gecikme sunar."
|
||
},
|
||
"inclusionAI/Ling-flash-2.0": {
|
||
"description": "Ling-flash-2.0, Ant Group Bailing ekibi tarafından yayınlanan Ling 2.0 mimari serisinin üçüncü modelidir. Bu, hibrit uzman (MoE) modeli olup toplam parametre sayısı 100 milyara ulaşırken, her token için yalnızca 6.1 milyar parametre aktive eder (embedding dışı 4.8 milyar). Hafif yapılandırmaya sahip bu model, birçok otoriter değerlendirmede 40 milyar seviyesindeki yoğun (Dense) modeller ve daha büyük ölçekli MoE modelleriyle rekabet eden hatta onları aşan performans sergiler. Model, \"büyük model büyük parametre demektir\" anlayışı altında yüksek verimlilik yollarını keşfetmek için üstün mimari tasarım ve eğitim stratejileriyle geliştirilmiştir."
|
||
},
|
||
"inclusionAI/Ling-mini-2.0": {
|
||
"description": "Ling-mini-2.0, MoE mimarisi temelinde küçük boyutlu yüksek performanslı büyük dil modelidir. Toplam 16 milyar parametreye sahip olup, her token için yalnızca 1.4 milyar parametre aktive eder (embedding dışı 789 milyon), böylece çok yüksek üretim hızı sağlar. Verimli MoE tasarımı ve büyük ölçekli yüksek kaliteli eğitim verileri sayesinde, aktive edilen parametre sayısı sadece 1.4 milyar olmasına rağmen, Ling-mini-2.0 altındaki 10 milyar yoğun LLM ve daha büyük ölçekli MoE modelleriyle kıyaslanabilir üst düzey performans gösterir."
|
||
},
|
||
"inclusionAI/Ring-flash-2.0": {
|
||
"description": "Ring-flash-2.0, Ling-flash-2.0-base üzerine derinlemesine optimize edilmiş yüksek performanslı düşünme modelidir. Hibrit uzman (MoE) mimarisi kullanır, toplam parametre sayısı 100 milyardır ancak her çıkarımda yalnızca 6.1 milyar parametre aktive edilir. Model, özgün icepop algoritması ile MoE büyük modellerin pekiştirmeli öğrenme (RL) eğitimindeki kararsızlık sorununu çözerek karmaşık çıkarım yeteneğini uzun dönemli eğitimlerde sürekli artırır. Ring-flash-2.0, matematik yarışmaları, kod üretimi ve mantıksal çıkarım gibi zorlu kıyaslama testlerinde önemli atılımlar yapmış, performansı 40 milyar parametre altındaki en iyi yoğun modelleri aşmakla kalmayıp, daha büyük ölçekli açık kaynak MoE modelleri ve kapalı kaynak yüksek performanslı düşünme modelleriyle rekabet edebilir. Model karmaşık çıkarıma odaklanmasına rağmen yaratıcı yazma gibi görevlerde de başarılıdır. Ayrıca, yüksek verimli mimari tasarımı sayesinde güçlü performans sunarken yüksek hızda çıkarım yapar ve yüksek eşzamanlılık senaryolarında düşünme modeli dağıtım maliyetlerini önemli ölçüde azaltır."
|
||
},
|
||
"inclusionai/ling-1t": {
|
||
"description": "Ling-1T, inclusionAI’nin 1T MoE büyük modelidir; yüksek yoğunluklu akıl yürütme görevleri ve büyük ölçekli bağlamlar için optimize edilmiştir."
|
||
},
|
||
"inclusionai/ling-flash-2.0": {
|
||
"description": "Ling-flash-2.0, inclusionAI’nin MoE modelidir; verimlilik ve akıl yürütme performansı açısından optimize edilmiştir, orta ve büyük ölçekli görevler için uygundur."
|
||
},
|
||
"inclusionai/ling-mini-2.0": {
|
||
"description": "Ling-mini-2.0, inclusionAI’nin hafifletilmiş MoE modelidir; akıl yürütme yeteneğini korurken maliyeti önemli ölçüde azaltır."
|
||
},
|
||
"inclusionai/ming-flash-omini-preview": {
|
||
"description": "Ming-flash-omni Preview, inclusionAI’nin çok modlu modelidir; ses, görüntü ve video girişlerini destekler, görüntü işleme ve ses tanıma yetenekleri optimize edilmiştir."
|
||
},
|
||
"inclusionai/ring-1t": {
|
||
"description": "Ring-1T, inclusionAI’nin trilyon parametreli MoE düşünme modelidir; büyük ölçekli akıl yürütme ve araştırma görevleri için uygundur."
|
||
},
|
||
"inclusionai/ring-flash-2.0": {
|
||
"description": "Ring-flash-2.0, inclusionAI’nin yüksek verimlilikli senaryolar için geliştirdiği Ring model varyantıdır; hız ve maliyet verimliliğine odaklanır."
|
||
},
|
||
"inclusionai/ring-mini-2.0": {
|
||
"description": "Ring-mini-2.0, inclusionAI’nin yüksek verimlilikli hafif MoE sürümüdür; özellikle eşzamanlı kullanım senaryoları için tasarlanmıştır."
|
||
},
|
||
"internlm/internlm2_5-7b-chat": {
|
||
"description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
|
||
},
|
||
"internlm2.5-latest": {
|
||
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
|
||
},
|
||
"internlm3-latest": {
|
||
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
|
||
},
|
||
"internvl2.5-38b-mpo": {
|
||
"description": "InternVL2.5 38B MPO, çok modlu ön eğitimli model, karmaşık görsel-metin çıkarım görevlerini destekler."
|
||
},
|
||
"internvl2.5-latest": {
|
||
"description": "Hala bakımını yaptığımız InternVL2.5 sürümü, mükemmel ve istikrarlı bir performansa sahiptir. Varsayılan olarak en son yayımladığımız InternVL2.5 serisi modele işaret eder, şu anda internvl2.5-78b'ye işaret ediyor."
|
||
},
|
||
"internvl3-14b": {
|
||
"description": "InternVL3 14B, orta ölçekli çok modlu model, performans ve maliyet arasında denge sağlar."
|
||
},
|
||
"internvl3-1b": {
|
||
"description": "InternVL3 1B, hafif çok modlu model, kaynak kısıtlı ortamlar için uygundur."
|
||
},
|
||
"internvl3-38b": {
|
||
"description": "InternVL3 38B, büyük ölçekli çok modlu açık kaynak modeli, yüksek hassasiyetli görsel-metin anlama görevleri için uygundur."
|
||
},
|
||
"internvl3-latest": {
|
||
"description": "En son yayımladığımız çok modlu büyük model, daha güçlü metin-görüntü anlama yeteneği ve uzun süreli görüntü anlama yeteneğine sahiptir; performansı en iyi kapalı kaynak modellerle karşılaştırılabilir. Varsayılan olarak en son yayımladığımız InternVL serisi modele işaret eder, şu anda internvl3-78b'ye işaret ediyor."
|
||
},
|
||
"irag-1.0": {
|
||
"description": "ERNIE iRAG, görsel arama destekli üretim modeli, görselle arama, görsel-metin arama ve içerik üretimini destekler."
|
||
},
|
||
"jamba-large": {
|
||
"description": "En güçlü ve en gelişmiş modelimiz, kurumsal düzeyde karmaşık görevleri işlemek için tasarlanmıştır ve olağanüstü performans sunar."
|
||
},
|
||
"jamba-mini": {
|
||
"description": "Sınıfındaki en verimli model, hız ve kaliteyi dengeler, daha küçük bir boyuta sahiptir."
|
||
},
|
||
"jina-deepsearch-v1": {
|
||
"description": "Derin arama, web araması, okuma ve akıl yürütmeyi birleştirerek kapsamlı bir araştırma yapar. Bunu, araştırma görevlerinizi kabul eden bir ajan olarak düşünebilirsiniz - geniş bir arama yapar ve birden fazla yineleme ile cevap verir. Bu süreç, sürekli araştırma, akıl yürütme ve sorunları çeşitli açılardan çözmeyi içerir. Bu, doğrudan önceden eğitilmiş verilerden cevaplar üreten standart büyük modellerle ve tek seferlik yüzey aramasına dayanan geleneksel RAG sistemleriyle temelde farklıdır."
|
||
},
|
||
"kimi-k2": {
|
||
"description": "Kimi-K2, Moonshot AI tarafından geliştirilen, güçlü kodlama ve ajan yeteneklerine sahip MoE mimarili temel modeldir; toplam 1 trilyon parametre, 32 milyar aktif parametreye sahiptir. Genel bilgi çıkarımı, programlama, matematik ve ajan gibi ana kategorilerdeki kıyaslama testlerinde K2 modeli diğer önde gelen açık kaynak modelleri geride bırakır."
|
||
},
|
||
"kimi-k2-0711-preview": {
|
||
"description": "kimi-k2, son derece güçlü kodlama ve Agent yeteneklerine sahip MoE mimarili temel bir modeldir. Toplam parametre sayısı 1T, aktif parametre sayısı 32B'dir. Genel bilgi çıkarımı, programlama, matematik, Agent gibi ana kategorilerde yapılan kıyaslama testlerinde K2 modeli, diğer önde gelen açık kaynak modelleri geride bırakmıştır."
|
||
},
|
||
"kimi-k2-0905-preview": {
|
||
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
||
},
|
||
"kimi-k2-instruct": {
|
||
"description": "Kimi K2 Instruct, Kimi'nin resmi çıkarım modeli, uzun bağlam, kodlama, soru-cevap gibi çoklu senaryoları destekler."
|
||
},
|
||
"kimi-k2-thinking": {
|
||
"description": "kimi-k2-thinking modeli, Moonshot tarafından sunulan genel amaçlı bir düşünme modelidir. Gelişmiş akıl yürütme yeteneklerine sahiptir ve çok adımlı araç kullanımıyla çeşitli zorlukların üstesinden gelmeye yardımcı olur."
|
||
},
|
||
"kimi-k2-thinking-turbo": {
|
||
"description": "K2 Uzun Düşünme Modeli’nin yüksek hızlı sürümüdür; 256k bağlamı destekler, derin akıl yürütmede uzmandır ve saniyede 60-100 token üretim hızına ulaşır."
|
||
},
|
||
"kimi-k2-turbo-preview": {
|
||
"description": "kimi-k2, son derece güçlü kod yazma ve Agent yeteneklerine sahip MoE mimarisine dayanan bir temel modeldir; toplam parametre sayısı 1T, aktif (etkin) parametre sayısı 32B. Genel bilgi çıkarımı, programlama, matematik ve Agent gibi ana kategorilerde yapılan karşılaştırmalı performans testlerinde K2 modelinin performansı diğer önde gelen açık kaynak modellerinin üzerindedir."
|
||
},
|
||
"kimi-k2:1t": {
|
||
"description": "Kimi K2, Ay'ın Karanlık Yüzü AI tarafından geliştirilen, toplamda 1 trilyon parametreye ve her ileri geçişte 32 milyar aktif parametreye sahip büyük ölçekli bir Karışık Uzman (MoE) dil modelidir. Gelişmiş araç kullanımı, muhakeme ve kod sentezi dahil olmak üzere ajan yetenekleri için optimize edilmiştir."
|
||
},
|
||
"kimi-latest": {
|
||
"description": "Kimi akıllı asistan ürünü, en son Kimi büyük modelini kullanır ve henüz kararlı olmayan özellikler içerebilir. Görüntü anlayışını desteklerken, isteğin bağlam uzunluğuna göre 8k/32k/128k modelini faturalama modeli olarak otomatik olarak seçecektir."
|
||
},
|
||
"kuaishou/kat-coder-pro-v1": {
|
||
"description": "KAT-Coder-Pro-V1 (sınırlı süreli ücretsiz), kod anlama ve otomatik programlama üzerine odaklanır; verimli programlama ajan görevleri için uygundur."
|
||
},
|
||
"learnlm-1.5-pro-experimental": {
|
||
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
|
||
},
|
||
"learnlm-2.0-flash-experimental": {
|
||
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir; öğretim ve öğrenim senaryolarında sistem talimatlarını takip edebilir, uzman bir mentor gibi davranabilir."
|
||
},
|
||
"lite": {
|
||
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
|
||
},
|
||
"llama-3.1-70b-versatile": {
|
||
"description": "Llama 3.1 70B, daha güçlü AI akıl yürütme yeteneği sunar, karmaşık uygulamalar için uygundur ve yüksek verimlilik ve doğruluk sağlamak için çok sayıda hesaplama işlemini destekler."
|
||
},
|
||
"llama-3.1-8b-instant": {
|
||
"description": "Llama 3.1 8B, hızlı metin üretim yeteneği sunan yüksek performanslı bir modeldir ve büyük ölçekli verimlilik ve maliyet etkinliği gerektiren uygulama senaryoları için son derece uygundur."
|
||
},
|
||
"llama-3.1-instruct": {
|
||
"description": "Llama 3.1 talimat ince ayarlı modeli, diyalog senaryoları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında birçok mevcut açık kaynaklı sohbet modelini geride bırakmaktadır."
|
||
},
|
||
"llama-3.2-11b-vision-instruct": {
|
||
"description": "Yüksek çözünürlüklü görüntülerde mükemmel görüntü akıl yürütme yeteneği, görsel anlama uygulamaları için uygundur."
|
||
},
|
||
"llama-3.2-11b-vision-preview": {
|
||
"description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
|
||
},
|
||
"llama-3.2-90b-vision-instruct": {
|
||
"description": "Görsel anlayış ajan uygulamaları için ileri düzey görüntü akıl yürütme yeteneği."
|
||
},
|
||
"llama-3.2-90b-vision-preview": {
|
||
"description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
|
||
},
|
||
"llama-3.2-vision-instruct": {
|
||
"description": "Llama 3.2-Vision komut ince ayarlı modeli, görsel tanıma, görüntü çıkarımı, görüntü açıklama ve görüntülerle ilgili genel soruları yanıtlamak için optimize edilmiştir."
|
||
},
|
||
"llama-3.3-70b": {
|
||
"description": "Llama 3.3 70B: Orta-büyük ölçekli Llama modeli, akıl yürütme yeteneği ile yüksek işlem hacmini dengeler."
|
||
},
|
||
"llama-3.3-70b-versatile": {
|
||
"description": "Meta Llama 3.3 çok dilli büyük dil modeli (LLM), 70B (metin girişi/metin çıkışı) içindeki önceden eğitilmiş ve talimat ayarlanmış bir üretim modelidir. Llama 3.3 talimat ayarlı saf metin modeli, çok dilli konuşma kullanım durumları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık kaynak ve kapalı sohbet modelinden daha üstündür."
|
||
},
|
||
"llama-3.3-instruct": {
|
||
"description": "Llama 3.3 komut ince ayarlı modeli, diyalog senaryoları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında birçok mevcut açık kaynaklı sohbet modelini geride bırakmaktadır."
|
||
},
|
||
"llama3-70b-8192": {
|
||
"description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır."
|
||
},
|
||
"llama3-8b-8192": {
|
||
"description": "Meta Llama 3 8B, yüksek kaliteli akıl yürütme performansı sunar ve çok çeşitli uygulama ihtiyaçları için uygundur."
|
||
},
|
||
"llama3-groq-70b-8192-tool-use-preview": {
|
||
"description": "Llama 3 Groq 70B Tool Use, güçlü araç çağırma yetenekleri sunar ve karmaşık görevlerin verimli bir şekilde işlenmesini destekler."
|
||
},
|
||
"llama3-groq-8b-8192-tool-use-preview": {
|
||
"description": "Llama 3 Groq 8B Tool Use, verimli araç kullanımı için optimize edilmiş bir modeldir ve hızlı paralel hesaplamayı destekler."
|
||
},
|
||
"llama3.1": {
|
||
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir."
|
||
},
|
||
"llama3.1-8b": {
|
||
"description": "Llama 3.1 8B: Küçük boyutlu, düşük gecikmeli Llama varyantı; hafif çevrimiçi akıl yürütme ve etkileşimli kullanım senaryoları için uygundur."
|
||
},
|
||
"llama3.1:405b": {
|
||
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir."
|
||
},
|
||
"llama3.1:70b": {
|
||
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir."
|
||
},
|
||
"llava": {
|
||
"description": "LLaVA, görsel kodlayıcı ve Vicuna'yı birleştiren çok modlu bir modeldir, güçlü görsel ve dil anlama yetenekleri sunar."
|
||
},
|
||
"llava-v1.5-7b-4096-preview": {
|
||
"description": "LLaVA 1.5 7B, görsel işleme yeteneklerini birleştirir ve görsel bilgi girişi ile karmaşık çıktılar üretir."
|
||
},
|
||
"llava:13b": {
|
||
"description": "LLaVA, görsel kodlayıcı ve Vicuna'yı birleştiren çok modlu bir modeldir, güçlü görsel ve dil anlama yetenekleri sunar."
|
||
},
|
||
"llava:34b": {
|
||
"description": "LLaVA, görsel kodlayıcı ve Vicuna'yı birleştiren çok modlu bir modeldir, güçlü görsel ve dil anlama yetenekleri sunar."
|
||
},
|
||
"magistral-medium-latest": {
|
||
"description": "Magistral Medium 1.2, Mistral AI tarafından Eylül 2025'te yayınlanan, görsel destekli ileri seviye bir çıkarım modelidir."
|
||
},
|
||
"magistral-small-2509": {
|
||
"description": "Magistral Small 1.2, Mistral AI tarafından Eylül 2025'te yayınlanan, görsel destekli açık kaynaklı küçük ölçekli bir çıkarım modelidir."
|
||
},
|
||
"mathstral": {
|
||
"description": "MathΣtral, bilimsel araştırma ve matematik akıl yürütme için tasarlanmış, etkili hesaplama yetenekleri ve sonuç açıklamaları sunar."
|
||
},
|
||
"max-32k": {
|
||
"description": "Spark Max 32K, büyük bağlam işleme yeteneği ile donatılmıştır ve daha güçlü bağlam anlama ve mantıksal çıkarım yetenekleri sunmaktadır. 32K token'lık metin girişi desteklemekte olup, uzun belgelerin okunması, özel bilgi sorgulama gibi senaryolar için uygundur."
|
||
},
|
||
"megrez-3b-instruct": {
|
||
"description": "Megrez 3B Instruct, Wuwen Xinqiong tarafından geliştirilen düşük parametreli, yüksek verimli bir modeldir."
|
||
},
|
||
"meituan/longcat-flash-chat": {
|
||
"description": "Meituan tarafından açık kaynak olarak sunulan, diyalog etkileşimi ve yapay zeka görevleri için optimize edilmiş düşünce içermeyen temel model; araç kullanımı ve karmaşık çok turlu etkileşim senaryolarında üstün performans gösterir."
|
||
},
|
||
"meta-llama-3-70b-instruct": {
|
||
"description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model."
|
||
},
|
||
"meta-llama-3-8b-instruct": {
|
||
"description": "Diyalog ve metin üretim görevleri için optimize edilmiş çok yönlü bir 8 milyar parametreli model."
|
||
},
|
||
"meta-llama-3.1-405b-instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
|
||
},
|
||
"meta-llama-3.1-70b-instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
|
||
},
|
||
"meta-llama-3.1-8b-instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
|
||
},
|
||
"meta-llama/Llama-2-13b-chat-hf": {
|
||
"description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar."
|
||
},
|
||
"meta-llama/Llama-2-70b-hf": {
|
||
"description": "LLaMA-2, mükemmel dil işleme yeteneği ve üstün etkileşim deneyimi sunar."
|
||
},
|
||
"meta-llama/Llama-3-70b-chat-hf": {
|
||
"description": "LLaMA-3 Chat (70B), karmaşık diyalog ihtiyaçlarını destekleyen güçlü bir sohbet modelidir."
|
||
},
|
||
"meta-llama/Llama-3-8b-chat-hf": {
|
||
"description": "LLaMA-3 Chat (8B), çok dilli desteği ile zengin alan bilgilerini kapsar."
|
||
},
|
||
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
|
||
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
||
},
|
||
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
|
||
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
||
},
|
||
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
|
||
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
||
},
|
||
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
|
||
"description": "Meta Llama 3.3 çok dilli büyük dil modeli (LLM), 70B (metin girişi/metin çıkışı) içinde önceden eğitilmiş ve talimat ayarlı bir üretim modelidir. Llama 3.3 talimat ayarlı saf metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve yaygın endüstri standartlarında birçok mevcut açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir."
|
||
},
|
||
"meta-llama/Llama-Vision-Free": {
|
||
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
||
},
|
||
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
||
"description": "Llama 3 70B Instruct Lite, yüksek performans ve düşük gecikme gerektiren ortamlara uygundur."
|
||
},
|
||
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
|
||
"description": "Llama 3 70B Instruct Turbo, en zorlu hesaplama görevleri için mükemmel dil anlama ve üretim yetenekleri sunar."
|
||
},
|
||
"meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
|
||
"description": "Llama 3 8B Instruct Lite, kaynak kısıtlı ortamlara uygun, mükemmel denge performansı sunar."
|
||
},
|
||
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
|
||
"description": "Llama 3 8B Instruct Turbo, geniş uygulama alanlarını destekleyen yüksek performanslı bir büyük dil modelidir."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-405B-Instruct": {
|
||
"description": "LLaMA 3.1 405B, ön eğitim ve talimat ayarlaması için güçlü bir modeldir."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
||
"description": "405B Llama 3.1 Turbo modeli, büyük veri işleme için devasa bağlam desteği sunar ve büyük ölçekli AI uygulamalarında öne çıkar."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-70B": {
|
||
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında uygulanabilir."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
|
||
"description": "Llama 3.1 70B modeli, yüksek yük uygulamaları için ince ayar yapılmış, FP8'e kuantize edilerek daha verimli hesaplama gücü ve doğruluk sağlar, karmaşık senaryolarda mükemmel performans sunar."
|
||
},
|
||
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
|
||
"description": "Llama 3.1 8B modeli, FP8 kuantizasyonu ile 131,072'ye kadar bağlam belirteci destekler, karmaşık görevler için mükemmel bir açık kaynak modelidir ve birçok endüstri standardını aşar."
|
||
},
|
||
"meta-llama/llama-3-70b-instruct": {
|
||
"description": "Llama 3 70B Instruct, yüksek kaliteli diyalog senaryoları için optimize edilmiştir ve çeşitli insan değerlendirmelerinde mükemmel performans göstermektedir."
|
||
},
|
||
"meta-llama/llama-3-8b-instruct": {
|
||
"description": "Llama 3 8B Instruct, yüksek kaliteli diyalog senaryoları için optimize edilmiştir ve birçok kapalı kaynak modelden daha iyi performans göstermektedir."
|
||
},
|
||
"meta-llama/llama-3.1-70b-instruct": {
|
||
"description": "Llama 3.1 70B Instruct, yüksek kaliteli diyalog için tasarlanmış olup, insan değerlendirmelerinde öne çıkmakta ve özellikle yüksek etkileşimli senaryolar için uygundur."
|
||
},
|
||
"meta-llama/llama-3.1-8b-instruct": {
|
||
"description": "Llama 3.1 8B Instruct, Meta tarafından sunulan en son versiyon olup, yüksek kaliteli diyalog senaryoları için optimize edilmiştir ve birçok önde gelen kapalı kaynak modelden daha iyi performans göstermektedir."
|
||
},
|
||
"meta-llama/llama-3.1-8b-instruct:free": {
|
||
"description": "LLaMA 3.1, çok dilli destek sunar ve sektördeki en önde gelen üretim modellerinden biridir."
|
||
},
|
||
"meta-llama/llama-3.2-11b-vision-instruct": {
|
||
"description": "LLaMA 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergileyerek dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapatmaktadır."
|
||
},
|
||
"meta-llama/llama-3.2-3b-instruct": {
|
||
"description": "meta-llama/llama-3.2-3b-instruct"
|
||
},
|
||
"meta-llama/llama-3.2-90b-vision-instruct": {
|
||
"description": "LLaMA 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergileyerek dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapatmaktadır."
|
||
},
|
||
"meta-llama/llama-3.3-70b-instruct": {
|
||
"description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) ile faydalılığını ve güvenliğini artırmıştır. Talimat ayarlı versiyonu, çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 Aralık'tır."
|
||
},
|
||
"meta-llama/llama-3.3-70b-instruct:free": {
|
||
"description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) ile faydalılığını ve güvenliğini artırmıştır. Talimat ayarlı versiyonu, çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 Aralık'tır."
|
||
},
|
||
"meta.llama3-1-405b-instruct-v1:0": {
|
||
"description": "Meta Llama 3.1 405B Instruct, Llama 3.1 Instruct modelinin en büyük ve en güçlü versiyonudur. Bu, son derece gelişmiş bir diyalog akıl yürütme ve veri sentezleme modelidir ve belirli alanlarda uzmanlaşmış sürekli ön eğitim veya ince ayar için bir temel olarak da kullanılabilir. Llama 3.1, çok dilli büyük dil modelleri (LLM'ler) sunar ve 8B, 70B ve 405B boyutlarında önceden eğitilmiş, talimat ayarlı üretim modellerinden oluşur (metin girişi/çıkışı). Llama 3.1'in talimat ayarlı metin modelleri (8B, 70B, 405B), çok dilli diyalog kullanım durumları için optimize edilmiştir ve yaygın endüstri benchmark testlerinde birçok mevcut açık kaynaklı sohbet modelini geride bırakmıştır. Llama 3.1, çok dilli ticari ve araştırma amaçları için tasarlanmıştır. Talimat ayarlı metin modelleri, asistan benzeri sohbetler için uygundur, önceden eğitilmiş modeller ise çeşitli doğal dil üretim görevlerine uyum sağlayabilir. Llama 3.1 modeli, diğer modellerin çıktısını iyileştirmek için de kullanılabilir, bu da veri sentezleme ve rafine etme işlemlerini içerir. Llama 3.1, optimize edilmiş bir transformer mimarisi kullanarak oluşturulmuş bir otoregresif dil modelidir. Ayarlanmış versiyon, insan yardımseverliği ve güvenlik tercihleri ile uyumlu hale getirmek için denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) kullanır."
|
||
},
|
||
"meta.llama3-1-70b-instruct-v1:0": {
|
||
"description": "Meta Llama 3.1 70B Instruct'un güncellenmiş versiyonu, genişletilmiş 128K bağlam uzunluğu, çok dilli yetenek ve geliştirilmiş akıl yürütme yetenekleri içerir. Llama 3.1 tarafından sağlanan çok dilli büyük dil modelleri (LLM'ler), 8B, 70B ve 405B boyutlarında önceden eğitilmiş, talimat ayarlı üretim modelleridir (metin girişi/çıkışı). Llama 3.1 talimat ayarlı metin modelleri (8B, 70B, 405B), çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynaklı sohbet modelini yaygın endüstri benchmark testlerinde geçmiştir. Llama 3.1, çok dilli ticari ve araştırma amaçları için kullanılmak üzere tasarlanmıştır. Talimat ayarlı metin modelleri, asistan benzeri sohbetler için uygundur, önceden eğitilmiş modeller ise çeşitli doğal dil üretim görevlerine uyum sağlayabilir. Llama 3.1 modeli, diğer modellerin çıktısını iyileştirmek için de kullanılabilir, bu da sentetik veri üretimi ve rafine etme işlemlerini içerir. Llama 3.1, optimize edilmiş bir dönüştürücü mimarisi kullanarak oluşturulmuş bir otoregresif dil modelidir. Ayarlanmış versiyonlar, insan yardımseverliği ve güvenlik tercihlerini karşılamak için denetimli ince ayar (SFT) ve insan geri bildirimli pekiştirmeli öğrenme (RLHF) kullanır."
|
||
},
|
||
"meta.llama3-1-8b-instruct-v1:0": {
|
||
"description": "Meta Llama 3.1 8B Instruct'un güncellenmiş versiyonu, genişletilmiş 128K bağlam uzunluğu, çok dilli yetenek ve geliştirilmiş akıl yürütme yetenekleri içerir. Llama 3.1 tarafından sağlanan çok dilli büyük dil modelleri (LLM'ler), 8B, 70B ve 405B boyutlarında önceden eğitilmiş, talimat ayarlı üretim modelleridir (metin girişi/çıkışı). Llama 3.1 talimat ayarlı metin modelleri (8B, 70B, 405B), çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynaklı sohbet modelini yaygın endüstri benchmark testlerinde geçmiştir. Llama 3.1, çok dilli ticari ve araştırma amaçları için kullanılmak üzere tasarlanmıştır. Talimat ayarlı metin modelleri, asistan benzeri sohbetler için uygundur, önceden eğitilmiş modeller ise çeşitli doğal dil üretim görevlerine uyum sağlayabilir. Llama 3.1 modeli, diğer modellerin çıktısını iyileştirmek için de kullanılabilir, bu da sentetik veri üretimi ve rafine etme işlemlerini içerir. Llama 3.1, optimize edilmiş bir dönüştürücü mimarisi kullanarak oluşturulmuş bir otoregresif dil modelidir. Ayarlanmış versiyonlar, insan yardımseverliği ve güvenlik tercihlerini karşılamak için denetimli ince ayar (SFT) ve insan geri bildirimli pekiştirmeli öğrenme (RLHF) kullanır."
|
||
},
|
||
"meta.llama3-70b-instruct-v1:0": {
|
||
"description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, içerik oluşturma, diyalog AI, dil anlama, araştırma ve işletme uygulamaları için son derece uygundur."
|
||
},
|
||
"meta.llama3-8b-instruct-v1:0": {
|
||
"description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur."
|
||
},
|
||
"meta/Llama-3.2-11B-Vision-Instruct": {
|
||
"description": "Yüksek çözünürlüklü görüntülerde üstün görsel çıkarım yeteneği sunar, görsel anlama uygulamaları için idealdir."
|
||
},
|
||
"meta/Llama-3.2-90B-Vision-Instruct": {
|
||
"description": "Görsel anlama ajan uygulamaları için gelişmiş görüntü çıkarım yetenekleri sağlar."
|
||
},
|
||
"meta/Llama-3.3-70B-Instruct": {
|
||
"description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modeli olup, 405 milyar parametreli modellere kıyasla çok düşük maliyetle yüksek performans sunar. Transformer mimarisi temel alınmış, denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş pekiştirmeli öğrenme (RLHF) ile faydalılık ve güvenlik artırılmıştır. Çok dilli diyaloglar için optimize edilmiş talimat ayarlı versiyonu, birçok endüstri kıyaslamasında açık ve kapalı sohbet modellerinden üstün performans gösterir. Bilgi kesim tarihi 2023 Aralık'tır."
|
||
},
|
||
"meta/Meta-Llama-3-70B-Instruct": {
|
||
"description": "Çıkarım, kodlama ve geniş dil uygulamalarında üstün performans gösteren güçlü 70 milyar parametreli model."
|
||
},
|
||
"meta/Meta-Llama-3-8B-Instruct": {
|
||
"description": "Diyalog ve metin üretimi görevleri için optimize edilmiş çok yönlü 8 milyar parametreli model."
|
||
},
|
||
"meta/Meta-Llama-3.1-405B-Instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog senaryoları için optimize edilmiştir ve birçok açık ve kapalı sohbet modeli arasında yaygın endüstri kıyaslamalarında üstün performans sergiler."
|
||
},
|
||
"meta/Meta-Llama-3.1-70B-Instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog senaryoları için optimize edilmiştir ve birçok açık ve kapalı sohbet modeli arasında yaygın endüstri kıyaslamalarında üstün performans sergiler."
|
||
},
|
||
"meta/Meta-Llama-3.1-8B-Instruct": {
|
||
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog senaryoları için optimize edilmiştir ve birçok açık ve kapalı sohbet modeli arasında yaygın endüstri kıyaslamalarında üstün performans sergiler."
|
||
},
|
||
"meta/llama-3-70b": {
|
||
"description": "Meta tarafından talimat takibi amaçlı özenle ayarlanmış 70 milyar parametre açık kaynak modeli. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
||
},
|
||
"meta/llama-3-8b": {
|
||
"description": "Meta tarafından talimat takibi amaçlı özenle ayarlanmış 8 milyar parametre açık kaynak modeli. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
||
},
|
||
"meta/llama-3.1-405b-instruct": {
|
||
"description": "Gelişmiş LLM, sentetik veri üretimi, bilgi damıtma ve akıl yürütmeyi destekler, sohbet botları, programlama ve belirli alan görevleri için uygundur."
|
||
},
|
||
"meta/llama-3.1-70b": {
|
||
"description": "Meta Llama 3 70B Instruct'in güncellenmiş versiyonu olup, genişletilmiş 128K bağlam uzunluğu, çok dillilik ve geliştirilmiş çıkarım yetenekleri içerir."
|
||
},
|
||
"meta/llama-3.1-70b-instruct": {
|
||
"description": "Karmaşık diyalogları güçlendiren, mükemmel bağlam anlama, akıl yürütme yeteneği ve metin üretimi yeteneğine sahip."
|
||
},
|
||
"meta/llama-3.1-8b": {
|
||
"description": "Llama 3.1 8B, 128K bağlam penceresini destekler ve gerçek zamanlı diyalog arayüzleri ile veri analizi için ideal bir seçimdir; daha büyük modellere kıyasla önemli maliyet tasarrufu sağlar. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
|
||
},
|
||
"meta/llama-3.1-8b-instruct": {
|
||
"description": "En son teknolojiye sahip model, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
||
},
|
||
"meta/llama-3.2-11b": {
|
||
"description": "Talimat ayarlı görüntü çıkarım üretim modeli (metin + görüntü girişi / metin çıktısı) olup, görsel tanıma, görüntü çıkarımı, başlık oluşturma ve görüntü ile ilgili genel soruları yanıtlamada optimize edilmiştir."
|
||
},
|
||
"meta/llama-3.2-11b-vision-instruct": {
|
||
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
||
},
|
||
"meta/llama-3.2-1b": {
|
||
"description": "Sadece metin modeli olup, çok dilli yerel bilgi arama, özetleme ve yeniden yazma gibi cihaz üzeri kullanım durumlarını destekler."
|
||
},
|
||
"meta/llama-3.2-1b-instruct": {
|
||
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
||
},
|
||
"meta/llama-3.2-3b": {
|
||
"description": "Sadece metin modeli olup, çok dilli yerel bilgi arama, özetleme ve yeniden yazma gibi cihaz üzeri kullanım durumlarını desteklemek için özenle ayarlanmıştır."
|
||
},
|
||
"meta/llama-3.2-3b-instruct": {
|
||
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
||
},
|
||
"meta/llama-3.2-90b": {
|
||
"description": "Talimat ayarlı görüntü çıkarım üretim modeli (metin + görüntü girişi / metin çıktısı) olup, görsel tanıma, görüntü çıkarımı, başlık oluşturma ve görüntü ile ilgili genel soruları yanıtlamada optimize edilmiştir."
|
||
},
|
||
"meta/llama-3.2-90b-vision-instruct": {
|
||
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
||
},
|
||
"meta/llama-3.3-70b": {
|
||
"description": "Performans ve verimliliğin mükemmel birleşimi. Model, yüksek performanslı diyalog yapay zekasını destekler, içerik oluşturma, kurumsal uygulamalar ve araştırma için tasarlanmıştır ve metin özetleme, sınıflandırma, duygu analizi ve kod üretimi dahil gelişmiş dil anlama yetenekleri sunar."
|
||
},
|
||
"meta/llama-3.3-70b-instruct": {
|
||
"description": "Akıllı LLM, akıl yürütme, matematik, genel bilgi ve fonksiyon çağrılarında uzmandır."
|
||
},
|
||
"meta/llama-4-maverick": {
|
||
"description": "Llama 4 model ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu yapay zeka modelleridir. Bu modeller, karma uzman mimarisi kullanarak metin ve görüntü anlama alanında sektör lideri performans sunar. Llama 4 Maverick, 17 milyar parametreli ve 128 uzmanlı bir modeldir. DeepInfra tarafından hizmet verilmektedir."
|
||
},
|
||
"meta/llama-4-scout": {
|
||
"description": "Llama 4 model ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu yapay zeka modelleridir. Bu modeller, karma uzman mimarisi kullanarak metin ve görüntü anlama alanında sektör lideri performans sunar. Llama 4 Scout, 17 milyar parametreli ve 16 uzmanlı bir modeldir. DeepInfra tarafından hizmet verilmektedir."
|
||
},
|
||
"microsoft/Phi-3-medium-128k-instruct": {
|
||
"description": "Aynı Phi-3-medium modeli, ancak daha büyük bağlam boyutuna sahip olup RAG veya az sayıda istem için uygundur."
|
||
},
|
||
"microsoft/Phi-3-medium-4k-instruct": {
|
||
"description": "140 milyar parametreli model, Phi-3-mini'den daha yüksek kaliteye sahip olup, yüksek kaliteli ve çıkarım yoğun veriye odaklanır."
|
||
},
|
||
"microsoft/Phi-3-mini-128k-instruct": {
|
||
"description": "Aynı Phi-3-mini modeli, ancak daha büyük bağlam boyutuna sahip olup RAG veya az sayıda istem için uygundur."
|
||
},
|
||
"microsoft/Phi-3-mini-4k-instruct": {
|
||
"description": "Phi-3 ailesinin en küçük üyesi olup, kalite ve düşük gecikme için optimize edilmiştir."
|
||
},
|
||
"microsoft/Phi-3-small-128k-instruct": {
|
||
"description": "Aynı Phi-3-small modeli, ancak daha büyük bağlam boyutuna sahip olup RAG veya az sayıda istem için uygundur."
|
||
},
|
||
"microsoft/Phi-3-small-8k-instruct": {
|
||
"description": "70 milyar parametreli model, Phi-3-mini'den daha yüksek kaliteye sahip olup, yüksek kaliteli ve çıkarım yoğun veriye odaklanır."
|
||
},
|
||
"microsoft/Phi-3.5-mini-instruct": {
|
||
"description": "Phi-3-mini modelinin güncellenmiş versiyonu."
|
||
},
|
||
"microsoft/Phi-3.5-vision-instruct": {
|
||
"description": "Phi-3-vision modelinin güncellenmiş versiyonu."
|
||
},
|
||
"microsoft/WizardLM-2-8x22B": {
|
||
"description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
||
},
|
||
"microsoft/wizardlm-2-8x22b": {
|
||
"description": "WizardLM-2 8x22B, Microsoft'un en gelişmiş AI Wizard modelidir ve son derece rekabetçi bir performans sergiler."
|
||
},
|
||
"minicpm-v": {
|
||
"description": "MiniCPM-V, OpenBMB tarafından sunulan yeni nesil çok modlu büyük bir modeldir; olağanüstü OCR tanıma ve çok modlu anlama yeteneklerine sahiptir ve geniş bir uygulama yelpazesini destekler."
|
||
},
|
||
"minimax-m2": {
|
||
"description": "MiniMax M2, kodlama ve yardımcı iş akışları için özel olarak geliştirilmiş, verimli bir büyük dil modelidir."
|
||
},
|
||
"minimax/minimax-m2": {
|
||
"description": "MiniMax-M2, kodlama ve ajan görevlerinde üstün performans gösteren, yüksek maliyet-performans oranına sahip bir modeldir; çeşitli mühendislik senaryoları için uygundur."
|
||
},
|
||
"minimaxai/minimax-m2": {
|
||
"description": "MiniMax-M2, 230 milyar toplam parametreye ve 10 milyar etkin parametreye sahip kompakt, hızlı ve ekonomik bir Uzman Karışımı (MoE) modelidir. Kodlama ve yapay zekâ görevlerinde üstün performans sunmak üzere tasarlanmış olup, güçlü bir genel zekâ kapasitesini de korur. Çoklu dosya düzenleme, kodla-çalıştır-düzelt döngüsü, test doğrulama ve düzeltme ile karmaşık uzun zincirli araç zincirlerinde üstün performans göstererek geliştirici iş akışları için ideal bir seçimdir."
|
||
},
|
||
"ministral-3b-latest": {
|
||
"description": "Ministral 3B, Mistral'ın dünya çapında en üst düzey kenar modelidir."
|
||
},
|
||
"ministral-8b-latest": {
|
||
"description": "Ministral 8B, Mistral'ın fiyat-performans oranı oldukça yüksek kenar modelidir."
|
||
},
|
||
"mistral": {
|
||
"description": "Mistral, Mistral AI tarafından sunulan 7B modelidir, değişken dil işleme ihtiyaçları için uygundur."
|
||
},
|
||
"mistral-ai/Mistral-Large-2411": {
|
||
"description": "Mistral'in amiral gemisi modeli olup, büyük ölçekli çıkarım yetenekleri veya yüksek derecede uzmanlaşmış karmaşık görevler (metin sentezi, kod üretimi, RAG veya ajanlar) için uygundur."
|
||
},
|
||
"mistral-ai/Mistral-Nemo": {
|
||
"description": "Mistral Nemo, boyut kategorisinde en gelişmiş çıkarım, dünya bilgisi ve kodlama yeteneklerine sahip ileri düzey bir dil modelidir (LLM)."
|
||
},
|
||
"mistral-ai/mistral-small-2503": {
|
||
"description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren dil tabanlı görevler için uygundur."
|
||
},
|
||
"mistral-large": {
|
||
"description": "Mixtral Large, Mistral'ın amiral gemisi modelidir, kod üretimi, matematik ve akıl yürütme yeteneklerini birleştirir, 128k bağlam penceresini destekler."
|
||
},
|
||
"mistral-large-instruct": {
|
||
"description": "Mistral-Large-Instruct-2407, 123 milyar parametreye sahip, gelişmiş bir yoğun büyük dil modelidir (LLM) ve en son akıl yürütme, bilgi ve kodlama yeteneklerine sahiptir."
|
||
},
|
||
"mistral-large-latest": {
|
||
"description": "Mistral Large, çok dilli görevler, karmaşık akıl yürütme ve kod üretimi için ideal bir seçimdir ve yüksek uç uygulamalar için tasarlanmıştır."
|
||
},
|
||
"mistral-medium-latest": {
|
||
"description": "Mistral Medium 3, 8 kat daha düşük maliyetle en ileri düzey performansı sunar ve kurumsal dağıtımları temelden basitleştirir."
|
||
},
|
||
"mistral-nemo": {
|
||
"description": "Mistral Nemo, Mistral AI ve NVIDIA işbirliği ile sunulan, yüksek verimli 12B modelidir."
|
||
},
|
||
"mistral-nemo-instruct": {
|
||
"description": "Mistral-Nemo-Instruct-2407 büyük dil modeli (LLM), Mistral-Nemo-Base-2407'nin komut ince ayarlı versiyonudur."
|
||
},
|
||
"mistral-small": {
|
||
"description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her dil tabanlı görevde kullanılabilir."
|
||
},
|
||
"mistral-small-latest": {
|
||
"description": "Mistral Small, çeviri, özetleme ve duygu analizi gibi kullanım durumları için maliyet etkin, hızlı ve güvenilir bir seçenektir."
|
||
},
|
||
"mistral/codestral": {
|
||
"description": "Mistral Codestral 25.01, düşük gecikme ve yüksek frekanslı kullanım durumları için optimize edilmiş en gelişmiş kodlama modelidir. 80'den fazla programlama dilinde uzman olup, orta doldurma (FIM), kod düzeltme ve test üretimi gibi görevlerde üstün performans gösterir."
|
||
},
|
||
"mistral/codestral-embed": {
|
||
"description": "Kod veritabanları ve depolarına gömülebilen, kodlama asistanlarını destekleyen kod gömme modeli."
|
||
},
|
||
"mistral/devstral-small": {
|
||
"description": "Devstral, yazılım mühendisliği görevleri için bir ajan büyük dil modeli olup, yazılım mühendisliği ajanları için mükemmel bir seçimdir."
|
||
},
|
||
"mistral/magistral-medium": {
|
||
"description": "Derin anlayışa dayanan karmaşık düşünce, takip edilebilir ve doğrulanabilir şeffaf çıkarım sunar. Model, görev ortasında dil değiştirse bile birçok dilde yüksek sadakatli çıkarım sağlar."
|
||
},
|
||
"mistral/magistral-small": {
|
||
"description": "Derin anlayışa dayanan karmaşık düşünce, takip edilebilir ve doğrulanabilir şeffaf çıkarım sunar. Model, görev ortasında dil değiştirse bile birçok dilde yüksek sadakatli çıkarım sağlar."
|
||
},
|
||
"mistral/ministral-3b": {
|
||
"description": "Akıllı asistanlar ve yerel analiz gibi cihaz üzeri görevler için kompakt, verimli model olup, düşük gecikmeli performans sunar."
|
||
},
|
||
"mistral/ministral-8b": {
|
||
"description": "Daha güçlü, daha hızlı ve bellek açısından verimli çıkarım sunan model olup, karmaşık iş akışları ve zorlu uç uygulamalar için idealdir."
|
||
},
|
||
"mistral/mistral-embed": {
|
||
"description": "Anlamsal arama, benzerlik, kümeleme ve RAG iş akışları için genel amaçlı metin gömme modeli."
|
||
},
|
||
"mistral/mistral-large": {
|
||
"description": "Mistral Large, büyük çıkarım yetenekleri veya yüksek uzmanlık gerektiren karmaşık görevler için ideal seçimdir—örneğin sentez metin üretimi, kod üretimi, RAG veya ajanlık."
|
||
},
|
||
"mistral/mistral-small": {
|
||
"description": "Mistral Small, sınıflandırma, müşteri desteği veya metin üretimi gibi toplu yapılabilen basit görevler için ideal seçimdir. Uygun fiyat noktasında mükemmel performans sunar."
|
||
},
|
||
"mistral/mixtral-8x22b-instruct": {
|
||
"description": "8x22b Instruct modeli. 8x22b, Mistral tarafından hizmet verilen karma uzman açık kaynak modelidir."
|
||
},
|
||
"mistral/pixtral-12b": {
|
||
"description": "Görüntü anlama yeteneğine sahip 12 milyar parametreli model ve metin."
|
||
},
|
||
"mistral/pixtral-large": {
|
||
"description": "Pixtral Large, çok modlu ailemizdeki ikinci model olup, ileri düzey görüntü anlama yetenekleri sergiler. Özellikle belge, grafik ve doğal görüntüleri anlayabilir ve Mistral Large 2'nin lider metin anlama yeteneklerini korur."
|
||
},
|
||
"mistralai/Mistral-7B-Instruct-v0.1": {
|
||
"description": "Mistral (7B) Instruct, yüksek performansıyla tanınır ve çeşitli dil görevleri için uygundur."
|
||
},
|
||
"mistralai/Mistral-7B-Instruct-v0.2": {
|
||
"description": "Mistral 7B, talebe göre ince ayar yapılmış bir modeldir ve görevler için optimize edilmiş yanıtlar sunar."
|
||
},
|
||
"mistralai/Mistral-7B-Instruct-v0.3": {
|
||
"description": "Mistral (7B) Instruct v0.3, geniş uygulamalar için etkili hesaplama gücü ve doğal dil anlama sunar."
|
||
},
|
||
"mistralai/Mistral-7B-v0.1": {
|
||
"description": "Mistral 7B, kompakt ancak yüksek performanslı bir modeldir, sınıflandırma ve metin üretimi gibi basit görevlerde iyi bir akıl yürütme yeteneği ile yoğun işlem yapma konusunda uzmandır."
|
||
},
|
||
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
|
||
"description": "Mixtral-8x22B Instruct (141B), son derece büyük bir dil modelidir ve çok yüksek işleme taleplerini destekler."
|
||
},
|
||
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
|
||
"description": "Mixtral 8x7B, genel metin görevleri için kullanılan önceden eğitilmiş seyrek karışık uzman modelidir."
|
||
},
|
||
"mistralai/Mixtral-8x7B-v0.1": {
|
||
"description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevleri için uygundur."
|
||
},
|
||
"mistralai/mistral-nemo": {
|
||
"description": "Mistral Nemo, çok dilli destek ve yüksek performanslı programlama sunan 7.3B parametreli bir modeldir."
|
||
},
|
||
"mixtral": {
|
||
"description": "Mixtral, Mistral AI'nın uzman modelidir, açık kaynak ağırlıkları ile birlikte gelir ve kod üretimi ve dil anlama konularında destek sunar."
|
||
},
|
||
"mixtral-8x7b-32768": {
|
||
"description": "Mixtral 8x7B, yüksek hata toleransına sahip paralel hesaplama yeteneği sunar ve karmaşık görevler için uygundur."
|
||
},
|
||
"mixtral:8x22b": {
|
||
"description": "Mixtral, Mistral AI'nın uzman modelidir, açık kaynak ağırlıkları ile birlikte gelir ve kod üretimi ve dil anlama konularında destek sunar."
|
||
},
|
||
"moonshot-v1-128k": {
|
||
"description": "Moonshot V1 128K, ultra uzun bağlam işleme yeteneğine sahip bir modeldir, karmaşık üretim görevlerini karşılamak için ultra uzun metinler üretmekte kullanılabilir, 128,000 token'a kadar içeriği işleyebilir, araştırma, akademik ve büyük belgelerin üretilmesi gibi uygulama senaryoları için son derece uygundur."
|
||
},
|
||
"moonshot-v1-128k-vision-preview": {
|
||
"description": "Kimi görsel modeli (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview gibi) resim içeriğini anlayabilir, resim metni, resim rengi ve nesne şekilleri gibi içerikleri kapsar."
|
||
},
|
||
"moonshot-v1-32k": {
|
||
"description": "Moonshot V1 32K, orta uzunlukta bağlam işleme yeteneği sunar, 32,768 token'ı işleyebilir, çeşitli uzun belgeler ve karmaşık diyaloglar üretmek için özellikle uygundur, içerik oluşturma, rapor üretimi ve diyalog sistemleri gibi alanlarda kullanılabilir."
|
||
},
|
||
"moonshot-v1-32k-vision-preview": {
|
||
"description": "Kimi görsel modeli (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview gibi) resim içeriğini anlayabilir, resim metni, resim rengi ve nesne şekilleri gibi içerikleri kapsar."
|
||
},
|
||
"moonshot-v1-8k": {
|
||
"description": "Moonshot V1 8K, kısa metin görevleri için tasarlanmış, yüksek verimlilikte işleme performansı sunar, 8,192 token'ı işleyebilir, kısa diyaloglar, not alma ve hızlı içerik üretimi için son derece uygundur."
|
||
},
|
||
"moonshot-v1-8k-vision-preview": {
|
||
"description": "Kimi görsel modeli (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview gibi) resim içeriğini anlayabilir, resim metni, resim rengi ve nesne şekilleri gibi içerikleri kapsar."
|
||
},
|
||
"moonshot-v1-auto": {
|
||
"description": "Moonshot V1 Auto, mevcut bağlamın kullandığı Token sayısına göre uygun modeli seçebilir."
|
||
},
|
||
"moonshotai/Kimi-Dev-72B": {
|
||
"description": "Kimi-Dev-72B, büyük ölçekli pekiştirmeli öğrenme ile optimize edilmiş açık kaynaklı bir kod modeli olup, sağlam ve doğrudan üretime uygun yamalar üretebilir. Bu model, SWE-bench Verified üzerinde %60,4 ile yeni bir rekor kırarak, açık kaynak modeller arasında hata düzeltme, kod incelemesi gibi otomatik yazılım mühendisliği görevlerinde en yüksek puanı elde etmiştir."
|
||
},
|
||
"moonshotai/Kimi-K2-Instruct-0905": {
|
||
"description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
|
||
},
|
||
"moonshotai/Kimi-K2-Thinking": {
|
||
"description": "Kimi K2 Thinking, en yeni ve en güçlü açık kaynak düşünme modelidir. Çok adımlı akıl yürütme derinliğini büyük ölçüde artırarak ve 200–300 ardışık araç çağrısı sırasında istikrarlı araç kullanımı sağlayarak Humanity's Last Exam (HLE), BrowseComp ve diğer kıyaslamalarda yeni standartlar belirlemiştir. Ayrıca programlama, matematik, mantıksal akıl yürütme ve Agent senaryolarında üstün performans sergiler. Model, yaklaşık 1T toplam parametreye sahip karma uzman (MoE) mimarisi üzerine kuruludur, 256K bağlam penceresini destekler ve araç çağrılarını destekler."
|
||
},
|
||
"moonshotai/kimi-k2": {
|
||
"description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük ölçekli karma uzman (MoE) dil modeli olup, toplamda 1 trilyon parametre ve her ileri geçişte 32 milyar aktif parametreye sahiptir. Ajan yetenekleri için optimize edilmiştir; gelişmiş araç kullanımı, çıkarım ve kod sentezi içerir."
|
||
},
|
||
"moonshotai/kimi-k2-0711": {
|
||
"description": "Kimi K2 0711, Kimi serisinin Instruct sürümüdür; yüksek kaliteli kodlama ve araç çağırma senaryoları için uygundur."
|
||
},
|
||
"moonshotai/kimi-k2-0905": {
|
||
"description": "Kimi K2 0905, Kimi serisinin 0905 güncellemesidir; bağlam ve akıl yürütme performansını artırır, kodlama senaryoları için optimize edilmiştir."
|
||
},
|
||
"moonshotai/kimi-k2-instruct-0905": {
|
||
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
||
},
|
||
"moonshotai/kimi-k2-thinking": {
|
||
"description": "Kimi K2 Thinking, Moonshot tarafından derin akıl yürütme görevleri için optimize edilmiş düşünme modelidir; genel ajan yeteneklerine sahiptir."
|
||
},
|
||
"moonshotai/kimi-k2-thinking-turbo": {
|
||
"description": "Kimi K2 Thinking Turbo, Kimi K2 Thinking’in yüksek hızlı sürümüdür; derin akıl yürütme yeteneğini korurken yanıt gecikmesini önemli ölçüde azaltır."
|
||
},
|
||
"morph/morph-v3-fast": {
|
||
"description": "Morph, Claude veya GPT-4o gibi ileri modellerin önerdiği kod değişikliklerini mevcut kod dosyalarınıza UYGULAR - HIZLI - 4500+ token/saniye. AI kodlama iş akışında son adım olarak görev yapar. 16k giriş token ve 16k çıkış token destekler."
|
||
},
|
||
"morph/morph-v3-large": {
|
||
"description": "Morph, Claude veya GPT-4o gibi ileri modellerin önerdiği kod değişikliklerini mevcut kod dosyalarınıza UYGULAR - HIZLI - 2500+ token/saniye. AI kodlama iş akışında son adım olarak görev yapar. 16k giriş token ve 16k çıkış token destekler."
|
||
},
|
||
"nousresearch/hermes-2-pro-llama-3-8b": {
|
||
"description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
|
||
},
|
||
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
||
"description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş büyük bir dil modelidir ve LLM tarafından üretilen yanıtların kullanıcı sorgularına yardımcı olma düzeyini artırmayı amaçlamaktadır. Bu model, Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench gibi standart testlerde mükemmel performans sergilemiştir ve 1 Ekim 2024 itibarıyla tüm üç otomatik hizalama testinde birinci sıradadır. Model, Llama-3.1-70B-Instruct modelinin temelinde RLHF (özellikle REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference ipuçları kullanılarak eğitilmiştir."
|
||
},
|
||
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
||
"description": "Eşsiz bir dil modeli, benzersiz doğruluk ve verimlilik sunar."
|
||
},
|
||
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
||
"description": "Llama-3.1-Nemotron-70B-Instruct, NVIDIA'nın özel olarak geliştirdiği büyük dil modelidir ve LLM tarafından üretilen yanıtların yardımcı olmasını artırmayı amaçlar."
|
||
},
|
||
"o1": {
|
||
"description": "Gelişmiş çıkarım ve karmaşık sorunları çözmeye odaklanır, matematik ve bilim görevlerini içerir. Derin bağlam anlayışı ve aracılık iş akışları gerektiren uygulamalar için son derece uygundur."
|
||
},
|
||
"o1-mini": {
|
||
"description": "o1-preview modeline göre daha küçük ve daha hızlıdır, maliyeti %80 daha düşüktür. Kod üretimi ve kısa bağlam işlemlerinde iyi performans gösterir."
|
||
},
|
||
"o1-preview": {
|
||
"description": "İleri düzey muhakeme ve matematik ile fen görevleri dahil olmak üzere karmaşık sorunların çözümüne odaklanır. Derin bağlam anlayışı ve özerk iş akışları gerektiren uygulamalar için son derece uygundur."
|
||
},
|
||
"o1-pro": {
|
||
"description": "o1 serisi modeller, yanıtlamadan önce düşünme yapabilen ve karmaşık akıl yürütme görevlerini yerine getirebilen pekiştirmeli öğrenme ile eğitilmiştir. o1-pro modeli, daha derin düşünme için daha fazla hesaplama kaynağı kullanır ve böylece sürekli olarak daha kaliteli yanıtlar sunar."
|
||
},
|
||
"o3": {
|
||
"description": "o3, çok çeşitli alanlarda mükemmel performans gösteren çok yönlü güçlü bir modeldir. Matematik, bilim, programlama ve görsel çıkarım görevlerinde yeni standartlar belirler. Ayrıca teknik yazım ve talimat takibi konusunda da uzmandır. Kullanıcılar, metin, kod ve görüntüleri analiz ederek çok adımlı karmaşık sorunları çözebilir."
|
||
},
|
||
"o3-2025-04-16": {
|
||
"description": "o3, OpenAI'nin yeni akıl yürütme modeli olup, metin ve görsel girişleri destekler ve metin çıktısı verir; geniş kapsamlı genel bilgi gerektiren karmaşık görevler için uygundur."
|
||
},
|
||
"o3-deep-research": {
|
||
"description": "o3-derin-arama, karmaşık çok adımlı araştırma görevlerini işlemek için özel olarak tasarlanmış en gelişmiş derin araştırma modelimizdir. İnternetten bilgi arayıp sentezleyebilir ve MCP bağlayıcısı aracılığıyla kendi verilerinize erişip bunları kullanabilir."
|
||
},
|
||
"o3-mini": {
|
||
"description": "o3-mini, aynı maliyet ve gecikme hedefleriyle yüksek zeka sunan en yeni küçük ölçekli çıkarım modelimizdir."
|
||
},
|
||
"o3-pro": {
|
||
"description": "o3-pro modeli, daha derin düşünmek ve her zaman daha iyi yanıtlar sunmak için daha fazla hesaplama kullanır, yalnızca Responses API altında kullanılabilir."
|
||
},
|
||
"o3-pro-2025-06-10": {
|
||
"description": "o3 Pro, OpenAI'nin yeni akıl yürütme modeli olup, metin ve görsel girişleri destekler ve metin çıktısı verir; geniş kapsamlı genel bilgi gerektiren karmaşık görevler için uygundur."
|
||
},
|
||
"o4-mini": {
|
||
"description": "o4-mini, en yeni küçük o serisi modelimizdir. Hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
|
||
},
|
||
"o4-mini-2025-04-16": {
|
||
"description": "o4-mini, OpenAI'nin akıl yürütme modeli olup, metin ve görsel girişleri destekler ve metin çıktısı verir; geniş kapsamlı genel bilgi gerektiren karmaşık görevler için uygundur. Model 200K bağlam uzunluğuna sahiptir."
|
||
},
|
||
"o4-mini-deep-research": {
|
||
"description": "o4-mini-derin-arama, daha hızlı ve uygun maliyetli derin araştırma modelimizdir — karmaşık çok adımlı araştırma görevleri için idealdir. İnternetten bilgi arayıp sentezleyebilir ve MCP bağlayıcısı aracılığıyla kendi verilerinize erişip bunları kullanabilir."
|
||
},
|
||
"open-codestral-mamba": {
|
||
"description": "Codestral Mamba, kod üretimine odaklanan Mamba 2 dil modelidir ve ileri düzey kod ve akıl yürütme görevlerine güçlü destek sunar."
|
||
},
|
||
"open-mistral-7b": {
|
||
"description": "Mistral 7B, kompakt ama yüksek performanslı bir modeldir, sınıflandırma ve metin üretimi gibi basit görevlerde iyi bir akıl yürütme yeteneğine sahiptir."
|
||
},
|
||
"open-mistral-nemo": {
|
||
"description": "Mistral Nemo, Nvidia ile işbirliği içinde geliştirilmiş 12B modelidir, mükemmel akıl yürütme ve kodlama performansı sunar, entegrasyonu ve değiştirilmesi kolaydır."
|
||
},
|
||
"open-mixtral-8x22b": {
|
||
"description": "Mixtral 8x22B, karmaşık görevler için odaklanmış daha büyük bir uzman modelidir, mükemmel akıl yürütme yeteneği ve daha yüksek bir verim sunar."
|
||
},
|
||
"open-mixtral-8x7b": {
|
||
"description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevlerini işlemek için uygundur."
|
||
},
|
||
"openai/gpt-3.5-turbo": {
|
||
"description": "OpenAI'nin GPT-3.5 serisindeki en yetenekli ve maliyet etkin modeli olup, sohbet amaçlı optimize edilmiştir ancak geleneksel tamamlama görevlerinde de iyi performans gösterir."
|
||
},
|
||
"openai/gpt-3.5-turbo-instruct": {
|
||
"description": "GPT-3 dönemindeki modellere benzer yetenekler sunar. Sohbet tamamlama uç noktası yerine geleneksel tamamlama uç noktası ile uyumludur."
|
||
},
|
||
"openai/gpt-4-turbo": {
|
||
"description": "OpenAI'den gpt-4-turbo, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. Bilgi kesim tarihi Nisan 2023'tür ve 128.000 token bağlam penceresine sahiptir."
|
||
},
|
||
"openai/gpt-4.1": {
|
||
"description": "GPT-4.1 serisi, daha geniş bağlam ve daha güçlü mühendislik ile akıl yürütme yetenekleri sunar."
|
||
},
|
||
"openai/gpt-4.1-mini": {
|
||
"description": "GPT-4.1 Mini, daha düşük gecikme ve daha iyi maliyet-performans oranı sunar, orta düzey bağlamlı senaryolar için uygundur."
|
||
},
|
||
"openai/gpt-4.1-nano": {
|
||
"description": "GPT-4.1 Nano, son derece düşük maliyetli ve düşük gecikmeli bir seçenektir, sık tekrarlanan kısa diyaloglar veya sınıflandırma senaryoları için idealdir."
|
||
},
|
||
"openai/gpt-4o": {
|
||
"description": "GPT-4o serisi, OpenAI'nin Omni modelidir; metin + görsel girdi ve metin çıktısını destekler."
|
||
},
|
||
"openai/gpt-4o-mini": {
|
||
"description": "GPT-4o-mini, GPT-4o'nun hızlı ve küçük model versiyonudur, düşük gecikmeli metin-görsel karışık senaryolar için uygundur."
|
||
},
|
||
"openai/gpt-5": {
|
||
"description": "GPT-5, OpenAI'nin yüksek performanslı modelidir ve geniş üretim ile araştırma görevleri için uygundur."
|
||
},
|
||
"openai/gpt-5-chat": {
|
||
"description": "GPT-5 Chat, diyalog senaryoları için optimize edilmiş GPT-5 alt modelidir, etkileşim deneyimini artırmak için gecikmeyi azaltır."
|
||
},
|
||
"openai/gpt-5-codex": {
|
||
"description": "GPT-5-Codex, kodlama senaryoları için daha da optimize edilmiş bir GPT-5 varyantıdır, büyük ölçekli kod iş akışları için uygundur."
|
||
},
|
||
"openai/gpt-5-mini": {
|
||
"description": "GPT-5 Mini, GPT-5 ailesinin hafifletilmiş versiyonudur, düşük gecikme ve düşük maliyetli senaryolar için uygundur."
|
||
},
|
||
"openai/gpt-5-nano": {
|
||
"description": "GPT-5 Nano, ailenin ultra küçük versiyonudur, maliyet ve gecikme açısından çok hassas senaryolar için uygundur."
|
||
},
|
||
"openai/gpt-5-pro": {
|
||
"description": "GPT-5 Pro, OpenAI'nin amiral gemisi modelidir; daha güçlü akıl yürütme, kod üretimi ve kurumsal düzeyde işlevler sunar, test sırasında yönlendirme ve daha sıkı güvenlik politikalarını destekler."
|
||
},
|
||
"openai/gpt-5.1": {
|
||
"description": "GPT-5.1, GPT-5 serisinin en yeni amiral gemisi modelidir; genel akıl yürütme, talimatlara uyum ve doğal diyalog alanlarında GPT-5'e göre önemli gelişmeler sunar, çok çeşitli görevler için uygundur."
|
||
},
|
||
"openai/gpt-5.1-chat": {
|
||
"description": "GPT-5.1 Chat, GPT-5.1 ailesinin hafif üyesidir; düşük gecikmeli diyaloglar için optimize edilmiştir ve güçlü akıl yürütme ile talimat uygulama yeteneklerini korur."
|
||
},
|
||
"openai/gpt-5.1-codex": {
|
||
"description": "GPT-5.1-Codex, yazılım mühendisliği ve kodlama iş akışları için optimize edilmiş bir GPT-5.1 varyantıdır; büyük yeniden yapılandırmalar, karmaşık hata ayıklama ve uzun süreli otonom kodlama görevleri için uygundur."
|
||
},
|
||
"openai/gpt-5.1-codex-mini": {
|
||
"description": "GPT-5.1-Codex-Mini, GPT-5.1-Codex'in küçük ve hızlandırılmış versiyonudur; gecikme ve maliyet açısından hassas kodlama senaryoları için daha uygundur."
|
||
},
|
||
"openai/gpt-oss-120b": {
|
||
"description": "Son derece yetenekli genel amaçlı büyük dil modeli olup, güçlü ve kontrol edilebilir çıkarım yeteneklerine sahiptir."
|
||
},
|
||
"openai/gpt-oss-20b": {
|
||
"description": "Kompakt, açık kaynak ağırlıklı dil modeli olup, düşük gecikme ve kaynak kısıtlı ortamlar için optimize edilmiştir; yerel ve uç dağıtımları destekler."
|
||
},
|
||
"openai/o1": {
|
||
"description": "OpenAI'nin o1 modeli, derin düşünme gerektiren karmaşık problemler için amiral gemisi çıkarım modelidir. Karmaşık çok adımlı görevlerde güçlü çıkarım yeteneği ve yüksek doğruluk sunar."
|
||
},
|
||
"openai/o1-mini": {
|
||
"description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
||
},
|
||
"openai/o1-preview": {
|
||
"description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
||
},
|
||
"openai/o3": {
|
||
"description": "OpenAI'nin o3 modeli, kodlama, matematik, bilim ve görsel algılamada yeni en ileri seviyeler belirleyen en güçlü çıkarım modelidir. Çok yönlü analiz gerektiren karmaşık sorgularda uzmandır ve görüntü, grafik ve diyagram analizinde özel avantajlara sahiptir."
|
||
},
|
||
"openai/o3-mini": {
|
||
"description": "o3-mini, OpenAI'nin en yeni küçük çıkarım modeli olup, o1-mini ile aynı maliyet ve gecikme hedeflerinde yüksek zeka sunar."
|
||
},
|
||
"openai/o3-mini-high": {
|
||
"description": "o3-mini yüksek akıl yürütme seviyesi, o1-mini ile aynı maliyet ve gecikme hedefleri altında yüksek zeka sunar."
|
||
},
|
||
"openai/o4-mini": {
|
||
"description": "OpenAI o4-mini, düşük gecikmeli senaryolar için uygun olan OpenAI'nin küçük ve verimli akıl yürütme modelidir."
|
||
},
|
||
"openai/o4-mini-high": {
|
||
"description": "o4-mini yüksek çıkarım seviyesinde, hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
|
||
},
|
||
"openai/text-embedding-3-large": {
|
||
"description": "OpenAI'nin en yetenekli gömme modeli olup, İngilizce ve İngilizce dışı görevlerde kullanılır."
|
||
},
|
||
"openai/text-embedding-3-small": {
|
||
"description": "OpenAI'nin geliştirilmiş, daha yüksek performanslı ada gömme modeli versiyonu."
|
||
},
|
||
"openai/text-embedding-ada-002": {
|
||
"description": "OpenAI'nin klasik metin gömme modeli."
|
||
},
|
||
"openrouter/auto": {
|
||
"description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz, Llama 3 70B Instruct, Claude 3.5 Sonnet (kendini ayarlama) veya GPT-4o'ya gönderilecektir."
|
||
},
|
||
"perplexity/sonar": {
|
||
"description": "Perplexity'nin hafif ürünü olup, arama temelli yeteneklere sahiptir ve Sonar Pro'dan daha hızlı ve daha ucuzdur."
|
||
},
|
||
"perplexity/sonar-pro": {
|
||
"description": "Perplexity'nin amiral gemisi ürünü olup, arama temelli yeteneklere sahiptir ve gelişmiş sorgular ile takip işlemlerini destekler."
|
||
},
|
||
"perplexity/sonar-reasoning": {
|
||
"description": "Çıkarıma odaklanan model olup, yanıtlarında düşünce zinciri (CoT) sunar ve arama temelli detaylı açıklamalar sağlar."
|
||
},
|
||
"perplexity/sonar-reasoning-pro": {
|
||
"description": "Gelişmiş çıkarım odaklı model olup, yanıtlarında düşünce zinciri (CoT) sunar, geliştirilmiş arama yetenekleri ve her istek için birden fazla arama sorgusu ile kapsamlı açıklamalar sağlar."
|
||
},
|
||
"phi3": {
|
||
"description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur."
|
||
},
|
||
"phi3:14b": {
|
||
"description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur."
|
||
},
|
||
"pixtral-12b-2409": {
|
||
"description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir."
|
||
},
|
||
"pixtral-large-latest": {
|
||
"description": "Pixtral Large, 1240 milyar parametreye sahip açık kaynaklı çok modlu bir modeldir ve Mistral Large 2 üzerine inşa edilmiştir. Bu, çok modlu ailemizdeki ikinci modeldir ve öncü düzeyde görüntü anlama yetenekleri sergilemektedir."
|
||
},
|
||
"pro-128k": {
|
||
"description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
|
||
},
|
||
"pro-deepseek-r1": {
|
||
"description": "Kurumsal özel hizmetler için tasarlanmış modeldir ve eşzamanlı hizmetleri içerir."
|
||
},
|
||
"pro-deepseek-v3": {
|
||
"description": "Kurumsal özel hizmetler için tasarlanmış modeldir ve eşzamanlı hizmetleri içerir."
|
||
},
|
||
"qianfan-70b": {
|
||
"description": "Qianfan 70B, yüksek parametreli Çince model, yüksek kaliteli içerik üretimi ve karmaşık akıl yürütme görevleri için uygundur."
|
||
},
|
||
"qianfan-8b": {
|
||
"description": "Qianfan 8B, orta ölçekli genel amaçlı model, maliyet ve performans dengesi gerektiren metin üretimi ve soru-cevap senaryoları için uygundur."
|
||
},
|
||
"qianfan-agent-intent-32k": {
|
||
"description": "Qianfan Agent Intent 32K, niyet tanıma ve akıllı ajan düzenlemesi için tasarlanmış model, uzun bağlam senaryolarını destekler."
|
||
},
|
||
"qianfan-agent-lite-8k": {
|
||
"description": "Qianfan Agent Lite 8K, hafif akıllı ajan modeli, düşük maliyetli çok turlu diyaloglar ve iş akışı düzenlemeleri için uygundur."
|
||
},
|
||
"qianfan-agent-speed-32k": {
|
||
"description": "Qianfan Agent Speed 32K, yüksek akış kontrolüne sahip akıllı ajan modeli, büyük ölçekli ve çok görevli ajan uygulamaları için uygundur."
|
||
},
|
||
"qianfan-agent-speed-8k": {
|
||
"description": "Qianfan Agent Speed 8K, orta ve kısa diyaloglar ile hızlı yanıt gerektiren yüksek eşzamanlı akıllı ajan modeli."
|
||
},
|
||
"qianfan-check-vl": {
|
||
"description": "Qianfan Check VL, çok modlu içerik denetimi ve tespit modeli, görsel ve metin uyumluluğu ile tanıma görevlerini destekler."
|
||
},
|
||
"qianfan-composition": {
|
||
"description": "Qianfan Composition, çok modlu içerik üretim modeli, görsel ve metinlerin birleşik anlaşılması ve üretimini destekler."
|
||
},
|
||
"qianfan-engcard-vl": {
|
||
"description": "Qianfan EngCard VL, İngilizce odaklı çok modlu tanıma modeli."
|
||
},
|
||
"qianfan-lightning-128b-a19b": {
|
||
"description": "Qianfan Lightning 128B A19B, yüksek performanslı Çince genel model, karmaşık soru-cevap ve büyük ölçekli akıl yürütme görevleri için uygundur."
|
||
},
|
||
"qianfan-llama-vl-8b": {
|
||
"description": "Qianfan Llama VL 8B, Llama tabanlı çok modlu model, genel görsel-metin anlama görevlerine yöneliktir."
|
||
},
|
||
"qianfan-multipicocr": {
|
||
"description": "Qianfan MultiPicOCR, çoklu görsel OCR modeli, birden fazla görseldeki metinleri tespit ve tanıma yeteneğine sahiptir."
|
||
},
|
||
"qianfan-qi-vl": {
|
||
"description": "Qianfan QI VL, çok modlu soru-cevap modeli, karmaşık görsel-metin senaryolarında hassas arama ve cevaplama desteği sunar."
|
||
},
|
||
"qianfan-singlepicocr": {
|
||
"description": "Qianfan SinglePicOCR, tek görsel OCR modeli, yüksek doğrulukta karakter tanıma sağlar."
|
||
},
|
||
"qianfan-vl-70b": {
|
||
"description": "Qianfan VL 70B, yüksek parametreli görsel-dil modeli, karmaşık görsel-metin anlama senaryoları için uygundur."
|
||
},
|
||
"qianfan-vl-8b": {
|
||
"description": "Qianfan VL 8B, hafif görsel-dil modeli, günlük görsel-metin soru-cevap ve analiz için uygundur."
|
||
},
|
||
"qvq-72b-preview": {
|
||
"description": "QVQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir; görsel akıl yürütme yeteneğini artırmaya odaklanır, özellikle matematik akıl yürütme alanında."
|
||
},
|
||
"qvq-max": {
|
||
"description": "Tongyi Qianwen QVQ görsel akıl yürütme modeli, görsel giriş ve düşünce zinciri çıktısını destekler; matematik, programlama, görsel analiz, yaratım ve genel görevlerde daha güçlü performans sergiler."
|
||
},
|
||
"qvq-plus": {
|
||
"description": "Görsel çıkarım modeli. Görsel girişleri ve düşünce zinciri çıktısını destekler; qvq-max modelinin ardından gelen plus versiyonudur. qvq-max modeline kıyasla, qvq-plus serisi modeller daha hızlı çıkarım yapar ve performans ile maliyet arasında daha dengeli bir sonuç sunar."
|
||
},
|
||
"qwen-3-32b": {
|
||
"description": "Qwen 3 32B: Qwen serisi, çok dilli ve kodlama görevlerinde üstün performans gösterir; orta ölçekli üretim kullanımı için uygundur."
|
||
},
|
||
"qwen-coder-plus": {
|
||
"description": "Tongyi Qianwen kodlama modeli."
|
||
},
|
||
"qwen-coder-turbo": {
|
||
"description": "Tongyi Qianwen kodlama modeli."
|
||
},
|
||
"qwen-coder-turbo-latest": {
|
||
"description": "Tongyi Qianwen kodlama modeli."
|
||
},
|
||
"qwen-flash": {
|
||
"description": "Tongyi Qianwen serisi, en hızlı ve maliyeti son derece düşük modeller sunar; basit görevler için uygundur."
|
||
},
|
||
"qwen-image": {
|
||
"description": "Qwen-Image, çeşitli sanat stillerini destekleyen genel amaçlı bir görsel oluşturma modelidir; karmaşık metin renderleme konusunda, özellikle Çince ve İngilizce metinlerin renderlenmesinde uzmandır. Model çok satırlı düzenleri, paragraf düzeyinde metin üretimini ve ince ayrıntıların işlenmesini destekler; karmaşık görsel-metin karışık düzen tasarımlarının oluşturulmasına olanak tanır."
|
||
},
|
||
"qwen-image-edit": {
|
||
"description": "Qwen Image Edit, girdiğiniz görüntü ve metin ipuçlarına dayanarak görüntü düzenleme ve değiştirme yapabilen bir görüntüden görüntüye modelidir. Kullanıcı ihtiyaçlarına göre orijinal görüntüyü hassas bir şekilde ayarlayabilir ve yaratıcı dönüşümler gerçekleştirebilir."
|
||
},
|
||
"qwen-long": {
|
||
"description": "Tongyi Qianwen, uzun metin bağlamını destekleyen ve uzun belgeler, çoklu belgeler gibi çeşitli senaryolar için diyalog işlevselliği sunan büyük ölçekli bir dil modelidir."
|
||
},
|
||
"qwen-math-plus": {
|
||
"description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış dil modelidir."
|
||
},
|
||
"qwen-math-plus-latest": {
|
||
"description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
|
||
},
|
||
"qwen-math-turbo": {
|
||
"description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış dil modelidir."
|
||
},
|
||
"qwen-math-turbo-latest": {
|
||
"description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
|
||
},
|
||
"qwen-max": {
|
||
"description": "Tongyi Qianwen, 100 milyar seviyesinde büyük ölçekli bir dil modelidir ve Çince, İngilizce gibi farklı dil girişlerini destekler; şu anda Tongyi Qianwen 2.5 ürün sürümünün arkasındaki API modelidir."
|
||
},
|
||
"qwen-omni-turbo": {
|
||
"description": "Qwen-Omni serisi modeller, video, ses, resim ve metin dahil çoklu modalite girişlerini destekler ve ses ile metin çıktısı sağlar."
|
||
},
|
||
"qwen-plus": {
|
||
"description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dil girişlerini destekleyen geliştirilmiş büyük ölçekli bir dil modelidir."
|
||
},
|
||
"qwen-turbo": {
|
||
"description": "Tongyi Qianwen Turbo bundan sonra güncellenmeyecektir; yerine Tongyi Qianwen Flash kullanılması önerilir. Tongyi Qianwen, çok büyük ölçekli bir dil modelidir ve Çince, İngilizce gibi farklı dillerde girişleri destekler."
|
||
},
|
||
"qwen-vl-chat-v1": {
|
||
"description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir."
|
||
},
|
||
"qwen-vl-max": {
|
||
"description": "Tongyi Qianwen ultra büyük ölçekli görsel-dil modeli. Geliştirilmiş versiyona kıyasla görsel akıl yürütme ve komut uyum yeteneklerini daha da artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
|
||
},
|
||
"qwen-vl-max-latest": {
|
||
"description": "Tongyi Qianwen ultra büyük ölçekli görsel dil modeli. Geliştirilmiş versiyona kıyasla, görsel akıl yürütme yeteneğini ve talimatlara uyum yeteneğini bir kez daha artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
|
||
},
|
||
"qwen-vl-ocr": {
|
||
"description": "Tongyi Qianwen OCR, belge, tablo, sınav soruları ve el yazısı gibi görüntülerden metin çıkarma konusunda uzmanlaşmış özel modeldir. Çoklu dil tanıma yeteneğine sahiptir; desteklenen diller arasında Çince, İngilizce, Fransızca, Japonca, Korece, Almanca, Rusça, İtalyanca, Vietnamca ve Arapça bulunmaktadır."
|
||
},
|
||
"qwen-vl-plus": {
|
||
"description": "Tongyi Qianwen büyük ölçekli görsel-dil modeli geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, milyonlarca piksel çözünürlük ve herhangi bir en-boy oranındaki görüntüleri destekler."
|
||
},
|
||
"qwen-vl-plus-latest": {
|
||
"description": "Tongyi Qianwen büyük ölçekli görsel dil modelinin geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranındaki görüntüleri destekler."
|
||
},
|
||
"qwen-vl-v1": {
|
||
"description": "Qwen-7B dil modeli ile başlatılan, 448 çözünürlükte görüntü girişi olan önceden eğitilmiş bir modeldir."
|
||
},
|
||
"qwen/qwen-2-7b-instruct": {
|
||
"description": "Qwen2, tamamen yeni bir Qwen büyük dil modeli serisidir. Qwen2 7B, dil anlama, çok dilli yetenek, programlama, matematik ve akıl yürütme konularında mükemmel performans sergileyen bir transformer tabanlı modeldir."
|
||
},
|
||
"qwen/qwen-2-7b-instruct:free": {
|
||
"description": "Qwen2, daha güçlü anlama ve üretme yeteneklerine sahip yeni bir büyük dil modeli serisidir."
|
||
},
|
||
"qwen/qwen-2-vl-72b-instruct": {
|
||
"description": "Qwen2-VL, Qwen-VL modelinin en son yineleme versiyonudur ve MathVista, DocVQA, RealWorldQA ve MTVQA gibi görsel anlama benchmark testlerinde en gelişmiş performansa ulaşmıştır. Qwen2-VL, yüksek kaliteli video tabanlı soru-cevap, diyalog ve içerik oluşturma için 20 dakikadan fazla videoyu anlayabilmektedir. Ayrıca, karmaşık akıl yürütme ve karar verme yeteneklerine sahiptir ve mobil cihazlar, robotlar gibi sistemlerle entegre olarak görsel ortam ve metin talimatlarına dayalı otomatik işlemler gerçekleştirebilmektedir. İngilizce ve Çince'nin yanı sıra, Qwen2-VL artık çoğu Avrupa dili, Japonca, Korece, Arapça ve Vietnamca gibi farklı dillerdeki metinleri de anlayabilmektedir."
|
||
},
|
||
"qwen/qwen-2.5-72b-instruct": {
|
||
"description": "Qwen2.5-72B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 72B modeli, kodlama ve matematik gibi alanlarda önemli iyileştirmelere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli gelişmeler göstermektedir."
|
||
},
|
||
"qwen/qwen2.5-32b-instruct": {
|
||
"description": "Qwen2.5-32B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 32B modeli, kodlama ve matematik gibi alanlarda önemli iyileştirmelere sahiptir. Model, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli gelişmeler göstermektedir."
|
||
},
|
||
"qwen/qwen2.5-7b-instruct": {
|
||
"description": "Çince ve İngilizce'ye yönelik LLM, dil, programlama, matematik, akıl yürütme gibi alanlara odaklanır."
|
||
},
|
||
"qwen/qwen2.5-coder-32b-instruct": {
|
||
"description": "Gelişmiş LLM, kod üretimi, akıl yürütme ve düzeltme desteği sunar, ana akım programlama dillerini kapsar."
|
||
},
|
||
"qwen/qwen2.5-coder-7b-instruct": {
|
||
"description": "Güçlü orta ölçekli kod modeli, 32K bağlam uzunluğunu destekler, çok dilli programlama konusunda uzmandır."
|
||
},
|
||
"qwen/qwen3-14b": {
|
||
"description": "Qwen3-14B, Qwen serisinin 14B versiyonudur; genel akıl yürütme ve diyalog senaryoları için uygundur."
|
||
},
|
||
"qwen/qwen3-14b:free": {
|
||
"description": "Qwen3-14B, Qwen3 serisindeki yoğun 14.8 milyar parametreli nedensel dil modelidir ve karmaşık akıl yürütme ve etkili diyalog için tasarlanmıştır. Matematik, programlama ve mantık akıl yürütme gibi görevler için 'düşünme' modu ile genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan araç kullanımı, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli görevler için ince ayar yapılmıştır. 32K token bağlamını yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
||
},
|
||
"qwen/qwen3-235b-a22b": {
|
||
"description": "Qwen3-235B-A22B, Qwen tarafından geliştirilen 235B parametreli uzman karışımı (MoE) modelidir ve her ileri geçişte 22B parametreyi etkinleştirir. Karmaşık akıl yürütme, matematik ve kod görevleri için 'düşünme' modu ile genel diyalog verimliliği için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, güçlü akıl yürütme yetenekleri, çok dilli destek (100'den fazla dil ve lehçe), ileri düzey talimat takibi ve ajan araç çağırma yetenekleri sergiler. 32K token bağlam penceresini yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
||
},
|
||
"qwen/qwen3-235b-a22b-2507": {
|
||
"description": "Qwen3-235B-A22B-Instruct-2507, Qwen3 serisinin Instruct versiyonudur; çok dilli talimatlar ve uzun bağlam senaryolarını dengeler."
|
||
},
|
||
"qwen/qwen3-235b-a22b-thinking-2507": {
|
||
"description": "Qwen3-235B-A22B-Thinking-2507, Qwen3'ün Thinking varyantıdır; karmaşık matematik ve akıl yürütme görevleri için güçlendirilmiştir."
|
||
},
|
||
"qwen/qwen3-235b-a22b:free": {
|
||
"description": "Qwen3-235B-A22B, Qwen tarafından geliştirilen 235B parametreli uzman karışımı (MoE) modelidir ve her ileri geçişte 22B parametreyi etkinleştirir. Karmaşık akıl yürütme, matematik ve kod görevleri için 'düşünme' modu ile genel diyalog verimliliği için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, güçlü akıl yürütme yetenekleri, çok dilli destek (100'den fazla dil ve lehçe), ileri düzey talimat takibi ve ajan araç çağırma yetenekleri sergiler. 32K token bağlam penceresini yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
||
},
|
||
"qwen/qwen3-30b-a3b": {
|
||
"description": "Qwen3, Qwen büyük dil modeli serisinin en son neslidir ve yoğun ve uzman karışımı (MoE) mimarisi ile akıl yürütme, çok dilli destek ve ileri düzey görevlerde mükemmel performans sergilemektedir. Karmaşık akıl yürütme düşünce modu ile etkili diyalog için düşünmeden geçiş yapma yeteneği, çok yönlü ve yüksek kaliteli performansı garanti eder.\n\nQwen3, QwQ ve Qwen2.5 gibi önceki modellere kıyasla önemli ölçüde daha üstündür ve matematik, kodlama, genel bilgi akıl yürütme, yaratıcı yazım ve etkileşimli diyalog yetenekleri sunar. Qwen3-30B-A3B varyantı, 30.5 milyar parametre (3.3 milyar etkin parametre), 48 katman, 128 uzman (her görevde 8 etkin) içerir ve 131K token bağlamını destekler (YaRN kullanarak), açık kaynaklı modeller için yeni bir standart belirler."
|
||
},
|
||
"qwen/qwen3-30b-a3b:free": {
|
||
"description": "Qwen3, Qwen büyük dil modeli serisinin en son neslidir ve yoğun ve uzman karışımı (MoE) mimarisi ile akıl yürütme, çok dilli destek ve ileri düzey görevlerde mükemmel performans sergilemektedir. Karmaşık akıl yürütme düşünce modu ile etkili diyalog için düşünmeden geçiş yapma yeteneği, çok yönlü ve yüksek kaliteli performansı garanti eder.\n\nQwen3, QwQ ve Qwen2.5 gibi önceki modellere kıyasla önemli ölçüde daha üstündür ve matematik, kodlama, genel bilgi akıl yürütme, yaratıcı yazım ve etkileşimli diyalog yetenekleri sunar. Qwen3-30B-A3B varyantı, 30.5 milyar parametre (3.3 milyar etkin parametre), 48 katman, 128 uzman (her görevde 8 etkin) içerir ve 131K token bağlamını destekler (YaRN kullanarak), açık kaynaklı modeller için yeni bir standart belirler."
|
||
},
|
||
"qwen/qwen3-32b": {
|
||
"description": "Qwen3-32B, Qwen3 serisindeki yoğun 32.8 milyar parametreli nedensel dil modelidir ve karmaşık akıl yürütme ve etkili diyalog için optimize edilmiştir. Matematik, kodlama ve mantık akıl yürütme gibi görevler için 'düşünme' modu ile daha hızlı, genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan araç kullanımı, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli görevlerde güçlü performans sergiler. 32K token bağlamını yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
||
},
|
||
"qwen/qwen3-32b:free": {
|
||
"description": "Qwen3-32B, Qwen3 serisindeki yoğun 32.8 milyar parametreli nedensel dil modelidir ve karmaşık akıl yürütme ve etkili diyalog için optimize edilmiştir. Matematik, kodlama ve mantık akıl yürütme gibi görevler için 'düşünme' modu ile daha hızlı, genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan araç kullanımı, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli görevlerde güçlü performans sergiler. 32K token bağlamını yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
||
},
|
||
"qwen/qwen3-8b:free": {
|
||
"description": "Qwen3-8B, Qwen3 serisindeki yoğun 8.2 milyar parametreli nedensel dil modelidir ve akıl yürütme yoğun görevler ve etkili diyalog için tasarlanmıştır. Matematik, kodlama ve mantık akıl yürütme için 'düşünme' modu ile genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan entegrasyonu, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli kullanım için ince ayar yapılmıştır. 32K token bağlam penceresini yerel olarak destekler ve YaRN aracılığıyla 131K token'a genişletilebilir."
|
||
},
|
||
"qwen/qwen3-coder": {
|
||
"description": "Qwen3-Coder, Qwen3'ün kod üretici ailesidir; uzun belgelerdeki kodu anlama ve üretme konusunda uzmandır."
|
||
},
|
||
"qwen/qwen3-coder-plus": {
|
||
"description": "Qwen3-Coder-Plus, Qwen serisi için özel olarak optimize edilmiş bir kodlama ajan modelidir; daha karmaşık araç çağrıları ve uzun süreli oturumları destekler."
|
||
},
|
||
"qwen/qwen3-max": {
|
||
"description": "Qwen3 Max, Qwen3 serisinin üst düzey akıl yürütme modelidir; çok dilli akıl yürütme ve araç entegrasyonu için uygundur."
|
||
},
|
||
"qwen/qwen3-max-preview": {
|
||
"description": "Qwen3 Max (önizleme), Qwen serisinin gelişmiş akıl yürütme ve araç entegrasyonu için tasarlanmış Max versiyonudur (önizleme sürümü)."
|
||
},
|
||
"qwen/qwen3-vl-plus": {
|
||
"description": "Qwen3 VL-Plus, Qwen3'ün görsel olarak geliştirilmiş versiyonudur; çok modlu akıl yürütme ve video işleme yeteneklerini artırır."
|
||
},
|
||
"qwen2": {
|
||
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
||
},
|
||
"qwen2.5": {
|
||
"description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
|
||
},
|
||
"qwen2.5-14b-instruct": {
|
||
"description": "Tongyi Qianwen 2.5, halka açık 14B ölçeğinde bir modeldir."
|
||
},
|
||
"qwen2.5-14b-instruct-1m": {
|
||
"description": "Tongyi Qianwen 2.5, 72B ölçeğinde açık kaynak olarak sunulmuştur."
|
||
},
|
||
"qwen2.5-32b-instruct": {
|
||
"description": "Tongyi Qianwen 2.5, halka açık 32B ölçeğinde bir modeldir."
|
||
},
|
||
"qwen2.5-72b-instruct": {
|
||
"description": "Tongyi Qianwen 2.5, halka açık 72B ölçeğinde bir modeldir."
|
||
},
|
||
"qwen2.5-7b-instruct": {
|
||
"description": "Qwen2.5 7B Instruct, olgun açık kaynaklı talimat modeli, çoklu senaryolarda diyalog ve üretim için uygundur."
|
||
},
|
||
"qwen2.5-coder-1.5b-instruct": {
|
||
"description": "Tongyi Qianwen kodlama modelinin açık kaynak sürümüdür."
|
||
},
|
||
"qwen2.5-coder-14b-instruct": {
|
||
"description": "Tongyi Qianwen kodlama modeli açık kaynak sürümü."
|
||
},
|
||
"qwen2.5-coder-32b-instruct": {
|
||
"description": "Tongyi Qianwen kod modeli açık kaynak versiyonu."
|
||
},
|
||
"qwen2.5-coder-7b-instruct": {
|
||
"description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
|
||
},
|
||
"qwen2.5-coder-instruct": {
|
||
"description": "Qwen2.5-Coder, Qwen serisinin en yeni kod odaklı büyük dil modelidir (eski adıyla CodeQwen)."
|
||
},
|
||
"qwen2.5-instruct": {
|
||
"description": "Qwen2.5, Qwen büyük dil modeli serisinin en son sürümüdür. Qwen2.5 için, 500 milyondan 7.2 milyara kadar değişen parametre aralığında birden fazla temel dil modeli ve komut ayarlı dil modeli yayınladık."
|
||
},
|
||
"qwen2.5-math-1.5b-instruct": {
|
||
"description": "Qwen-Math modeli, güçlü matematiksel problem çözme yeteneklerine sahiptir."
|
||
},
|
||
"qwen2.5-math-72b-instruct": {
|
||
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
||
},
|
||
"qwen2.5-math-7b-instruct": {
|
||
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
||
},
|
||
"qwen2.5-omni-7b": {
|
||
"description": "Qwen-Omni serisi modeller, video, ses, resim ve metin gibi çeşitli modlarda veri girişi destekler ve ses ile metin çıktısı verir."
|
||
},
|
||
"qwen2.5-vl-32b-instruct": {
|
||
"description": "Qwen2.5 VL 32B Instruct, çok modlu açık kaynak modeli, özelleştirilmiş kurulum ve çoklu senaryo uygulamaları için uygundur."
|
||
},
|
||
"qwen2.5-vl-72b-instruct": {
|
||
"description": "Talimat takibi, matematik, problem çözme, kodlama genelinde iyileştirme, her türlü nesneyi tanıma yeteneği artışı, çeşitli formatları doğrudan hassas bir şekilde görsel unsurları konumlandırma desteği, uzun video dosyalarını (en fazla 10 dakika) anlama ve saniye düzeyinde olay anlarını konumlandırma yeteneği, zaman sıralamasını ve hızını anlama, analiz ve konumlandırma yeteneğine dayanarak OS veya Mobil ajanları kontrol etme desteği, anahtar bilgileri çıkarma yeteneği ve Json formatında çıktı verme yeteneği güçlüdür, bu sürüm 72B versiyonudur, bu serinin en güçlü versiyonudur."
|
||
},
|
||
"qwen2.5-vl-7b-instruct": {
|
||
"description": "Qwen2.5 VL 7B Instruct, hafif çok modlu model, kurulum maliyeti ve tanıma yeteneği arasında denge sağlar."
|
||
},
|
||
"qwen2.5-vl-instruct": {
|
||
"description": "Qwen2.5-VL, Qwen model ailesinin en yeni görsel-dil modeli sürümüdür."
|
||
},
|
||
"qwen2.5:0.5b": {
|
||
"description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
|
||
},
|
||
"qwen2.5:1.5b": {
|
||
"description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
|
||
},
|
||
"qwen2.5:72b": {
|
||
"description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
|
||
},
|
||
"qwen2:0.5b": {
|
||
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
||
},
|
||
"qwen2:1.5b": {
|
||
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
||
},
|
||
"qwen2:72b": {
|
||
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
||
},
|
||
"qwen3": {
|
||
"description": "Qwen3, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve çeşitli uygulama ihtiyaçlarını mükemmel bir performansla destekler."
|
||
},
|
||
"qwen3-0.6b": {
|
||
"description": "Qwen3 0.6B, giriş seviyesi model, basit akıl yürütme ve kaynakların son derece sınırlı olduğu ortamlar için uygundur."
|
||
},
|
||
"qwen3-1.7b": {
|
||
"description": "Qwen3 1.7B, ultra hafif model, uç ve yerel cihazlara dağıtım için uygundur."
|
||
},
|
||
"qwen3-14b": {
|
||
"description": "Qwen3 14B, orta ölçekli model, çok dilli soru-cevap ve metin üretimi için uygundur."
|
||
},
|
||
"qwen3-235b-a22b": {
|
||
"description": "Qwen3 235B A22B, genel amaçlı büyük model, çeşitli karmaşık görevler için uygundur."
|
||
},
|
||
"qwen3-235b-a22b-instruct-2507": {
|
||
"description": "Qwen3 235B A22B Instruct 2507, genel amaçlı amiral gemisi talimat modeli, çoklu üretim ve akıl yürütme görevleri için uygundur."
|
||
},
|
||
"qwen3-235b-a22b-thinking-2507": {
|
||
"description": "Qwen3 235B A22B Thinking 2507, ultra büyük ölçekli düşünme modeli, yüksek zorlukta akıl yürütme için uygundur."
|
||
},
|
||
"qwen3-30b-a3b": {
|
||
"description": "Qwen3 30B A3B, orta-büyük ölçekli genel model, maliyet ve performans arasında denge sağlar."
|
||
},
|
||
"qwen3-30b-a3b-instruct-2507": {
|
||
"description": "Qwen3 30B A3B Instruct 2507, orta-büyük ölçekli talimat modeli, yüksek kaliteli üretim ve soru-cevap için uygundur."
|
||
},
|
||
"qwen3-30b-a3b-thinking-2507": {
|
||
"description": "Qwen3 30B A3B Thinking 2507, orta-büyük ölçekli düşünme modeli, doğruluk ve maliyet arasında denge sağlar."
|
||
},
|
||
"qwen3-32b": {
|
||
"description": "Qwen3 32B, daha güçlü anlama yeteneği gerektiren genel görev senaryoları için uygundur."
|
||
},
|
||
"qwen3-4b": {
|
||
"description": "Qwen3 4B, orta-küçük ölçekli uygulamalar ve yerel akıl yürütme senaryoları için uygundur."
|
||
},
|
||
"qwen3-8b": {
|
||
"description": "Qwen3 8B, hafif model, esnek dağıtım imkanı sunar ve yüksek eşzamanlı iş yükleri için uygundur."
|
||
},
|
||
"qwen3-coder-30b-a3b-instruct": {
|
||
"description": "Qwen3 tabanlı kod üretim modeli olan en yeni açık kaynaklı Tongyi Qianwen kod modeli. Güçlü Kodlama Ajanı yeteneklerine sahiptir, araç kullanımı ve çevre ile etkileşimde uzmandır. Kendi kendine programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel amaçlı beceriler de sunar."
|
||
},
|
||
"qwen3-coder-480b-a35b-instruct": {
|
||
"description": "Qwen3 Coder 480B A35B Instruct, amiral gemisi kod modeli, çoklu programlama dili ve karmaşık kod anlama desteği sunar."
|
||
},
|
||
"qwen3-coder-flash": {
|
||
"description": "Tongyi Qianwen kod modeli. En yeni Qwen3-Coder serisi modeller, Qwen3 tabanlı kod üretim modelleridir, güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrıları ve ortam etkileşiminde uzmandır, bağımsız programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel yeteneklere de sahiptir."
|
||
},
|
||
"qwen3-coder-plus": {
|
||
"description": "Tongyi Qianwen kod modeli. En yeni Qwen3-Coder serisi modeller, Qwen3 tabanlı kod üretim modelleridir, güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrıları ve ortam etkileşiminde uzmandır, bağımsız programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel yeteneklere de sahiptir."
|
||
},
|
||
"qwen3-coder:480b": {
|
||
"description": "Alibaba tarafından ajan ve kodlama görevleri için optimize edilmiş yüksek performanslı uzun bağlam modelidir."
|
||
},
|
||
"qwen3-max": {
|
||
"description": "Tongyi Qianwen 3 serisi Max modeli, 2.5 serisine kıyasla genel yeteneklerde büyük gelişme göstermiştir; hem Çince hem İngilizce metin anlama, karmaşık talimat takibi, öznel açık görevler, çoklu dil yetenekleri ve araç çağrısı yetenekleri belirgin şekilde artmıştır; model bilgi halüsinasyonları azalmıştır. En yeni qwen3-max modeli, qwen3-max-preview versiyonuna göre akıllı ajan programlama ve araç çağrısı alanlarında özel yükseltmeler içermektedir. Bu resmi sürüm modeli, alanında SOTA seviyesine ulaşmış olup, daha karmaşık ajan ihtiyaçlarına uyarlanmıştır."
|
||
},
|
||
"qwen3-max-preview": {
|
||
"description": "Tongyi Qianwen serisinin en yetenekli modeli; karmaşık ve çok adımlı görevler için uygundur. Önizleme sürümü düşünme yeteneğini desteklemektedir."
|
||
},
|
||
"qwen3-next-80b-a3b-instruct": {
|
||
"description": "Qwen3 tabanlı yeni nesil düşünmeden çalışan açık kaynak modeli, önceki sürüme (Tongyi Qianwen 3-235B-A22B-Instruct-2507) kıyasla Çince metin anlama yeteneği daha iyi, mantıksal çıkarım yeteneği geliştirilmiş ve metin üretimi görevlerinde daha başarılıdır."
|
||
},
|
||
"qwen3-next-80b-a3b-thinking": {
|
||
"description": "Qwen3 Next 80B A3B Thinking, karmaşık görevler için amiral gemisi akıl yürütme modeli sürümüdür."
|
||
},
|
||
"qwen3-omni-flash": {
|
||
"description": "Qwen-Omni modeli, metin, görsel, ses ve video gibi çoklu modların birleşik girişlerini kabul edebilir ve metin ya da ses biçiminde yanıtlar üretebilir. Çeşitli insansı ses tonları sunar, çok dilli ve lehçeli ses çıktısını destekler. Metin üretimi, görsel tanıma ve sesli asistan gibi senaryolarda kullanılabilir."
|
||
},
|
||
"qwen3-vl-235b-a22b-instruct": {
|
||
"description": "Qwen3 VL 235B A22B Instruct, amiral gemisi çok modlu model, yüksek düzeyde anlama ve içerik üretimi senaryoları için uygundur."
|
||
},
|
||
"qwen3-vl-235b-a22b-thinking": {
|
||
"description": "Qwen3 VL 235B A22B Thinking, amiral gemisi düşünme sürümü, karmaşık çok modlu akıl yürütme ve planlama görevleri için uygundur."
|
||
},
|
||
"qwen3-vl-30b-a3b-instruct": {
|
||
"description": "Qwen3 VL 30B A3B Instruct, çok modlu büyük model, doğruluk ve akıl yürütme performansını dengeler."
|
||
},
|
||
"qwen3-vl-30b-a3b-thinking": {
|
||
"description": "Qwen3 VL 30B A3B Thinking, karmaşık çok modlu görevler için derin düşünme sürümüdür."
|
||
},
|
||
"qwen3-vl-32b-instruct": {
|
||
"description": "Qwen3 VL 32B Instruct, çok modlu talimatla ince ayarlanmış model, yüksek kaliteli görsel-metin soru-cevap ve içerik üretimi için uygundur."
|
||
},
|
||
"qwen3-vl-32b-thinking": {
|
||
"description": "Qwen3 VL 32B Thinking, çok modlu derin düşünme sürümü, karmaşık akıl yürütme ve uzun zincirli analizleri güçlendirir."
|
||
},
|
||
"qwen3-vl-8b-instruct": {
|
||
"description": "Qwen3 VL 8B Instruct, hafif çok modlu model, günlük görsel soru-cevap ve uygulama entegrasyonu için uygundur."
|
||
},
|
||
"qwen3-vl-8b-thinking": {
|
||
"description": "Qwen3 VL 8B Thinking, çok modlu düşünce zinciri modeli, görsel bilgilerin ayrıntılı akıl yürütmesi için uygundur."
|
||
},
|
||
"qwen3-vl-flash": {
|
||
"description": "Qwen3 VL Flash: Gecikmeye duyarlı veya yüksek hacimli istek senaryoları için uygun, hafif ve yüksek hızlı akıl yürütme sürümüdür."
|
||
},
|
||
"qwen3-vl-plus": {
|
||
"description": "Tongyi Qianwen VL, görsel (resim) anlama yeteneğine sahip metin üretim modelidir. Sadece OCR (resim metni tanıma) yapmakla kalmaz, aynı zamanda ürün fotoğraflarından özellik çıkarma, alıştırma resimlerinden problem çözme gibi özetleme ve çıkarım yapabilir."
|
||
},
|
||
"qwq": {
|
||
"description": "QwQ, AI akıl yürütme yeteneklerini artırmaya odaklanan deneysel bir araştırma modelidir."
|
||
},
|
||
"qwq-32b": {
|
||
"description": "Qwen2.5-32B modeli üzerine eğitilmiş QwQ çıkarım modeli, pekiştirmeli öğrenme ile modelin çıkarım yeteneğini önemli ölçüde artırmıştır. Modelin matematiksel kodları ve diğer temel göstergeleri (AIME 24/25, LiveCodeBench) ile bazı genel göstergeleri (IFEval, LiveBench vb.) DeepSeek-R1 tam sürüm seviyesine ulaşmıştır ve tüm göstergeler, yine Qwen2.5-32B tabanlı olan DeepSeek-R1-Distill-Qwen-32B'yi önemli ölçüde aşmaktadır."
|
||
},
|
||
"qwq-32b-preview": {
|
||
"description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
|
||
},
|
||
"qwq-plus": {
|
||
"description": "Qwen2.5 modeli temel alınarak eğitilmiş QwQ akıl yürütme modeli, pekiştirmeli öğrenme ile modelin akıl yürütme yeteneğini büyük ölçüde artırmıştır. Model, matematik ve kodlama gibi temel göstergelerde (AIME 24/25, LiveCodeBench) ve bazı genel göstergelerde (IFEval, LiveBench vb.) DeepSeek-R1 tam sürüm seviyesine ulaşmıştır."
|
||
},
|
||
"qwq_32b": {
|
||
"description": "Qwen serisinin orta ölçekli çıkarım modelidir. Geleneksel talimat ayarlama modellerine kıyasla, düşünme ve çıkarım yeteneğine sahip QwQ, özellikle zorlu görevleri çözme konusunda, alt görevlerde performansı önemli ölçüde artırabilir."
|
||
},
|
||
"r1-1776": {
|
||
"description": "R1-1776, DeepSeek R1 modelinin bir versiyonudur ve son eğitimle, sansürsüz, tarafsız gerçek bilgileri sunar."
|
||
},
|
||
"solar-mini": {
|
||
"description": "Solar Mini, GPT-3.5'ten daha iyi performansa sahip kompakt bir LLM'dir, güçlü çok dilli yeteneklere sahiptir, İngilizce ve Korece'yi destekler ve etkili, kompakt çözümler sunar."
|
||
},
|
||
"solar-mini-ja": {
|
||
"description": "Solar Mini (Ja), Solar Mini'nin yeteneklerini genişletir, Japonca'ya odaklanır ve İngilizce ile Korece kullanımında yüksek verimlilik ve mükemmel performans sağlar."
|
||
},
|
||
"solar-pro": {
|
||
"description": "Solar Pro, Upstage tarafından sunulan yüksek akıllı LLM'dir, tek GPU talimat takibi yeteneğine odaklanır, IFEval puanı 80'in üzerindedir. Şu anda İngilizceyi desteklemekte olup, resmi versiyonu 2024 Kasım'da piyasaya sürülmesi planlanmaktadır ve dil desteği ile bağlam uzunluğunu genişletecektir."
|
||
},
|
||
"sonar": {
|
||
"description": "Arama bağlamına dayalı hafif bir arama ürünüdür, Sonar Pro'dan daha hızlı ve daha ucuzdur."
|
||
},
|
||
"sonar-deep-research": {
|
||
"description": "Deep Research, kapsamlı uzman düzeyinde araştırmalar yapar ve bunları erişilebilir, uygulanabilir raporlar haline getirir."
|
||
},
|
||
"sonar-pro": {
|
||
"description": "Gelişmiş sorgular ve takip desteği sunan, arama bağlamını destekleyen bir üst düzey arama ürünüdür."
|
||
},
|
||
"sonar-reasoning": {
|
||
"description": "DeepSeek akıl yürütme modeli tarafından desteklenen yeni API ürünü."
|
||
},
|
||
"sonar-reasoning-pro": {
|
||
"description": "DeepSeek'in akıl yürütme modeli tarafından desteklenen yeni API ürünü."
|
||
},
|
||
"spark-x": {
|
||
"description": "X1.5 Özellikleri: (1) Düşünme modunu dinamik olarak ayarlama özelliği eklendi, thinking alanı ile kontrol edilir; (2) Bağlam uzunluğu artırıldı: giriş ve çıkış için 64K; (3) FunctionCall özelliği desteklenmektedir."
|
||
},
|
||
"stable-diffusion-3-medium": {
|
||
"description": "Stability AI tarafından geliştirilen en yeni metinden görüntü oluşturma büyük modelidir. Önceki sürümlerin avantajlarını koruyarak, görüntü kalitesi, metin anlama ve stil çeşitliliği alanlarında önemli iyileştirmeler sunar. Karmaşık doğal dil istemlerini daha doğru yorumlayabilir ve daha kesin, çeşitli görüntüler oluşturabilir."
|
||
},
|
||
"stable-diffusion-3.5-large": {
|
||
"description": "stable-diffusion-3.5-large, 800 milyon parametreli çok modlu difüzyon dönüştürücü (MMDiT) metinden görüntü oluşturma modelidir. Üstün görüntü kalitesi ve istem uyumu sağlar, 1 milyon piksel yüksek çözünürlüklü görüntüler oluşturabilir ve sıradan tüketici donanımında verimli çalışabilir."
|
||
},
|
||
"stable-diffusion-3.5-large-turbo": {
|
||
"description": "stable-diffusion-3.5-large-turbo, stable-diffusion-3.5-large temel alınarak adversarial diffusion distillation (ADD) teknolojisi ile hızlandırılmış modeldir."
|
||
},
|
||
"stable-diffusion-v1.5": {
|
||
"description": "stable-diffusion-v1.5, stable-diffusion-v1.2 kontrol noktası ağırlıkları ile başlatılmış ve \"laion-aesthetics v2 5+\" üzerinde 512x512 çözünürlükte 595k adım ince ayar yapılmıştır. %10 daha az metin koşullandırması ile sınıflandırıcı olmayan rehberli örnekleme geliştirilmiştir."
|
||
},
|
||
"stable-diffusion-xl": {
|
||
"description": "stable-diffusion-xl, v1.5'e kıyasla önemli geliştirmeler içerir ve mevcut açık kaynak metinden görüntü oluşturma SOTA modeli midjourney ile benzer performans gösterir. Gelişmeler şunlardır: daha büyük unet omurgası (öncekinden 3 kat büyük); görüntü kalitesini artırmak için iyileştirme modülü eklenmesi; daha verimli eğitim teknikleri."
|
||
},
|
||
"stable-diffusion-xl-base-1.0": {
|
||
"description": "Stability AI tarafından geliştirilen ve açık kaynaklı metinden görüntü oluşturma büyük modelidir. Yaratıcı görüntü oluşturma yetenekleri sektörde öncüdür. Üstün talimat anlama yeteneğine sahiptir ve ters prompt tanımlamayı destekleyerek içeriği hassas şekilde oluşturabilir."
|
||
},
|
||
"step-1-128k": {
|
||
"description": "Performans ve maliyet arasında denge sağlar, genel senaryolar için uygundur."
|
||
},
|
||
"step-1-256k": {
|
||
"description": "Ultra uzun bağlam işleme yeteneklerine sahiptir, özellikle uzun belgelerin analizine uygundur."
|
||
},
|
||
"step-1-32k": {
|
||
"description": "Orta uzunlukta diyalogları destekler, çeşitli uygulama senaryoları için uygundur."
|
||
},
|
||
"step-1-8k": {
|
||
"description": "Küçük model, hafif görevler için uygundur."
|
||
},
|
||
"step-1-flash": {
|
||
"description": "Yüksek hızlı model, gerçek zamanlı diyaloglar için uygundur."
|
||
},
|
||
"step-1.5v-mini": {
|
||
"description": "Bu model, güçlü bir video anlama yeteneğine sahiptir."
|
||
},
|
||
"step-1o-turbo-vision": {
|
||
"description": "Bu model, güçlü bir görüntü anlama yeteneğine sahiptir, matematik ve kod alanında 1o'dan daha üstündür. Model, 1o'dan daha küçüktür ve çıktı hızı daha yüksektir."
|
||
},
|
||
"step-1o-vision-32k": {
|
||
"description": "Bu model, güçlü bir görüntü anlama yeteneğine sahiptir. Step-1v serisi modellere kıyasla daha güçlü bir görsel performansa sahiptir."
|
||
},
|
||
"step-1v-32k": {
|
||
"description": "Görsel girdi desteği sunar, çok modlu etkileşim deneyimini artırır."
|
||
},
|
||
"step-1v-8k": {
|
||
"description": "Küçük görsel model, temel metin ve görsel görevler için uygundur."
|
||
},
|
||
"step-1x-edit": {
|
||
"description": "Bu model, görüntü düzenleme görevlerine odaklanır ve kullanıcı tarafından sağlanan görüntü ve metin açıklamalarına göre görüntüyü değiştirip iyileştirebilir. Metin açıklamaları ve örnek görüntüler dahil olmak üzere çeşitli giriş formatlarını destekler. Model, kullanıcı niyetini anlayarak istenen düzenleme sonuçlarını üretir."
|
||
},
|
||
"step-1x-medium": {
|
||
"description": "Bu model güçlü görüntü oluşturma yeteneklerine sahiptir ve metin açıklamalarını giriş olarak destekler. Yerel Çince desteği ile Çince metin açıklamalarını daha iyi anlar ve işler, metin anlamını daha doğru yakalayarak görüntü özelliklerine dönüştürür ve böylece daha hassas görüntü oluşturma sağlar. Model, yüksek çözünürlüklü ve kaliteli görüntüler oluşturabilir ve belirli ölçüde stil transferi yeteneğine sahiptir."
|
||
},
|
||
"step-2-16k": {
|
||
"description": "Büyük ölçekli bağlam etkileşimlerini destekler, karmaşık diyalog senaryoları için uygundur."
|
||
},
|
||
"step-2-16k-exp": {
|
||
"description": "step-2 modelinin deneysel versiyonu, en son özellikleri içerir ve sürekli güncellenmektedir. Resmi üretim ortamında kullanılması önerilmez."
|
||
},
|
||
"step-2-mini": {
|
||
"description": "Yeni nesil kendi geliştirdiğimiz MFA Attention mimarisine dayanan hızlı büyük model, çok düşük maliyetle step1 ile benzer sonuçlar elde ederken, daha yüksek bir throughput ve daha hızlı yanıt süresi sağlıyor. Genel görevleri işleyebilme yeteneğine sahip olup, kodlama yeteneklerinde uzmanlık gösteriyor."
|
||
},
|
||
"step-2x-large": {
|
||
"description": "Jieyue Xingchen'in yeni nesil görüntü oluşturma modelidir. Model, kullanıcı tarafından sağlanan metin açıklamalarına göre yüksek kaliteli görüntüler oluşturur. Yeni model, daha gerçekçi doku ve hem Çince hem İngilizce metin oluşturma yeteneklerinde gelişmiş performans sunar."
|
||
},
|
||
"step-3": {
|
||
"description": "Bu model güçlü görsel algılama ve karmaşık akıl yürütme yeteneklerine sahiptir. Disiplinlerarası karmaşık bilgi anlayışını, matematiksel ve görsel verilerin çapraz analizini ve günlük hayattaki çeşitli görsel analiz gereksinimlerini doğru ve tutarlı şekilde yerine getirebilir."
|
||
},
|
||
"step-r1-v-mini": {
|
||
"description": "Bu model, güçlü görüntü anlama yeteneğine sahip bir çıkarım büyük modelidir, görüntü ve metin bilgilerini işleyebilir, derin düşünme sonrası metin oluşturma çıktısı verebilir. Bu model, görsel çıkarım alanında öne çıkarken, birinci sınıf matematik, kod ve metin çıkarım yeteneklerine de sahiptir. Bağlam uzunluğu 100k'dır."
|
||
},
|
||
"stepfun-ai/step3": {
|
||
"description": "Step3, StepFun tarafından yayımlanan öncü çok modlu çıkarım modelidir; 321 milyar toplam ve 38 milyar aktif parametreye sahip Uzman Karışımı (MoE) mimarisi üzerine inşa edilmiştir. Model uçtan uca bir tasarımla kod çözme maliyetlerini en aza indirmeyi hedeflerken görsel-dilsel çıkarımda üst düzey performans sunar. Çoklu matris faktorizasyonlu dikkat (MFA) ile dikkat-FFN ayrıştırmasının (AFD) uyumlu tasarımı sayesinde Step3, hem üst düzey hem de düşük kapasiteli hızlandırıcılarda yüksek verimliliğini korur. Ön eğitim aşamasında Step3, 20 trilyondan fazla metin tokeni ve 4 trilyon görsel-metin tokeni işlemiş olup on'dan fazla dili kapsar. Model, matematik, kodlama ve çok modlu görevler gibi çeşitli kıyaslama testlerinde açık kaynak modeller arasında lider düzeye ulaşmıştır."
|
||
},
|
||
"taichu_llm": {
|
||
"description": "Zidong Taichu dil büyük modeli, güçlü dil anlama yeteneği ile metin oluşturma, bilgi sorgulama, kod programlama, matematik hesaplama, mantıksal akıl yürütme, duygu analizi, metin özeti gibi yeteneklere sahiptir. Yenilikçi bir şekilde büyük veri ön eğitimi ile çok kaynaklı zengin bilgiyi birleştirir, algoritma teknolojisini sürekli olarak geliştirir ve büyük metin verilerinden kelime, yapı, dil bilgisi, anlam gibi yeni bilgileri sürekli olarak edinir, modelin performansını sürekli olarak evrimleştirir. Kullanıcılara daha kolay bilgi ve hizmetler sunar ve daha akıllı bir deneyim sağlar."
|
||
},
|
||
"taichu_o1": {
|
||
"description": "taichu_o1, yeni nesil çıkarım büyük modelidir, çok modlu etkileşim ve pekiştirme öğrenimi ile insan benzeri düşünme zincirleri oluşturur, karmaşık karar verme senaryolarını destekler, yüksek hassasiyetli çıktılar sunarken model çıkarım düşünce yollarını sergiler, strateji analizi ve derin düşünme gibi senaryolar için uygundur."
|
||
},
|
||
"taichu_vl": {
|
||
"description": "Görüntü anlama, bilgi transferi, mantıksal çıkarım gibi yetenekleri birleştirir ve görsel-işitsel soru-cevap alanında öne çıkar."
|
||
},
|
||
"tencent/Hunyuan-A13B-Instruct": {
|
||
"description": "Hunyuan-A13B-Instruct, 80 milyar parametreye sahip olup, 13 milyar parametre etkinleştirilerek daha büyük modellerle rekabet edebilir; \"hızlı düşünme/yavaş düşünme\" karma akıl yürütmeyi destekler; uzun metin anlama kararlıdır; BFCL-v3 ve τ-Bench ile doğrulanmış, ajan yeteneklerinde liderdir; GQA ve çoklu kuantizasyon formatlarıyla birleşerek verimli akıl yürütme sağlar."
|
||
},
|
||
"tencent/Hunyuan-MT-7B": {
|
||
"description": "Hunyuan Çeviri Modeli, Hunyuan-MT-7B çeviri modeli ve Hunyuan-MT-Chimera birleşik modelinden oluşur. Hunyuan-MT-7B, 7 milyar parametreye sahip hafif bir çeviri modelidir ve kaynak metni hedef dile çevirmek için kullanılır. Model, 33 dili ve 5 Çin azınlık dilini destekleyen çift yönlü çeviri yeteneğine sahiptir. WMT25 uluslararası makine çevirisi yarışmasında, katıldığı 31 dil kategorisinin 30'unda birinci olarak üstün çeviri yeteneğini kanıtlamıştır. Çeviri senaryoları için Tencent Hunyuan, ön eğitimden denetimli ince ayara, ardından çeviri güçlendirme ve birleşik güçlendirmeye kadar eksiksiz bir eğitim paradigması sunmuştur. Bu sayede benzer ölçekli modeller arasında sektör lideri performansa ulaşmıştır. Model yüksek hesaplama verimliliğine sahiptir, kolayca dağıtılabilir ve çeşitli uygulama senaryolarına uygundur."
|
||
},
|
||
"text-embedding-3-large": {
|
||
"description": "En güçlü vektörleştirme modeli, İngilizce ve diğer dillerdeki görevler için uygundur."
|
||
},
|
||
"text-embedding-3-small": {
|
||
"description": "Verimli ve ekonomik yeni nesil Embedding modeli, bilgi arama, RAG uygulamaları gibi senaryolar için uygundur."
|
||
},
|
||
"thudm/glm-4-32b": {
|
||
"description": "GLM-4-32B-0414, kod üretimi, fonksiyon çağrıları ve ajan tabanlı görevler için optimize edilmiş 32B iki dilli (Çince ve İngilizce) açık ağırlık dil modelidir. 15T yüksek kaliteli ve yeniden akıl yürütme verisi üzerinde önceden eğitilmiştir ve insan tercihleri uyumu, reddetme örnekleme ve pekiştirmeli öğrenme ile daha da geliştirilmiştir. Bu model, karmaşık akıl yürütme, nesne üretimi ve yapılandırılmış çıktı görevlerinde mükemmel performans sergilemekte ve birçok benchmark testinde GPT-4o ve DeepSeek-V3-0324 ile karşılaştırılabilir performans göstermektedir."
|
||
},
|
||
"thudm/glm-4-32b:free": {
|
||
"description": "GLM-4-32B-0414, kod üretimi, fonksiyon çağrıları ve ajan tabanlı görevler için optimize edilmiş 32B iki dilli (Çince ve İngilizce) açık ağırlık dil modelidir. 15T yüksek kaliteli ve yeniden akıl yürütme verisi üzerinde önceden eğitilmiştir ve insan tercihleri uyumu, reddetme örnekleme ve pekiştirmeli öğrenme ile daha da geliştirilmiştir. Bu model, karmaşık akıl yürütme, nesne üretimi ve yapılandırılmış çıktı görevlerinde mükemmel performans sergilemekte ve birçok benchmark testinde GPT-4o ve DeepSeek-V3-0324 ile karşılaştırılabilir performans göstermektedir."
|
||
},
|
||
"thudm/glm-4-9b-chat": {
|
||
"description": "Zhi Pu AI tarafından yayınlanan GLM-4 serisinin en son nesil ön eğitim modelinin açık kaynak versiyonudur."
|
||
},
|
||
"thudm/glm-z1-32b": {
|
||
"description": "GLM-Z1-32B-0414, GLM-4-32B'nin geliştirilmiş akıl yürütme varyantıdır ve derin matematik, mantık ve kod odaklı sorun çözme için tasarlanmıştır. Karmaşık çok adımlı görevlerin performansını artırmak için genişletilmiş pekiştirmeli öğrenme (görev spesifik ve genel çift tercih tabanlı) uygular. Temel GLM-4-32B modeline kıyasla, Z1 yapılandırılmış akıl yürütme ve formel alanlardaki yetenekleri önemli ölçüde artırmıştır.\n\nBu model, ipucu mühendisliği ile 'düşünme' adımlarını zorunlu kılmayı destekler ve uzun format çıktılar için geliştirilmiş tutarlılık sağlar. Ajan iş akışları için optimize edilmiştir ve uzun bağlamı (YaRN aracılığıyla), JSON araç çağrılarını ve kararlı akıl yürütme için ince ayar örnekleme yapılandırmalarını destekler. Derin düşünme, çok adımlı akıl yürütme veya formel çıkarım gerektiren kullanım durumları için idealdir."
|
||
},
|
||
"thudm/glm-z1-rumination-32b": {
|
||
"description": "THUDM: GLM Z1 Rumination 32B, GLM-4-Z1 serisinin 32B parametreli derin akıl yürütme modelidir ve uzun süre düşünmeyi gerektiren karmaşık, açık uçlu görevler için optimize edilmiştir. glm-4-32b-0414 temel alınarak geliştirilmiş ve ek güçlendirilmiş öğrenme aşamaları ve çok aşamalı hizalama stratejileri eklenmiştir; genişletilmiş bilişsel işleme simüle etmek için 'düşünme' yeteneği getirilmiştir. Bu, yinelemeli akıl yürütme, çok adımlı analiz ve arama, alma ve alıntı bilincine sahip sentez gibi araç artırma iş akışlarını içerir.\n\nBu model, araştırma yazımı, karşılaştırmalı analiz ve karmaşık soru-cevap konularında mükemmel performans sergiler. Arama ve navigasyon ilkelere (`search`, `click`, `open`, `finish`) yönelik işlev çağrılarını destekler, böylece ajan tabanlı boru hatlarında kullanılabilir. Düşünme davranışı, kural tabanlı ödüller ve gecikmeli karar verme mekanizması ile çok turlu döngü kontrolü ile şekillendirilir ve OpenAI iç hizalama yığını gibi derin araştırma çerçevelerine göre değerlendirilir. Bu varyant, derinlik gerektiren senaryolar için uygundur."
|
||
},
|
||
"tngtech/deepseek-r1t-chimera:free": {
|
||
"description": "DeepSeek-R1T-Chimera, DeepSeek-R1 ve DeepSeek-V3 (0324) birleştirilerek oluşturulmuştur ve R1'in akıl yürütme yetenekleri ile V3'ün token verimliliği iyileştirmelerini bir araya getirir. DeepSeek-MoE Transformer mimarisine dayanır ve genel metin üretim görevleri için optimize edilmiştir.\n\nBu model, iki kaynak modelin önceden eğitilmiş ağırlıklarını birleştirerek akıl yürütme, verimlilik ve talimat takibi görevlerinin performansını dengelemektedir. MIT lisansı altında yayımlanmış olup, araştırma ve ticari kullanım için tasarlanmıştır."
|
||
},
|
||
"togethercomputer/StripedHyena-Nous-7B": {
|
||
"description": "StripedHyena Nous (7B), etkili stratejiler ve model mimarisi ile artırılmış hesaplama yetenekleri sunar."
|
||
},
|
||
"tts-1": {
|
||
"description": "En son metinden sese model, gerçek zamanlı senaryolar için hız optimizasyonu yapılmıştır."
|
||
},
|
||
"tts-1-hd": {
|
||
"description": "En son metinden sese model, kaliteyi optimize etmek için tasarlanmıştır."
|
||
},
|
||
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
||
"description": "Upstage SOLAR Instruct v1 (11B), ince ayar gerektiren talimat görevleri için uygundur ve mükemmel dil işleme yetenekleri sunar."
|
||
},
|
||
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
||
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u aşan performans sergilemekte; geniş değerlendirmelerde mükemmel sonuçlar verirken, orta seviye modellerimizin hız ve maliyetine sahiptir."
|
||
},
|
||
"us.anthropic.claude-3-7-sonnet-20250219-v1:0": {
|
||
"description": "Claude 3.7 sonnet, Anthropic'in en hızlı bir sonraki nesil modelidir. Claude 3 Haiku ile karşılaştırıldığında, Claude 3.7 Sonnet, tüm becerilerde iyileşmeler göstermiştir ve birçok zeka standart testinde bir önceki neslin en büyük modeli olan Claude 3 Opus'u geride bırakmıştır."
|
||
},
|
||
"us.anthropic.claude-haiku-4-5-20251001-v1:0": {
|
||
"description": "Claude Haiku 4.5, Anthropic'in şimdiye kadarki en hızlı ve en akıllı Haiku modelidir; yıldırım hızında çalışır ve gelişmiş düşünme yeteneklerine sahiptir."
|
||
},
|
||
"us.anthropic.claude-sonnet-4-5-20250929-v1:0": {
|
||
"description": "Claude Sonnet 4.5, Anthropic'in bugüne kadarki en akıllı modelidir."
|
||
},
|
||
"v0-1.0-md": {
|
||
"description": "v0-1.0-md modeli, v0 API aracılığıyla hizmet veren eski bir modeldir"
|
||
},
|
||
"v0-1.5-lg": {
|
||
"description": "v0-1.5-lg modeli, ileri düzey düşünme veya muhakeme görevleri için uygundur"
|
||
},
|
||
"v0-1.5-md": {
|
||
"description": "v0-1.5-md modeli, günlük görevler ve kullanıcı arayüzü (UI) oluşturma için uygundur"
|
||
},
|
||
"vercel/v0-1.0-md": {
|
||
"description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modele erişim; belirli çerçeveler için çıkarım ve güncel bilgi içerir."
|
||
},
|
||
"vercel/v0-1.5-md": {
|
||
"description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modele erişim; belirli çerçeveler için çıkarım ve güncel bilgi içerir."
|
||
},
|
||
"volcengine/doubao-seed-code": {
|
||
"description": "Doubao-Seed-Code, ByteDance Volcengine tarafından Agentic Programming için optimize edilmiş büyük bir modeldir; birçok programlama ve ajan benchmark'ında üstün performans gösterir ve 256K bağlamı destekler."
|
||
},
|
||
"wan2.2-t2i-flash": {
|
||
"description": "Wanxiang 2.2 hızlı sürüm, mevcut en yeni modeldir. Yaratıcılık, kararlılık ve gerçekçilikte kapsamlı yükseltmeler sunar; hızlı üretim hızı ve yüksek maliyet performansı sağlar."
|
||
},
|
||
"wan2.2-t2i-plus": {
|
||
"description": "Wanxiang 2.2 profesyonel sürüm, mevcut en yeni modeldir. Yaratıcılık, kararlılık ve gerçekçilikte kapsamlı yükseltmeler sunar; detaylı ve zengin görüntüler üretir."
|
||
},
|
||
"wanx-v1": {
|
||
"description": "Temel metinden görüntü oluşturma modelidir. Tongyi Wanxiang resmi web sitesindeki 1.0 genel modeline karşılık gelir."
|
||
},
|
||
"wanx2.0-t2i-turbo": {
|
||
"description": "Doku ve portrelerde uzmandır; orta hızda ve düşük maliyetlidir. Tongyi Wanxiang resmi web sitesindeki 2.0 hızlı modele karşılık gelir."
|
||
},
|
||
"wanx2.1-t2i-plus": {
|
||
"description": "Kapsamlı yükseltilmiş versiyondur. Üretilen görüntü detayları daha zengindir, hız biraz daha yavaştır. Tongyi Wanxiang resmi web sitesindeki 2.1 profesyonel modele karşılık gelir."
|
||
},
|
||
"wanx2.1-t2i-turbo": {
|
||
"description": "Kapsamlı yükseltilmiş versiyondur. Üretim hızı hızlı, etkisi kapsamlı ve genel maliyet performansı yüksektir. Tongyi Wanxiang resmi web sitesindeki 2.1 hızlı modele karşılık gelir."
|
||
},
|
||
"whisper-1": {
|
||
"description": "Genel amaçlı konuşma tanıma modeli olup, çok dilli konuşma tanıma, konuşma çevirisi ve dil tanıma destekler."
|
||
},
|
||
"wizardlm2": {
|
||
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
||
},
|
||
"wizardlm2:8x22b": {
|
||
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
||
},
|
||
"x-ai/grok-4": {
|
||
"description": "Grok 4, xAI'nin amiral gemisi akıl yürütme modelidir; güçlü akıl yürütme ve çok modlu yetenekler sunar."
|
||
},
|
||
"x-ai/grok-4-fast": {
|
||
"description": "Grok 4 Fast, xAI'nin yüksek verimli, düşük maliyetli modelidir (2M bağlam penceresini destekler); yüksek eşzamanlılık ve uzun bağlam gerektiren senaryolar için uygundur."
|
||
},
|
||
"x-ai/grok-4-fast-non-reasoning": {
|
||
"description": "Grok 4 Fast (Non-Reasoning), xAI'nin yüksek verimli, düşük maliyetli çok modlu modelidir (2M bağlam penceresini destekler); gecikme ve maliyet açısından hassas ancak model içi akıl yürütmeye ihtiyaç duymayan senaryolar için tasarlanmıştır. Bu model, Grok 4 Fast'in akıl yürütme versiyonu ile paralel çalışır ve API'deki reasoning enable parametresi ile gerektiğinde akıl yürütme özelliği etkinleştirilebilir. Prompts ve completions, xAI veya OpenRouter tarafından gelecekteki modellerin iyileştirilmesi için kullanılabilir."
|
||
},
|
||
"x-ai/grok-4.1-fast": {
|
||
"description": "Grok 4 Fast, xAI'nin yüksek verimli, düşük maliyetli modelidir (2M bağlam penceresini destekler); yüksek eşzamanlılık ve uzun bağlam gerektiren senaryolar için uygundur."
|
||
},
|
||
"x-ai/grok-4.1-fast-non-reasoning": {
|
||
"description": "Grok 4 Fast (Non-Reasoning), xAI'nin yüksek verimli, düşük maliyetli çok modlu modelidir (2M bağlam penceresini destekler); gecikme ve maliyet açısından hassas ancak model içi akıl yürütmeye ihtiyaç duymayan senaryolar için tasarlanmıştır. Bu model, Grok 4 Fast'in akıl yürütme versiyonu ile paralel çalışır ve API'deki reasoning enable parametresi ile gerektiğinde akıl yürütme özelliği etkinleştirilebilir. Prompts ve completions, xAI veya OpenRouter tarafından gelecekteki modellerin iyileştirilmesi için kullanılabilir."
|
||
},
|
||
"x-ai/grok-code-fast-1": {
|
||
"description": "Grok Code Fast 1, xAI'nin hızlı kodlama modelidir; okunabilirlik ve mühendislik uyumluluğu yüksek çıktılar üretir."
|
||
},
|
||
"xai/grok-2": {
|
||
"description": "Grok 2, en ileri çıkarım yeteneklerine sahip öncü bir dil modelidir. Sohbet, kodlama ve çıkarımda gelişmiş yetenekler sunar ve LMSYS sıralamasında Claude 3.5 Sonnet ve GPT-4-Turbo'nun önündedir."
|
||
},
|
||
"xai/grok-2-vision": {
|
||
"description": "Grok 2 görsel modeli, görsel tabanlı görevlerde üstün performans sunar; görsel matematik çıkarımı (MathVista) ve belge tabanlı soru-cevap (DocVQA) alanlarında en ileri performansı sağlar. Belgeler, grafikler, diyagramlar, ekran görüntüleri ve fotoğraflar dahil çeşitli görsel bilgileri işleyebilir."
|
||
},
|
||
"xai/grok-3": {
|
||
"description": "xAI'nin amiral gemisi modeli olup, veri çıkarımı, kodlama ve metin özetleme gibi kurumsal kullanım durumlarında üstün performans gösterir. Finans, sağlık, hukuk ve bilim alanlarında derin alan bilgisine sahiptir."
|
||
},
|
||
"xai/grok-3-fast": {
|
||
"description": "xAI'nin amiral gemisi modeli olup, veri çıkarımı, kodlama ve metin özetleme gibi kurumsal kullanım durumlarında üstün performans gösterir. Hızlı model varyantı, daha hızlı altyapıda hizmet verir ve standart modele göre çok daha hızlı yanıt süreleri sunar. Artan hız, çıktı başına daha yüksek maliyetle dengelenir."
|
||
},
|
||
"xai/grok-3-mini": {
|
||
"description": "xAI'nin hafif modeli olup, yanıt öncesi düşünme yapar. Derin alan bilgisi gerektirmeyen basit veya mantığa dayalı görevler için idealdir. Ham düşünce izleri erişilebilir durumdadır."
|
||
},
|
||
"xai/grok-3-mini-fast": {
|
||
"description": "xAI'nin hafif modeli olup, yanıt öncesi düşünme yapar. Derin alan bilgisi gerektirmeyen basit veya mantığa dayalı görevler için idealdir. Ham düşünce izleri erişilebilir durumdadır. Hızlı model varyantı, daha hızlı altyapıda hizmet verir ve standart modele göre çok daha hızlı yanıt süreleri sunar. Artan hız, çıktı başına daha yüksek maliyetle dengelenir."
|
||
},
|
||
"xai/grok-4": {
|
||
"description": "xAI'nin en yeni ve en büyük amiral gemisi modeli olup, doğal dil, matematik ve çıkarımda eşsiz performans sunar—mükemmel çok yönlü oyuncu."
|
||
},
|
||
"yi-large": {
|
||
"description": "Yeni nesil yüz milyar parametreli model, güçlü soru yanıtlama ve metin üretim yetenekleri sunar."
|
||
},
|
||
"yi-large-fc": {
|
||
"description": "yi-large modelinin temelinde, araç çağrısı yeteneklerini destekleyip güçlendiren bir yapı sunar, çeşitli ajan veya iş akışı kurma gereksinimleri için uygundur."
|
||
},
|
||
"yi-large-preview": {
|
||
"description": "Erken sürüm, yi-large (yeni sürüm) kullanılması önerilir."
|
||
},
|
||
"yi-large-rag": {
|
||
"description": "yi-large modelinin güçlü bir hizmeti, arama ve üretim teknolojilerini birleştirerek doğru yanıtlar sunar, gerçek zamanlı olarak tüm ağdan bilgi arama hizmeti sağlar."
|
||
},
|
||
"yi-large-turbo": {
|
||
"description": "Son derece yüksek maliyet performansı ve mükemmel performans. Performans ve akıl yürütme hızı, maliyet açısından yüksek hassasiyetli ayarlama yapılır."
|
||
},
|
||
"yi-lightning": {
|
||
"description": "En yeni yüksek performanslı model, yüksek kaliteli çıktıları garanti ederken akıl yürütme hızını büyük ölçüde artırır."
|
||
},
|
||
"yi-lightning-lite": {
|
||
"description": "Hafif versiyon, yi-lightning kullanımını önerir."
|
||
},
|
||
"yi-medium": {
|
||
"description": "Orta boyutlu model, dengeli yetenekler ve yüksek maliyet performansı sunar. Talimat takibi yetenekleri derinlemesine optimize edilmiştir."
|
||
},
|
||
"yi-medium-200k": {
|
||
"description": "200K ultra uzun bağlam penceresi, uzun metinlerin derinlemesine anlaşılması ve üretilmesi yetenekleri sunar."
|
||
},
|
||
"yi-spark": {
|
||
"description": "Küçük ama etkili, hafif ve hızlı bir modeldir. Güçlendirilmiş matematiksel işlemler ve kod yazma yetenekleri sunar."
|
||
},
|
||
"yi-vision": {
|
||
"description": "Karmaşık görsel görevler için model, yüksek performanslı resim anlama ve analiz yetenekleri sunar."
|
||
},
|
||
"yi-vision-v2": {
|
||
"description": "Karmaşık görsel görevler için model, birden fazla resme dayalı yüksek performanslı anlama ve analiz yetenekleri sunar."
|
||
},
|
||
"z-ai/glm-4.5": {
|
||
"description": "GLM 4.5, Z.AI'nin amiral gemisi modelidir; hibrit akıl yürütme modlarını destekler ve mühendislik ile uzun bağlam görevleri için optimize edilmiştir."
|
||
},
|
||
"z-ai/glm-4.5-air": {
|
||
"description": "GLM 4.5 Air, GLM 4.5'in hafifletilmiş versiyonudur; maliyet hassas senaryolar için uygundur ve güçlü akıl yürütme yeteneklerini korur."
|
||
},
|
||
"z-ai/glm-4.6": {
|
||
"description": "GLM 4.6, Z.AI'nin amiral gemisi modelidir; bağlam uzunluğunu ve kodlama yeteneklerini genişletmiştir."
|
||
},
|
||
"zai-glm-4.6": {
|
||
"description": "Programlama ve akıl yürütme görevlerinde üstün performans gösterir, akışlı çıktı ve araç çağrısını destekler. Agentic kodlama ve karmaşık akıl yürütme senaryoları için uygundur."
|
||
},
|
||
"zai-org/GLM-4.5": {
|
||
"description": "GLM-4.5, akıllı ajan uygulamaları için tasarlanmış temel modeldir ve Mixture-of-Experts (MoE) mimarisi kullanır. Araç çağrısı, web tarama, yazılım mühendisliği ve ön uç programlama alanlarında derin optimizasyonlar içerir. Claude Code, Roo Code gibi kod ajanlarına sorunsuz entegrasyon destekler. GLM-4.5, karmaşık çıkarım ve günlük kullanım gibi çeşitli senaryolara uyum sağlayan hibrit çıkarım moduna sahiptir."
|
||
},
|
||
"zai-org/GLM-4.5-Air": {
|
||
"description": "GLM-4.5-Air, akıllı ajan uygulamaları için tasarlanmış temel modeldir ve Mixture-of-Experts (MoE) mimarisi kullanır. Araç çağrısı, web tarama, yazılım mühendisliği ve ön uç programlama alanlarında derin optimizasyonlar içerir. Claude Code, Roo Code gibi kod ajanlarına sorunsuz entegrasyon destekler. GLM-4.5, karmaşık çıkarım ve günlük kullanım gibi çeşitli senaryolara uyum sağlayan hibrit çıkarım moduna sahiptir."
|
||
},
|
||
"zai-org/GLM-4.5V": {
|
||
"description": "GLM-4.5V, Zhipu AI(智谱 AI) tarafından yayımlanan en son nesil görsel-dil modeli (VLM)'dir. Bu model, 106 milyar toplam parametre ve 12 milyar aktivasyon parametresine sahip amiral gemisi metin modeli GLM-4.5-Air üzerine inşa edilmiş olup, karma uzman (Mixture-of-Experts, MoE) mimarisini kullanır ve daha düşük çıkarım maliyetiyle üstün performans sağlamayı hedefler. GLM-4.5V teknik olarak GLM-4.1V-Thinking hattını sürdürürken üç boyutlu döndürmeli pozisyon kodlaması (3D-RoPE) gibi yenilikleri de getirerek üç boyutlu uzaysal ilişkilerin algılanması ve çıkarımı yeteneğini önemli ölçüde güçlendirir. Ön eğitme, denetimli ince ayar ve pekiştirmeli öğrenme aşamalarında yapılan optimizasyonlar sayesinde model; görüntü, video ve uzun belgeler gibi çeşitli görsel içerikleri işleyebilir ve 41 açık çok modlu kıyaslama testinde aynı seviyedeki açık kaynak modeller arasında en üst düzey performansa ulaşmıştır. Ayrıca modele eklenen \"düşünme modu\" anahtarı, kullanıcıların hızlı yanıt ile derin çıkarım arasında esnekçe tercih yaparak verim ile etki arasında denge kurmasına olanak tanır."
|
||
},
|
||
"zai-org/GLM-4.6": {
|
||
"description": "GLM-4.5'e kıyasla GLM-4.6 birçok önemli iyileştirme getirmiştir. Bağlam penceresi 128K'dan 200K token'a genişletilerek modelin daha karmaşık ajan görevlerini işlemesi sağlanmıştır. Model, kod bazlı testlerde daha yüksek puanlar almış ve Claude Code, Cline, Roo Code ve Kilo Code gibi uygulamalarda gerçek dünya performansını artırmıştır; özellikle görsel açıdan zengin ön yüz sayfaları oluşturma konusunda gelişmeler kaydetmiştir. GLM-4.6 çıkarım performansında belirgin artış göstermiş ve çıkarım sırasında araç kullanımını destekleyerek daha güçlü bir bütünsel yetenek sunmuştur. Araç kullanımı ve arama tabanlı ajanlarda daha iyi performans sergilemiş ve ajan çerçevelerine daha etkili entegrasyon sağlamıştır. Yazımda ise model, stil ve okunabilirlik açısından insan tercihleriyle daha uyumlu olup rol yapma senaryolarında daha doğal davranmaktadır."
|
||
},
|
||
"zai/glm-4.5": {
|
||
"description": "GLM-4.5 serisi modeller, ajanlar için özel olarak tasarlanmış temel modellerdir. Amiral gemisi GLM-4.5, 355 milyar toplam parametre (32 milyar aktif) içerir ve karma çıkarım, kodlama ve ajan yeteneklerini birleştirerek karmaşık uygulama ihtiyaçlarını karşılar. Karma çıkarım sistemi olarak çift modlu çalışma sunar."
|
||
},
|
||
"zai/glm-4.5-air": {
|
||
"description": "GLM-4.5 ve GLM-4.5-Air, ajan uygulamalarına yönelik temel modeller olarak tasarlanmış en yeni amiral gemisi modellerimizdir. Her ikisi de karma uzman (MoE) mimarisinden yararlanır. GLM-4.5 toplamda 355 milyar parametreye ve her ileri geçişte 32 milyar aktif parametreye sahiptir; GLM-4.5-Air ise daha sade bir tasarıma sahip olup toplamda 106 milyar parametre ve 12 milyar aktif parametre içerir."
|
||
},
|
||
"zai/glm-4.5v": {
|
||
"description": "GLM-4.5V, GLM-4.5-Air temel modeli üzerine inşa edilmiştir, GLM-4.1V-Thinking'in doğrulanmış teknolojisini devralır ve güçlü 106 milyar parametreli MoE mimarisi ile etkili ölçeklenebilirlik sağlar."
|
||
},
|
||
"zenmux/auto": {
|
||
"description": "ZenMux'un otomatik yönlendirme özelliği, isteğinizin içeriğine göre desteklenen modeller arasında en iyi performans ve maliyet dengesine sahip olanı otomatik olarak seçer."
|
||
}
|
||
}
|