lobehub/locales/it-IT/providers.json
Rdmclin2 965fc929e1
feat: add unified messaging tool for cross-platform communication (#13296)
*  feat: add cross-platform message tool for AI bot channel operations

Implement a unified message tool (`lobe-message`) that provides AI with
messaging capabilities across Discord, Telegram, Slack, Google Chat,
and IRC through a single interface with platform-specific extensions.

Core APIs: sendMessage, readMessages, editMessage, deleteMessage,
searchMessages, reactToMessage, getReactions, pin/unpin management,
channel/member info, thread operations, and polls.

Architecture follows the established builtin-tool pattern:
- Package: @lobechat/builtin-tool-message (manifest, types, executor,
  ExecutionRuntime, client components)
- Registry: registered in builtin-tools (renders, inspectors,
  interventions, streamings)
- Server runtime: stub service ready for platform adapter integration

https://claude.ai/code/session_011sHc6R7V4cSYKere9RY1QM

* feat: implement platform specific message service

* chore: add wechat platform

* chore: update wechat api service

* chore: update protocol implementation

* chore: optimize  platform api test

* fix: lark domain error

* feat: support bot message cli

* chore: refactor adapter to service

* chore: optimize bot status fetch

* fix: bot status

* fix: channel nav ignore

* feat: message tool support bot manage

* feat: add lobe-message runtime

* feat: support direct message

* feat: add history limit

* chore: update const limit

* feat: optimize  server id message history limit

* chore: optimize system role & inject platform environment info

* chore: update  readMessages vibe

* fix: form body width 50%

* chore: optimize tool prompt

* chore: update i18n files

* chore: optimize read message system role and update bot message lh

* updage readMessage api rate limit

* chore: comatible for readMessages

* fix: feishu readMessage implementation error

* fix: test case

* chore: update i18n files

* fix: lint error

* chore: add timeout for conversaction case

* fix: message test case

* fix: vite gzip error

---------

Co-authored-by: Claude <noreply@anthropic.com>
2026-03-31 00:26:32 +08:00

79 lines
15 KiB
JSON

{
"ai21.description": "AI21 Labs sviluppa modelli fondamentali e sistemi di intelligenza artificiale per le imprese, accelerando l'adozione dell'IA generativa in produzione.",
"ai302.description": "302.AI è una piattaforma di intelligenza artificiale a consumo che offre un ampio catalogo di API AI e applicazioni online.",
"ai360.description": "360 AI è una piattaforma di modelli e servizi di 360, che offre modelli NLP come 360GPT2 Pro, 360GPT Pro e 360GPT Turbo. I modelli combinano parametri su larga scala e capacità multimodali per generazione di testo, comprensione semantica, chat e codice, con prezzi flessibili per esigenze diversificate.",
"aihubmix.description": "AiHubMix consente l'accesso a più modelli di intelligenza artificiale tramite un'unica API.",
"akashchat.description": "Akash è un marketplace di risorse cloud senza autorizzazioni, con prezzi competitivi rispetto ai fornitori cloud tradizionali.",
"anthropic.description": "Anthropic sviluppa modelli linguistici avanzati come Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus e Claude 3 Haiku, bilanciando intelligenza, velocità e costi per carichi di lavoro aziendali e casi d'uso a risposta rapida.",
"azure.description": "Azure offre modelli AI avanzati, tra cui le serie GPT-3.5 e GPT-4, per diversi tipi di dati e compiti complessi, con un focus su sicurezza, affidabilità e sostenibilità.",
"azureai.description": "Azure fornisce modelli AI avanzati, tra cui le serie GPT-3.5 e GPT-4, per diversi tipi di dati e compiti complessi, con un focus su sicurezza, affidabilità e sostenibilità.",
"baichuan.description": "Baichuan AI si concentra su modelli fondamentali con elevate prestazioni nella conoscenza del cinese, elaborazione di contesti lunghi e generazione creativa. I suoi modelli (Baichuan 4, Baichuan 3 Turbo, Baichuan 3 Turbo 128k) sono ottimizzati per diversi scenari e offrono un grande valore.",
"bailiancodingplan.description": "Il piano di codifica Bailian di Aliyun è un servizio AI specializzato che offre accesso a modelli ottimizzati per la codifica come Qwen, GLM, Kimi e MiniMax tramite un endpoint dedicato.",
"bedrock.description": "Amazon Bedrock fornisce alle imprese modelli linguistici e visivi avanzati, tra cui Anthropic Claude e Meta Llama 3.1, con opzioni leggere e ad alte prestazioni per compiti di testo, chat e immagini.",
"bfl.description": "Un laboratorio di ricerca AI all'avanguardia che costruisce l'infrastruttura visiva del futuro.",
"cerebras.description": "Cerebras è una piattaforma di inferenza basata sul sistema CS-3, focalizzata su latenza ultra-bassa e throughput elevato per servizi LLM in tempo reale come generazione di codice e agenti intelligenti.",
"cloudflare.description": "Esegui modelli ML potenziati da GPU in modalità serverless sulla rete globale di Cloudflare.",
"cohere.description": "Cohere offre modelli multilingue all'avanguardia, recupero avanzato e spazi di lavoro AI per le imprese moderne, tutto in una piattaforma sicura.",
"cometapi.description": "CometAPI consente l'accesso a modelli di frontiera da OpenAI, Anthropic, Google e altri, permettendo agli utenti di scegliere il miglior modello e prezzo per casi d'uso diversi.",
"comfyui.description": "Un potente motore open-source per flussi di lavoro di generazione di immagini, video e audio, che supporta modelli come SD, FLUX, Qwen, Hunyuan e WAN con editing a nodi e distribuzione privata.",
"deepseek.description": "DeepSeek si concentra sulla ricerca e applicazione dell'IA; il suo ultimo DeepSeek-V3 supera modelli open come Qwen2.5-72B e Llama-3.1-405B, allineandosi con modelli chiusi leader come GPT-4o e Claude-3.5-Sonnet.",
"fal.description": "Una piattaforma di media generativi costruita per sviluppatori.",
"fireworksai.description": "Fireworks AI fornisce servizi avanzati di modelli linguistici con chiamate di funzione e elaborazione multimodale. Firefunction V2 (basato su Llama-3) è ottimizzato per chiamate di funzione, chat e istruzioni, mentre FireLLaVA-13B supporta input misti immagine-testo. Altri modelli includono le famiglie Llama e Mixtral.",
"giteeai.description": "Le API serverless di Gitee AI offrono servizi di inferenza LLM plug-and-play per sviluppatori.",
"github.description": "Con i modelli GitHub, gli sviluppatori possono lavorare come ingegneri AI utilizzando modelli leader del settore.",
"githubcopilot.description": "Accedi ai modelli Claude, GPT e Gemini tramite il tuo abbonamento a GitHub Copilot.",
"glmcodingplan.description": "Il piano di codifica GLM offre accesso ai modelli AI di Zhipu, inclusi GLM-5 e GLM-4.7, per attività di codifica tramite un abbonamento a tariffa fissa.",
"google.description": "La famiglia Gemini di Google è la sua AI più avanzata per uso generale, sviluppata da Google DeepMind per l'uso multimodale su testo, codice, immagini, audio e video. Si adatta dai data center ai dispositivi mobili con grande efficienza e portata.",
"groq.description": "Il motore di inferenza LPU di Groq offre prestazioni di riferimento eccezionali con velocità ed efficienza straordinarie, stabilendo un nuovo standard per l'inferenza LLM a bassa latenza nel cloud.",
"higress.description": "Higress è un gateway API cloud-native creato da Alibaba per risolvere l'impatto del reload di Tengine sulle connessioni persistenti e le lacune nel bilanciamento del carico gRPC/Dubbo.",
"huggingface.description": "L'API di inferenza di Hugging Face offre un modo rapido per esplorare migliaia di modelli per molti compiti, fornendo accesso immediato a modelli ad alte prestazioni per prototipazione e sperimentazione ML.",
"hunyuan.description": "Un LLM sviluppato da Tencent con forte capacità di scrittura in cinese, solido ragionamento in contesti complessi ed esecuzione affidabile dei compiti.",
"infiniai.description": "Fornisce agli sviluppatori di app servizi LLM ad alte prestazioni, facili da usare e sicuri, lungo l'intero flusso di lavoro, dallo sviluppo del modello alla distribuzione in produzione.",
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
"kimicodingplan.description": "Kimi Code di Moonshot AI offre accesso ai modelli Kimi, inclusi K2.5, per attività di codifica.",
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
"longcat.description": "LongCat è una serie di modelli AI generativi di grandi dimensioni sviluppati indipendentemente da Meituan. È progettato per migliorare la produttività interna dell'azienda e consentire applicazioni innovative attraverso un'architettura computazionale efficiente e potenti capacità multimodali.",
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
"minimaxcodingplan.description": "Il piano di token MiniMax offre accesso ai modelli MiniMax, inclusi M2.7, per attività di codifica tramite un abbonamento a tariffa fissa.",
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
"moonshot.description": "Moonshot, di Moonshot AI (Beijing Moonshot Technology), offre diversi modelli NLP per casi d'uso come creazione di contenuti, ricerca, raccomandazioni e analisi medica, con forte supporto per contesti lunghi e generazione complessa.",
"nebius.description": "Nebius fornisce infrastrutture ad alte prestazioni per innovatori AI globali tramite cluster GPU su larga scala e una piattaforma cloud verticalmente integrata.",
"newapi.description": "Una piattaforma open-source di aggregazione e instradamento per più servizi AI.",
"novita.description": "Novita AI offre API flessibili, affidabili ed economiche per LLM e generazione di immagini. Supporta modelli come Llama 3 e Mistral e fornisce API scalabili e adatte agli sviluppatori per startup di AI generativa.",
"nvidia.description": "NVIDIA NIM fornisce container per microservizi di inferenza auto-ospitati e accelerati da GPU su cloud, data center, PC RTX AI e workstation, per modelli pre-addestrati e personalizzati.",
"ollama.description": "Ollama offre modelli per generazione di codice, matematica, elaborazione multilingue e chat, supportando sia distribuzioni aziendali che locali.",
"ollamacloud.description": "Ollama Cloud fornisce inferenza gestita con accesso immediato alla libreria di modelli Ollama e API compatibili con OpenAI.",
"openai.description": "OpenAI è un laboratorio di ricerca AI leader che ha sviluppato i modelli GPT, avanzando l'elaborazione del linguaggio naturale con alte prestazioni e grande valore per ricerca, business e innovazione.",
"openrouter.description": "OpenRouter consente l'accesso a numerosi modelli di frontiera da OpenAI, Anthropic, LLaMA e altri, permettendo agli utenti di scegliere il miglior modello e prezzo per il proprio caso d'uso.",
"perplexity.description": "Perplexity fornisce modelli di chat avanzati, inclusi varianti di Llama 3.1, per uso online e offline e carichi di lavoro NLP complessi.",
"ppio.description": "PPIO offre API open-model affidabili ed economiche, inclusi modelli come DeepSeek, Llama, Qwen e altri leader del settore.",
"qiniu.description": "Qiniu fornisce servizi di inferenza AI in tempo reale e batch affidabili, economici e facili da usare.",
"qwen.description": "Qwen è il modello linguistico su larga scala di Alibaba Cloud con forte comprensione e generazione, coprendo Q&A, scrittura, espressione di opinioni e codice in molti ambiti.",
"replicate.description": "Replicate esegue modelli di immagini open-source come FLUX e Stable Diffusion tramite una semplice API cloud.",
"sambanova.description": "SambaNova Cloud consente agli sviluppatori di utilizzare i migliori modelli open-source con inferenza estremamente veloce.",
"search1api.description": "Search1API consente l'accesso ai modelli DeepSeek con connettività web opzionale, incluse varianti standard e rapide con diverse dimensioni di parametri.",
"sensenova.description": "SenseNova offre servizi LLM full-stack efficienti e facili da usare, supportati dall'infrastruttura di SenseTime.",
"siliconcloud.description": "SiliconCloud è un servizio cloud GenAI economico basato su solidi modelli open-source.",
"spark.description": "iFLYTEK Spark fornisce AI multilingue potente in vari settori, abilitando innovazioni in hardware intelligente, sanità, finanza e altri verticali.",
"stepfun.description": "I modelli Stepfun offrono capacità multimodali e di ragionamento complesse all'avanguardia, con comprensione di contesti lunghi e potente orchestrazione di ricerca autonoma.",
"straico.description": "Straico semplifica l'integrazione dell'IA offrendo uno spazio di lavoro unificato che riunisce i migliori modelli generativi di IA per testo, immagini e audio, offrendo a marketer, imprenditori e appassionati un accesso senza soluzione di continuità a diversi strumenti di IA.",
"taichu.description": "Un modello multimodale di nuova generazione sviluppato da CASIA e Wuhan Institute of AI, che supporta QA multi-turno, scrittura, generazione di immagini, comprensione 3D e analisi di segnali con maggiore cognizione e creatività.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fornisce QA end-to-end per imprese e sviluppatori, con servizi modulari come parsing documenti, suddivisione, embedding e riscrittura multi-turno per creare soluzioni AI personalizzate.",
"togetherai.description": "Together AI offre prestazioni leader con modelli innovativi, ampia personalizzazione, scalabilità rapida e distribuzione semplice per esigenze aziendali.",
"upstage.description": "Upstage sviluppa modelli AI per esigenze aziendali, inclusi Solar LLM e Document AI, con API di chat che supportano chiamate di funzione, traduzione, embedding e casi d'uso specifici per settore.",
"v0.description": "v0 è un assistente di pair-programming che trasforma idee in linguaggio naturale in codice e interfacce per il tuo progetto.",
"vercelaigateway.description": "Vercel AI Gateway fornisce un'API unificata per oltre 100 modelli da OpenAI, Anthropic, Google e altri, con gestione del budget, monitoraggio dell'uso, bilanciamento del carico e failover.",
"vertexai.description": "La famiglia Gemini di Google è la sua AI più avanzata per uso generale, sviluppata da Google DeepMind per l'uso multimodale su testo, codice, immagini, audio e video. Si adatta dai data center ai dispositivi mobili, migliorando efficienza e flessibilità di distribuzione.",
"vllm.description": "vLLM è una libreria veloce e facile da usare per inferenza e servizio di LLM.",
"volcengine.description": "La piattaforma di servizi di modelli di ByteDance offre accesso sicuro, ricco di funzionalità e competitivo nei costi, oltre a strumenti end-to-end per dati, fine-tuning, inferenza e valutazione.",
"volcenginecodingplan.description": "Il piano di codifica Volcengine di ByteDance offre accesso a diversi modelli di codifica, inclusi Doubao-Seed-Code, GLM-4.7, DeepSeek-V3.2 e Kimi-K2.5, tramite un abbonamento a tariffa fissa.",
"wenxin.description": "Una piattaforma aziendale all-in-one per modelli fondamentali e sviluppo di app AI-native, che offre strumenti end-to-end per flussi di lavoro di modelli e applicazioni generative.",
"xai.description": "xAI sviluppa intelligenza artificiale per accelerare la scoperta scientifica, con la missione di approfondire la comprensione dell'universo da parte dell'umanità.",
"xiaomimimo.description": "Xiaomi MiMo offre un servizio di modelli conversazionali con un'API compatibile con OpenAI. Il modello mimo-v2-flash supporta il ragionamento avanzato, l'output in streaming, le chiamate di funzione, una finestra di contesto di 256K e una produzione massima di 128K.",
"xinference.description": "Xorbits Inference (Xinference) è una piattaforma open-source che semplifica l'esecuzione e l'integrazione di modelli AI. Consente di eseguire LLM open-source, modelli di embedding e modelli multimodali localmente o nel cloud per costruire potenti app AI.",
"zenmux.description": "ZenMux è una piattaforma unificata di aggregazione AI che supporta OpenAI, Anthropic, Google VertexAI e altri, con instradamento flessibile per gestire e cambiare modelli facilmente.",
"zeroone.description": "01.AI guida una rivoluzione AI 2.0 centrata sull'uomo, utilizzando LLM per creare valore economico e sociale e costruire nuovi ecosistemi e modelli di business AI.",
"zhipu.description": "ZhiPu AI fornisce una piattaforma aperta per modelli multimodali e linguistici per elaborazione testuale, comprensione di immagini e assistenza alla programmazione."
}