Voquill
Shares tags: ai
LiteLLM est une passerelle d'IA et un SDK open-source unifiant plus de 100 API de LLM avec une interface compatible OpenAI pour l'IA d'entreprise.
<a href="https://www.stork.ai/en/litellm" target="_blank" rel="noopener noreferrer"><img src="https://www.stork.ai/api/badge/litellm?style=dark" alt="LiteLLM - Featured on Stork.ai" height="36" /></a>
[](https://www.stork.ai/en/litellm)
overview
LiteLLM est une passerelle d'IA et un Python SDK open-source développé par le projet LiteLLM qui permet aux développeurs, aux équipes de plateforme et aux leaders de produits d'IA d'unifier l'accès à plus de 100 fournisseurs de LLM. Il fournit une API unique et cohérente pour gérer l'utilisation des LLM, le suivi des coûts et les mécanismes de repli. L'outil fonctionne à la fois comme une couche de normalisation d'API, traduisant divers schémas d'API de LLM dans un format compatible OpenAI, et comme une AI Gateway/Proxy pour gérer et acheminer les requêtes, gérer l'authentification et centraliser la configuration pour les flux de travail multi-modèles. Un développement notable a eu lieu le 24 mars 2026, lorsque des versions malveillantes (v1.82.7 et v1.82.8) ont été brièvement publiées sur PyPI en raison d'une attaque présumée de la chaîne d'approvisionnement ; une version propre, la v1.83.0, a été publiée le 30 mars 2026, avec des protocoles de sécurité renforcés.
quick facts
| Attribut | Valeur |
|---|---|
| Développeur | LiteLLM Project |
| Modèle économique | Freemium (Noyau open-source avec offres Enterprise) |
| Tarification | Open Source : 0 $ Gratuit ; Enterprise : Nous contacter |
| Plateformes | API, Python SDK, Serveur proxy auto-hébergé |
| API disponible | Oui (compatible OpenAI) |
| Intégrations | Plus de 100 fournisseurs de LLM (OpenAI, Anthropic, Google Gemini, Azure, Ollama, Mistral, Cohere, Hugging Face, AWS Bedrock) ; Journalisation (Langfuse, Arize Phoenix, Langsmith, OTEL, S3, GCS) |
features
LiteLLM offre un ensemble complet de fonctionnalités conçues pour simplifier l'intégration et la gestion des grands modèles linguistiques (Large Language Models) auprès de divers fournisseurs. Sa fonctionnalité principale repose sur la normalisation des API et des capacités de passerelle robustes, garantissant l'efficacité opérationnelle et le contrôle des applications d'IA.
use cases
LiteLLM est conçu pour un large éventail d'utilisateurs impliqués dans le développement, le déploiement et la gestion d'applications d'IA qui exploitent les grands modèles linguistiques (Large Language Models). Sa flexibilité en tant que SDK et passerelle auto-hébergée répond à divers besoins techniques et organisationnels.
pricing
LiteLLM fonctionne sur un modèle freemium, offrant un noyau open-source robuste aux côtés d'une solution de niveau Enterprise pour les organisations nécessitant des fonctionnalités avancées et un support dédié. La version open-source offre des fonctionnalités étendues pour les développeurs individuels et les équipes, tandis que le niveau Enterprise s'adresse aux grandes organisations ayant des exigences opérationnelles et de sécurité spécifiques.
competitors
LiteLLM évolue dans un paysage concurrentiel de passerelles d'IA et de plateformes de gestion de LLM, chacune offrant des avantages distincts. Alors que LiteLLM se concentre sur une interface open-source compatible OpenAI pour un large accès aux LLM et des fonctionnalités opérationnelles, les concurrents se différencient souvent par une observabilité, des performances ou des services gérés spécialisés.
LiteLLM est une passerelle d'IA et un Python SDK open-source développé par le projet LiteLLM qui permet aux développeurs, aux équipes de plateforme et aux leaders de produits d'IA d'unifier l'accès à plus de 100 fournisseurs de LLM. Il fournit une API unique et cohérente pour gérer l'utilisation des LLM, le suivi des coûts et les mécanismes de repli.
Oui, LiteLLM propose un niveau 'Open Source' qui est gratuit (0 $). Ce niveau comprend plus de 100 intégrations de fournisseurs de LLM, diverses intégrations de journalisation, des Virtual Keys, des Budgets, la gestion des équipes, l'équilibrage de charge, les limites RPM/TPM et les LLM Guardrails. Un niveau 'Enterprise' est disponible pour les organisations nécessitant des SLAs personnalisés, l'authentification JWT, le SSO et un support dédié, avec une tarification disponible sur demande.
Les principales fonctionnalités de LiteLLM incluent une interface unifiée compatible OpenAI pour plus de 100 fournisseurs de LLM, un suivi complet des coûts et une budgétisation, des LLM Guardrails avancés, un basculement dynamique et un équilibrage de charge pour la fiabilité, la limitation de débit et une observabilité étendue avec des intégrations à des plateformes comme Langfuse et Langsmith. Il offre également des Virtual Keys et le Prompt Management, avec des fonctionnalités Enterprise comme l'authentification JWT et le SSO.
LiteLLM est idéal pour les développeurs cherchant à intégrer plusieurs LLM avec un minimum de modifications de code, les équipes de plateforme ayant besoin d'un accès centralisé et d'une gouvernance des LLM, les leaders de produits d'IA construisant des systèmes d'IA multi-fournisseurs, et les entreprises nécessitant des solutions de passerelle d'IA auto-hébergées pour la sécurité et la conformité. Il profite également aux startups cherchant à réduire la dépendance vis-à-vis d'un fournisseur unique et à améliorer la résilience des applications.
LiteLLM se distingue en tant que Python SDK et AI Gateway open-source offrant une interface compatible OpenAI pour plus de 100 LLM, avec un fort accent sur le suivi des coûts, les guardrails et les mécanismes de repli. Des concurrents comme Portkey offrent une observabilité plus étendue pour un plus grand nombre de modèles, Helicone se spécialise dans l'analyse basée sur proxy, TrueFoundry fournit une plateforme LLM Enterprise entièrement gérée, Bifrost se concentre sur les passerelles haute performance basées sur Go avec semantic caching, et OpenRouter met l'accent sur l'accès à un vaste catalogue de modèles avec une facturation abstraite.