Intel Neural Compressor
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
Modélisation optimisée de la compression et de la compilation pour les CPU, GPU et NPU.
Tags
Similar Tools
Other tools you might consider
Intel Neural Compressor
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
ONNX Runtime CPU EP
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
Intel OpenVINO
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
Apache TVM Unity
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
overview
Microsoft Olive est un puissant ensemble d'outils de compression et de compilation de modèles, conçu pour optimiser les charges de travail en IA sur diverses plateformes matérielles. Il s'adresse à la fois aux praticiens du ML recherchant la facilité d'utilisation et aux utilisateurs avancés nécessitant un contrôle précis sur leurs modèles.
features
Avec des capacités de pointe, Olive améliore la performance des modèles grâce à des techniques de compression avancées. Nos dernières innovations garantissent une gestion plus efficace des modèles complexes, tout en mettant l'accent sur une expérience utilisateur conviviale.
use_cases
Microsoft Olive est polyvalent, répondant à divers besoins allant du déploiement de modèles d'apprentissage machine sur des dispositifs en périphérie à l'optimisation des applications d'IA basées sur le cloud. Ses fonctionnalités avancées le rendent adapté à un large éventail d'industries.
Olive prend en charge une large gamme de matériel, y compris les CPU, GPU et NPU, avec des optimisations spécifiques pour les architectures AMD et Intel.
Oui, Olive propose un cache partagé et une gestion des données simplifiée pour améliorer la collaboration entre les équipes travaillant sur des modèles d'IA.
Olive est conçu pour une utilisation facile, avec des API intuitives et des outils en ligne de commande, rendant la plateforme accessible aussi bien aux débutants qu'aux utilisateurs avancés.