Intel Neural Compressor
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
Даем разработчикам возможность с помощью комплексного процесса сжатия моделей и компиляции.
Tags
Similar Tools
Other tools you might consider
Intel Neural Compressor
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
ONNX Runtime CPU EP
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
Intel OpenVINO
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
Apache TVM Unity
Shares tags: deploy, hardware & accelerators, cpu-only optimizers
overview
Microsoft Olive — это мощный инструмент, разработанный для разработчиков моделей машинного обучения и корпоративных команд, стремящихся оптимизировать свои модели для ЦП, ГП и НПУ. Он упрощает автоматизированное сжатие моделей с учетом аппаратного обеспечения и их развертывание, обеспечивая упрощенные рабочие процессы как в облачных, так и в периферийных средах.
features
Olive предлагает инновационный набор функций, который удовлетворяет потребности как начинающих, так и опытных разработчиков. Эти возможности разработаны для того, чтобы значительно сократить ручные усилия при оптимизации моделей и улучшить производительность на различных аппаратных конфигурациях.
use_cases
Microsoft Olive идеально подходит для команд, сосредоточенных на развертывании эффективных ИИ-моделей в различных средах. Независимо от того, улучшаете ли вы облачные возможности или оптимизируете для периферийных устройств, Olive выделяется как незаменимый ресурс.
Microsoft Olive разработан для разработчиков ML-моделей и корпоративных команд, стремящихся оптимизировать свои модели для аппаратного обеспечения, такого как ЦП, ГП и НПУ.
Olive в основном поддерживает модели, созданные с использованием Hugging Face и ONNX, и облегчает оптимизацию для различных сред развертывания.
Команда CLI `olive optimize` и API Python `olive.quantize()` делают этапы оптимизации моделей более интуитивно понятными, ориентируясь как на начинающих, так и на опытных разработчиков.