WebLLM
Shares tags: deploy, self-hosted, browser/webassembly
Potencia tus aplicaciones web con LLMs de alto rendimiento utilizando WebLLM.
Similar Tools
Other tools you might consider
<a href="https://www.stork.ai/en/webllm" target="_blank" rel="noopener noreferrer"><img src="https://www.stork.ai/api/badge/webllm?style=dark" alt="WebLLM - Featured on Stork.ai" height="36" /></a>
[](https://www.stork.ai/en/webllm)
overview
WebLLM es un motor de inferencia de vanguardia que permite ejecutar modelos de lenguaje grande (LLMs) cuantificados completamente en el navegador. Esta herramienta innovadora aprovecha la tecnología WebGPU y WebAssembly para ofrecer un rendimiento impresionante, privacidad y versatilidad para aplicaciones web modernas.
features
WebLLM está repleto de funciones diseñadas para desarrolladores que buscan soluciones de inteligencia artificial potentes y eficientes. Con nuestra plataforma, puedes crear aplicaciones que ofrecen una experiencia de usuario fluida e interactiva.
use cases
WebLLM es perfecto para desarrolladores que buscan crear aplicaciones web centradas en la privacidad y con capacidad offline, así como extensiones de navegador. Nuestra herramienta está diseñada para potenciar tu creatividad, garantizando la integridad de los datos y la privacidad del usuario.
WebLLM admite una amplia gama de modelos de código abierto, incluidos Llama 3, Phi 3, Gemma, Mistral y Qwen, además de ofrecer flexibilidad para la integración de modelos personalizados.
WebLLM te permite ejecutar modelos localmente en el navegador, manteniendo tus datos privados y seguros sin depender de servidores externos.
Puedes integrar WebLLM fácilmente en tus proyectos utilizando NPM/Yarn o a través de un CDN, lo que permite una configuración rápida y una integración fluida en tu flujo de trabajo de desarrollo.