ONNX Runtime Web
Shares tags: deploy, self-hosted, browser/webassembly
Ermöglichen Sie Ihren Projekten Client-seitige Machine-Learning-Funktionen.
Tags
Similar Tools
Other tools you might consider
ONNX Runtime Web
Shares tags: deploy, self-hosted, browser/webassembly
Web Stable Diffusion
Shares tags: deploy, self-hosted, browser/webassembly
Mistral.rs
Shares tags: deploy, self-hosted, browser/webassembly
Pyodide + Transformers
Shares tags: deploy, self-hosted, browser/webassembly
overview
TensorFlow.js ist ein leistungsstarkes Client-seitiges Inferenzframework, das für die vollständige Ausführung von maschinellen Lernmodellen in JavaScript konzipiert wurde. Dieses innovative Werkzeug ermöglicht es Entwicklern, ML-Workflows nativ im Browser und in Node.js-Umgebungen zu erstellen, zu trainieren und bereitzustellen.
features
Entdecken Sie die leistungsstarken Funktionen von TensorFlow.js, die es bei Entwicklern und Forschern gleichermaßen beliebt machen. Von der Unterstützung fortschrittlicher Modelle bis hin zu Schulungsmöglichkeiten im Browser bietet TensorFlow.js Werkzeuge, um die Interaktivität und Geschwindigkeit Ihrer Anwendungen zu verbessern.
use_cases
TensorFlow.js umfasst verschiedene Anwendungsfälle, von der Verbesserung von Webanwendungen mit intelligenten Funktionen bis hin zur Ermöglichung von interaktiven Demos für Forscher. Ob Sie eine neue App entwickeln oder KI-Lösungen bereitstellen, TensorFlow.js bietet vielseitige Möglichkeiten für unterschiedliche Ziele.
Nein, TensorFlow.js wurde entwickelt, um vollständig in JavaScript verwendet zu werden, sodass Sie maschinelle Lernmodelle erstellen und ausführen können, ohne auf Python-Abhängigkeiten angewiesen zu sein.
Sie können eine Vielzahl von vortrainierten Modellen für Anwendungen in der Bildverarbeitung, der Verarbeitung natürlicher Sprache und der Audioanalyse nutzen. Außerdem können Sie Modelle aus dem Python-TensorFlow-Framework konvertieren.
Die kürzliche Einführung des WASM-Backends ermöglicht eine beschleunigte Leistung in modernen Browsern und liefert nahezu nativen Speed für maschinelles Lernen sowohl auf der Client- als auch auf der Serverseite.