AI Tool

ml-intern Bewertung

ml-intern ist der AI agent von Hugging Face, der entwickelt wurde, um den gesamten Post-Training-Workflow für machine learning models, insbesondere large language models, zu automatisieren.

ml-intern - AI tool for intern. Professional illustration showing core functionality and features.
1Veröffentlicht von Hugging Face um den 21.-22. April 2026, basierend auf dem smolagents framework.
2Erzielte eine Verbesserung von +60% auf HealthBench und steigerte den GPQA-Score eines Qwen3-1.7B models von 8,5% auf 32% in weniger als 10 Stunden.
3Bietet SOC2- und ISO certifications, mit HIPAA alignment verfügbar über ein Business Associate Agreement (BAA).
4Automatisiert Literaturrecherche, dataset discovery, Ausführung von Trainingsskripten und iterative Bewertung für LLMs.
</>Embed "Featured on Stork" Badge
Badge previewBadge preview light
<a href="https://www.stork.ai/en/ml-intern" target="_blank" rel="noopener noreferrer"><img src="https://www.stork.ai/api/badge/ml-intern?style=dark" alt="ml-intern - Featured on Stork.ai" height="36" /></a>
[![ml-intern - Featured on Stork.ai](https://www.stork.ai/api/badge/ml-intern?style=dark)](https://www.stork.ai/en/ml-intern)

overview

Was ist ml-intern?

ml-intern ist ein AI agent tool, das von Hugging Face entwickelt wurde und AI Engineers, ML Researchers, Data Scientists und Software Developers ermöglicht, Post-Training-Workflows für machine learning models, insbesondere large language models, zu automatisieren. Es fungiert als allgemeiner AI agent für machine learning engineering, der in der Lage ist, Papers zu lesen, datasets zu finden, models zu trainieren und zur Leistungsverbesserung zu iterieren.

quick facts

Kurzfakten

AttributWert
EntwicklerHugging Face
GeschäftsmodellOpen Source core, Freemium für zugehörige Dienste/Compute
PreisgestaltungDer Open-source core ist kostenlos; zugehörige Compute costs fallen für Hugging Face Jobs an. Freemium access zu GPUs, inference APIs und Hub resources für „ML Agent Explorers.“
PlattformenWeb (Hugging Face Spaces), API
API VerfügbarJa (über zugrunde liegende models und services)
IntegrationenHugging Face Hub, Hugging Face Papers, arXiv, Trackio, Anthropic API
GegründetHugging Face (2016), ml-intern veröffentlicht (April 2026)
HauptsitzNew York, NY, USA

features

Hauptmerkmale von ml-intern

ml-intern bietet eine umfassende Suite von Funktionen, die darauf ausgelegt sind, die Post-Training-Phase der Entwicklung von machine learning models, insbesondere für large language models, autonom zu verwalten und zu optimieren. Seine Architektur, die auf dem smolagents framework basiert, legt den Schwerpunkt auf die Generierung und Ausführung von Python code für Agentenaktionen, was zu einer effizienten und effektiven Workflow-Automatisierung führt.

  • 1Automatisiert End-to-End Post-Training-Workflows für large language models (LLMs).
  • 2Führt autonome Literaturrecherchen durch, indem es arXiv und Hugging Face Papers durchsucht, Methodikabschnitte liest und Zitationsgraphen durchläuft.
  • 3Entdeckt, inspiziert und formatiert datasets aus dem Hugging Face Hub für das Training neu.
  • 4Führt und debuggt ML training jobs aus, einschließlich des Starts über Hugging Face Jobs, wenn lokale Rechenleistung nicht verfügbar ist.
  • 5Führt iterative Bewertung von model outputs und Retraining durch, um benchmark performance improvements zu erzielen.
  • 6Diagnostiziert Trainingsfehler, wie z.B. reward collapse in Reinforcement Learning from Human Feedback (RLHF) pipelines.
  • 7Basiert auf dem smolagents framework, das „CodeAgent“-Instanzen verwendet, um Aktionen als Python code snippets zu schreiben.
  • 8Integriert sich nativ mit Trackio, einem Hugging Face-nativen experiment tracker, für umfassendes Experimentmanagement.
  • 9Bietet robuste Compliance mit SOC2- und ISO certifications, und HIPAA alignment ist mit einem Business Associate Agreement (BAA) verfügbar.

use cases

Wer sollte ml-intern nutzen?

ml-intern wurde für Fachleute und Forscher entwickelt, die sich mit der Entwicklung und Optimierung von machine learning models befassen, insbesondere für diejenigen, die mit large language models arbeiten. Seine autonomen Fähigkeiten rationalisieren komplexe und zeitaufwändige Aufgaben und ermöglichen es Benutzern, Forschungs- und Bereitstellungszyklen zu beschleunigen.

  • 1AI Engineers: Automatisierung komplexer LLM Post-Training-Workflows, einschließlich fine-tuning, evaluation und debugging, um die model performance und deployment efficiency zu verbessern.
  • 2ML Researchers: Rationalisierung des Forschungsprozesses durch autonome Überprüfung wissenschaftlicher Literatur (arXiv, Hugging Face Papers), Entdeckung von datasets und iterative Verbesserung von model architectures.
  • 3Data Scientists: Effizientes Erstellen, Korrigieren und Erkunden von datasets aus dem Hugging Face Hub, um Datenqualität und Bereitschaft für das model training sicherzustellen.
  • 4Software Developers: Integration autonomer ML-Fähigkeiten in Anwendungen, Nutzung von ml-intern als allgemeiner AI agent für machine learning engineering Aufgaben.
  • 5Personen, die an autonomen ML-Workflows interessiert sind: Erforschung und Bereitstellung sich selbst verbessernder machine learning systems ohne umfangreiche manuelle Eingriffe in der Post-Training-Phase.

pricing

ml-intern Preise & Pläne

ml-intern basiert auf einem open-source core model, wodurch der agent selbst kostenlos zur Verfügung steht. Sein Betrieb erfordert jedoch die Nutzung verschiedener zugrunde liegender services und Infrastruktur, was zu zugehörigen Kosten führen kann. Hugging Face bietet ein freemium model für den Zugang zu bestimmten Ressourcen.

  • 1Freemium: Kostenlos (core open-source ml-intern agent).
  • 2Compute Costs: Nutzungsbasierte Kosten fallen für das Starten von training jobs über Hugging Face Jobs oder andere cloud compute providers an.
  • 3API Keys: Externe API keys, wie ein `ANTHROPIC_API_KEY`, sind für bestimmte Funktionalitäten erforderlich und können Kosten von Drittanbietern verursachen. Ein Hugging Face token (`HF_TOKEN`) und ein GitHub personal access token (`GITHUB_TOKEN`) werden ebenfalls benötigt.
  • 4Hugging Face Hub Resources: Benutzer können „Join ML Agent Explorers“ beitreten, um kostenlosen Zugang zu GPUs, inference APIs und Hub resources zu erhalten, was auf ein Community-gesteuertes oder gestaffeltes Zugangsprogramm für die Infrastruktur hinweist.

competitors

ml-intern vs. Wettbewerber

ml-intern ist als open-source AI agent positioniert, der den komplexen und zeitaufwändigen Post-Training-Workflow für large language models automatisiert. Seine Integration in das Hugging Face ecosystem und seine nachgewiesene Leistung bei benchmarks wie GPQA unterstreichen seinen Wettbewerbsvorteil gegenüber allgemeinen AI coding agents und spezialisierten MLOps platforms.

  • 1ml-intern vs. Devin by Cognition: ml-intern spezialisiert sich auf die Automatisierung des Post-Training-Workflows für LLMs, mit Fokus auf iterative model improvement, während Devin einen breiteren Anwendungsbereich als der weltweit erste AI software engineer bietet, der in der Lage ist, vielfältige engineering tasks autonom zu planen und auszuführen.
  • 2ml-intern vs. OpenDevin: ml-intern ist ein autonomer ML agent für das Post-Training, der auf dem smolagents framework basiert, während OpenDevin ein open-source AI coding agent ist, der darauf abzielt, allgemeine AI software engineering Fähigkeiten zu replizieren und zu erweitern, mit einem breiteren Fokus auf coding tasks.
  • 3ml-intern vs. Patronus AI: ml-intern fungiert als autonomer agent, der den gesamten ML research loop durchführt, einschließlich evaluation und iteration, während Patronus AI spezialisierte Umgebungen und tools für LLM post-training bereitstellt, mit Fokus auf evaluation, feedback und verifiable reward systems, um die model improvement zu steuern.
  • 4ml-intern vs. Weights & Biases (W&B): ml-intern integriert sich mit Trackio, einem Hugging Face-nativen experiment tracker, positioniert als open-source Alternative zu W&B. W&B bietet eine breitere MLOps platform mit umfassenden tools für experiment tracking, data/model versioning, hyperparameter optimization und model management, die ml-intern durch seinen agentic approach automatisiert.
  • 5ml-intern vs. Claude Code: ml-intern zeigte eine überlegene Leistung auf dem PostTrainBench benchmark, indem es den scientific reasoning score eines Qwen3-1.7B models auf GPQA von 8,5% (Baseline) auf 32% in weniger als 10 Stunden steigerte und damit Claude Code's 22,99% bei derselben Aufgabe übertraf.

Frequently Asked Questions

+Was ist ml-intern?

ml-intern ist ein AI agent tool, das von Hugging Face entwickelt wurde und AI Engineers, ML Researchers, Data Scientists und Software Developers ermöglicht, Post-Training-Workflows für machine learning models, insbesondere large language models, zu automatisieren. Es fungiert als allgemeiner AI agent für machine learning engineering, der in der Lage ist, Papers zu lesen, datasets zu finden, models zu trainieren und zur Leistungsverbesserung zu iterieren.

+Ist ml-intern kostenlos?

Der core ml-intern agent ist open-source und kostenlos nutzbar. Benutzer können jedoch Kosten für zugehörige compute resources (z.B. Hugging Face Jobs) und externe API keys (z.B. Anthropic API Key) verursachen. Hugging Face bietet freemium access zu GPUs, inference APIs und Hub resources für „ML Agent Explorers.“

+Was sind die Hauptmerkmale von ml-intern?

ml-intern automatisiert End-to-End LLM Post-Training-Workflows, führt Literaturrecherchen auf arXiv und Hugging Face Papers durch, entdeckt und bereitet datasets aus dem Hugging Face Hub vor, führt und debuggt ML training jobs aus und führt iterative evaluation und retraining zur Leistungsverbesserung durch. Es basiert auf dem smolagents framework und integriert sich mit Trackio.

+Wer sollte ml-intern nutzen?

ml-intern ist ideal für AI Engineers, ML Researchers, Data Scientists und Software Developers, die die Post-Training-Phase der Entwicklung von machine learning models, insbesondere für large language models, durch den Einsatz eines autonomen AI agent automatisieren und beschleunigen möchten.

+Wie schneidet ml-intern im Vergleich zu Alternativen ab?

ml-intern spezialisiert sich auf autonomes LLM post-training und unterscheidet sich damit von allgemeinen AI software engineers wie Devin by Cognition und OpenDevin. Es bietet eine open-source Alternative zu MLOps platforms wie Weights & Biases für experiment tracking über Trackio und hat eine überlegene benchmark performance gegenüber agents wie Claude Code bei spezifischen scientific reasoning tasks.