Erstellen und verwalten Sie Machine Learning Modelle skalierbar auf verteilten Systemen unter voller Kontrolle über die Daten.
Mit mlx können Sie Einsatz und Verwaltung von ML-Modellen in der Produktionsumgebung des Kunden einfach und zentral koordinieren. Sensible Kundendaten müssen nicht übertragen werden.
Industriekunden unterscheiden sich oftmals durch ihre lokalen Anforderungen weil Maschinen in verschiedenen Umgebungen oder Prozessen eingesetzt werden. Durch mlx werden die ML-Modelle automatisch an die jeweiligen Spezifika angepasst.
Mit mlx bleibt ihr ML-basiertes Feature oder Service unbeeinträchtigt durch Maschinen, die vorübergehend offline sind. ML-Modelle werden on-edge eingesetzt und laufen autonom. Außerdem kommunizieren die Maschinen selbständig ausgehend und verbinden sich mit der Cloud sobald sie wieder online sind.
Leistungsstarke ML-Modelle auf Basis der Federated Learning Technologie für herausragende Ergebnisse. mlx entwickelt und verbessert ML-Modelle automatisch über dezentrale Datenspeicher hinweg (On-Premise, Private Cloud, Hybrid Cloud, ...).
Vergleichen Sie die Evaluationsergebnisse der eingesetzten ML-Modelle und behalten Sie die Performance-Metriken im zentralen Dashboard in Echtzeit im Blick.
Zustand der lokalen ML-Modelle, Leistung, Aktualität und Austausch können zentral verwaltet und koordiniert werden, über alle Instanzen hinweg.
Die Konfiguration der ML-Modelle in den lokalen Umgebungen kann mithilfe von Docker eingerichtet werden und ermöglicht so das remote Deployment in wenigen Minuten. Anschließend lassen sich Hardware und Performance des Leafs im zentralen mlx Dashboard überwachen.
Organisieren und Managen Sie benutzerdefinierte ML-Jobs: Integrieren Sie maßgeschneiderte Pre-Processing Schritte, erstellen oder verwenden Sie vorhandene ML-Modelle und aktivieren Sie die Pipeline mit wenigen Klicks.
Veränderungen in den lokalen Datensätzen bleiben im Blick, bei signifikaten Änderungen werden die Modelle automatisch erneut trainiert. Datenschemas lassen sich direkt aus dem Dashboard managen und verwalten.
Integrieren Sie FedML nahtlos in Ihre bestehende Umgebung und binden Sie Keras Bibliotheken mit nur wenigen Code Snippets in mlx ein.
Module in Docker Containern erlauben mithilfe von REST APIs eine einfache Integration in vorhandene IT Landschaften. mlx erlaubt es, alle gängigen Frameworks zu integrieren, um eine lokale und dezentrale Funktion zu gewährleisten.