Samba Safety trägt durch datengestützte insights dazu bei, Fahrerrisiken zu verringern und sicherere Gemeinschaften zu fördern. Die Software des Unternehmens unterstützt die Automobil- und Schifffahrtsbranche durch Aufrechterhaltung risikoarmen Fahrerprofilen, um Unfälle und Schäden zu vermeiden.
Herausforderung
Das Data-Science-Team von Samba Safety erstellte leistungsstarke Modelle, um die Risikoanalyse von Fahrern zu verbessern, aber ihr Arbeitsablauf beruhte stark auf manuellen Prozessen. Skripte für die Datenvorverarbeitung, das Modelltraining, die Abstimmung und die Validierung mussten manuell ausgeführt werden, sobald neue Daten eintrafen, und es gab keine automatisierte Versionierung oder ein Hosting für Inferenzen.
Dieser manuelle Prozess der Modellförderung war zeitaufwändig, arbeitsintensiv und bremste die Innovation. Samba benötigte eine automatisierte Lösung, die den manuellen Arbeitsablauf replizierte, mit dem bestehenden externen Code-Repository integriert werden konnte und eine kontinuierliche Bereitstellung sowohl für Schulungen als auch für Inferenzen unterstützte.
Lösung
Firemind entwickelte zwei ML-Pipelines mit AWS: eine für die Modellschulung und eine für die Inferenz. Die Trainings-Pipeline führte die benutzerdefinierten Vorverarbeitungs- und Trainingsskripte von Samba aus und stellte das resultierende Modell in Amazon SageMaker für Batch- und Echtzeit-Inferenz bereit. Die Inferenz-Pipeline verarbeitete die Vorhersageanfragen separat, um Flexibilität und Skalierbarkeit zu gewährleisten.
AWS Step Functions, SageMaker Processing und AWS Lambda wurden verwendet, um den manuellen Arbeitsablauf von Samba zu replizieren und gleichzeitig eine vollständige Automatisierung für Training, Abstimmung, Bereitstellung und Inferenzarbeitslasten hinzuzufügen. AWS CodeStar wurde in das bestehende Code-Repository von Samba integriert, um automatisierte Pipelines auszulösen, wenn Code-Updates übertragen wurden.
Genutzte Dienste
- AWS Step Functions
- AWS Lambda
- AWS CodeStar

Die Ergebnisse
- 70 % weniger Zeit bis zur Lieferung
- Schnellere Durchlaufzeiten für die Modellbereitstellung
- Verbesserte Genauigkeit der Modellergebnisse
- Vollständig automatisierter ML-Workflow
- Skalierbare Infrastruktur zur Unterstützung der kontinuierlichen Bereitstellung