Auf einen Blick
- Aufgaben: Entwickle und pflege Dateninfrastrukturen für KI-gestützte Maschinen.
- Arbeitgeber: Sensmore revolutioniert die Automatisierung schwerer Maschinen mit innovativer Physikalischer KI.
- Mitarbeitervorteile: Attraktive Vergütung, Aktienoptionen und regelmäßige Teamevents.
- Warum dieser Job: Gestalte die Zukunft der Robotik und arbeite in einem dynamischen Team.
- Gewünschte Qualifikationen: Mindestens 3 Jahre Erfahrung in der Cloud-Datenpipeline-Entwicklung erforderlich.
- Andere Informationen: Möglichkeit zur Relocation nach Berlin und individuelle Karrierewege.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
sensmore automates the world\’s largest machines with unprecedented intelligence. Our proprietary Physical AI enables heavy machines such as wheel loaders to instantly adapt to dynamic environments and execute new tasks without prior training.
We integrate cutting-edge robotics into a platform powering intelligence and automation products – transforming productivity and safety for customers in mining, construction, and adjacent industries today.
Join us and play a pivotal role in transforming the automation landscape in heavy industries.
Role Overview:
As our Data Engineer, you will design, build, and maintain the data infrastructure that powers Sensmore’s embodied AI and Vision-Language-Action Models (VLAMs). You’ll collaborate with Robotics, ML and Software engineers to ensure clean, reliable data flows from our sensor arrays (radar, LiDAR, cameras, IMUs) into training and inference pipelines. This role blends classic data engineering (ETL/ELT, warehouse design, monitoring) with ML Ops best practices: model versioning, data drift detection, and automated retraining.
Key Responsibilities:
-
Build & operate data pipelines: Ingest, process, and transform multi-sensor telemetry (radar point-clouds, video frames, log streams) into analytics-ready and ML-ready formats.
-
Design scalable storage: Architect high-throughput, low-latency data lakes and warehouses (e.g., S3, Delta Lake, Redshift/Snowflake).
-
Enable ML Ops workflows: Integrate DVC or MLflow, automate model training/retraining triggers, track data/model lineage.
-
Ensure data quality: Implement validation, monitoring, and alerting to catch anomalies and schema changes early.
-
Collaborate cross-functionally: Partner with Embedded Systems, Robotics, and Software teams to align on data schemas, APIs, and real-time requirements.
-
Optimize performance: Tune distributed processing, queries, and storage layouts for cost-efficiency and throughput.
-
Document & evangelize: Maintain clear documentation for data schemas, pipeline architectures, and ML Ops practices to uplift the whole team.
Required Qualifications:
-
3+ years of hands-on experience building production data pipelines in the cloud (AWS, GCP, or Azure).
-
Proficiency in Python, SQL, and at least one big-data framework.
-
Familiarity with ML Ops tooling: DVC, MLflow, Kubeflow, or similar.
-
Experience designing and operating data warehouses/data lakes (e.g., Redshift, Snowflake, BigQuery, Delta Lake).
-
Strong understanding of distributed systems, data serialization (Parquet, Avro), and batch vs. streaming paradigms.
-
Excellent problem-solving skills and the ability to work in ambiguous, fast-paced environments.
Preferred Skills:
-
Background in robotics or sensor data (radar, LiDAR, camera pipelines).
-
Knowledge of real-time data processing and edge-computing constraints.
-
Experience with infrastructure as code (Terraform, CloudFormation) and CI/CD for data workflows.
-
Familiarity with Kubernetes and containerized deployments.
-
Exposure to vision-language or action-planning ML models.
What We Offer:
-
Build physical AI for the world\’s largest off-highway machinery – making them intelligent, safe, and ready for every tough task
-
Join the pioneer in intelligent robotics backed by Point Nine & other Tier 1 investors
-
Combine cutting-edge robotics research in end-to-end learning & Vision Language Action Model with real-world heavy mobile equipment
-
Tailor your own career path, whether you like to become technical specialist or technical team lead
-
Experience a great team culture, beverages, and an amazing office environment
Benefits:
-
Attractive compensation package and stock options.
-
Beverages on-site and regular social events.
-
Engage with top-tier researchers, engineers, and thought leaders.
-
Influence the future of robotic technologies and tackle significant technological challenges.
-
Assistance with relocation to Berlin.
About Us:
Heavy machinery, light years ahead.
sensmore automates the world\’s largest machines with unprecedented intelligence. Our proprietary Physical AI enables heavy machines such as wheel loaders to instantly adapt to dynamic environments and execute new tasks without prior training.
We integrate cutting-edge robotics into a platform powering intelligence and automation products – transforming productivity and safety for customers in mining, construction, and adjacent industries today.
We are proudly backed by Point Nine and other Tier 1 investors.
#J-18808-Ljbffr
Data Engineer / ML Ops Arbeitgeber: Sensmore
Kontaktperson:
Sensmore HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer / ML Ops
✨Netzwerken mit Fachleuten
Nutze Plattformen wie LinkedIn, um dich mit anderen Data Engineers und ML Ops-Experten zu vernetzen. Suche nach Gruppen oder Foren, die sich auf Datenengineering und maschinelles Lernen konzentrieren, und beteilige dich aktiv an Diskussionen.
✨Projekte und Portfolios
Erstelle ein Portfolio, das deine bisherigen Projekte im Bereich Datenpipelines und ML Ops zeigt. Zeige konkrete Beispiele, wie du Dateninfrastruktur aufgebaut und optimiert hast, um potenziellen Arbeitgebern deine Fähigkeiten zu demonstrieren.
✨Technische Meetups und Konferenzen
Besuche lokale Meetups oder Konferenzen, die sich mit Datenengineering und maschinellem Lernen befassen. Diese Veranstaltungen bieten nicht nur wertvolle Einblicke, sondern auch die Möglichkeit, direkt mit Unternehmen wie uns in Kontakt zu treten.
✨Aktive Teilnahme an Open Source Projekten
Engagiere dich in Open Source-Projekten, die sich mit Datenverarbeitung oder ML Ops beschäftigen. Dies zeigt nicht nur dein Engagement, sondern hilft dir auch, praktische Erfahrungen zu sammeln und dein Netzwerk zu erweitern.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer / ML Ops
Tipps für deine Bewerbung 🫡
Verstehe die Rolle: Lies die Stellenbeschreibung sorgfältig durch und achte auf die spezifischen Anforderungen und Verantwortlichkeiten. Stelle sicher, dass du die Schlüsselqualifikationen und -fähigkeiten, die für die Position als Data Engineer / ML Ops erforderlich sind, verstehst.
Anpassung des Lebenslaufs: Gestalte deinen Lebenslauf so, dass er die relevanten Erfahrungen und Fähigkeiten hervorhebt, die in der Stellenanzeige genannt werden. Betone deine Kenntnisse in Python, SQL und Cloud-Diensten sowie deine Erfahrung mit Datenpipelines und ML Ops-Tools.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du an der Position interessiert bist und wie deine Erfahrungen und Fähigkeiten zur Vision von sensmore passen. Gehe auf deine Leidenschaft für Datenengineering und Automatisierung ein.
Dokumentation und Nachweise: Bereite alle erforderlichen Dokumente vor, einschließlich deines Lebenslaufs, Motivationsschreibens und eventuell weiterer Nachweise über deine Qualifikationen. Achte darauf, dass alles klar und professionell formatiert ist.
Wie du dich auf ein Vorstellungsgespräch bei Sensmore vorbereitest
✨Verstehe die Technologie
Mach dich mit den Technologien und Tools vertraut, die sensmore verwendet, wie DVC, MLflow und verschiedene Cloud-Plattformen. Zeige im Interview, dass du die Prinzipien von ML Ops und Datenengineering verstehst.
✨Bereite konkrete Beispiele vor
Sei bereit, spezifische Projekte oder Erfahrungen zu teilen, bei denen du Datenpipelines erstellt oder optimiert hast. Konkrete Beispiele helfen, deine Fähigkeiten und Erfahrungen greifbar zu machen.
✨Zeige Teamarbeit
Da die Rolle eine enge Zusammenarbeit mit verschiedenen Teams erfordert, betone deine Erfahrungen in der interdisziplinären Zusammenarbeit. Erkläre, wie du erfolgreich mit anderen Abteilungen kommuniziert und zusammengearbeitet hast.
✨Frage nach Herausforderungen
Bereite Fragen vor, die zeigen, dass du an den Herausforderungen des Unternehmens interessiert bist. Frage nach den aktuellen Projekten oder Problemen, die das Team bewältigen muss, um dein Engagement zu demonstrieren.