Auf einen Blick
- Aufgaben: Entwickle und pflege Dateninfrastrukturen für KI-Modelle in der Maschinenautomatisierung.
- Arbeitgeber: Sensmore revolutioniert die Automatisierung schwerer Maschinen mit innovativer Physikalischer KI.
- Mitarbeitervorteile: Attraktive Vergütung, Aktienoptionen und regelmäßige Teamevents warten auf dich.
- Warum dieser Job: Gestalte die Zukunft der Robotik und arbeite in einem dynamischen, unterstützenden Team.
- Gewünschte Qualifikationen: Mindestens 3 Jahre Erfahrung in der Cloud-Datenpipeline-Entwicklung und Kenntnisse in Python und SQL.
- Andere Informationen: Möglichkeit zur Relocation nach Berlin und individuelle Karrierewege.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
sensmore automates the world\’s largest machines with unprecedented intelligence. Our proprietary Physical AI enables heavy machines such as wheel loaders to instantly adapt to dynamic environments and execute new tasks without prior training.
We integrate cutting-edge robotics into a platform powering intelligence and automation products – transforming productivity and safety for customers in mining, construction, and adjacent industries today.
Join us and play a pivotal role in transforming the automation landscape in heavy industries.
Role Overview:
As our Data Engineer, you will design, build, and maintain the data infrastructure that powers Sensmore\’s embodied AI and Vision-Language-Action Models (VLAMs). You\’ll collaborate with Robotics, ML and Software engineers to ensure clean, reliable data flows from our sensor arrays (radar, LiDAR, cameras, IMUs) into training and inference pipelines. This role blends classic data engineering (ETL/ELT, warehouse design, monitoring) with ML Ops best practices: model versioning, data drift detection, and automated retraining.
Key Responsibilities:
- Build & operate data pipelines: Ingest, process, and transform multi-sensor telemetry (radar point-clouds, video frames, log streams) into analytics-ready and ML-ready formats.
- Design scalable storage: Architect high-throughput, low-latency data lakes and warehouses (e.g., S3, Delta Lake, Redshift/Snowflake).
- Enable ML Ops workflows: Integrate DVC or MLflow, automate model training/retraining triggers, track data/model lineage.
- Ensure data quality: Implement validation, monitoring, and alerting to catch anomalies and schema changes early.
- Collaborate cross-functionally: Partner with Embedded Systems, Robotics, and Software teams to align on data schemas, APIs, and real-time requirements.
- Optimize performance: Tune distributed processing, queries, and storage layouts for cost-efficiency and throughput.
- Document & evangelize: Maintain clear documentation for data schemas, pipeline architectures, and ML Ops practices to uplift the whole team.
Required Qualifications:
- 3+ years of hands-on experience building production data pipelines in the cloud (AWS, GCP, or Azure).
- Proficiency in Python, SQL, and at least one big-data framework.
- Familiarity with ML Ops tooling: DVC, MLflow, Kubeflow, or similar.
- Experience designing and operating data warehouses/data lakes (e.g., Redshift, Snowflake, BigQuery, Delta Lake).
- Strong understanding of distributed systems, data serialization (Parquet, Avro), and batch vs. streaming paradigms.
- Excellent problem-solving skills and the ability to work in ambiguous, fast-paced environments.
Preferred Skills:
- Background in robotics or sensor data (radar, LiDAR, camera pipelines).
- Knowledge of real-time data processing and edge-computing constraints.
- Experience with infrastructure as code (Terraform, CloudFormation) and CI/CD for data workflows.
- Familiarity with Kubernetes and containerized deployments.
- Exposure to vision-language or action-planning ML models.
What We Offer:
- Build physical AI for the world\’s largest off-highway machinery – making them intelligent, safe, and ready for every tough task
- Join the pioneer in intelligent robotics backed by Point Nine & other Tier 1 investors
- Combine cutting-edge robotics research in end-to-end learning & Vision Language Action Model with real-world heavy mobile equipment
- Tailor your own career path, whether you like to become technical specialist or technical team lead
- Experience a great team culture, beverages, and an amazing office environment
Benefits:
- Attractive compensation package and stock options.
- Beverages on-site and regular social events.
- Engage with top-tier researchers, engineers, and thought leaders.
- Influence the future of robotic technologies and tackle significant technological challenges.
- Assistance with relocation to Berlin.
About Us:
Heavy machinery, light years ahead.
sensmore automates the world\’s largest machines with unprecedented intelligence. Our proprietary Physical AI enables heavy machines such as wheel loaders to instantly adapt to dynamic environments and execute new tasks without prior training.
We integrate cutting-edge robotics into a platform powering intelligence and automation products – transforming productivity and safety for customers in mining, construction, and adjacent industries today.
We are proudly backed by Point Nine and other Tier 1 investors. #J-18808-Ljbffr
Data Engineer / ML Ops Arbeitgeber: Sensmore
Kontaktperson:
Sensmore HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer / ML Ops
✨Netzwerken mit Fachleuten
Nutze Plattformen wie LinkedIn, um dich mit anderen Data Engineers und ML Ops-Experten zu vernetzen. Suche nach Gruppen oder Veranstaltungen, die sich auf Datenengineering und maschinelles Lernen konzentrieren, um wertvolle Kontakte zu knüpfen.
✨Projekte und Portfolios präsentieren
Erstelle ein Portfolio, das deine bisherigen Projekte im Bereich Datenpipelines und ML Ops zeigt. Zeige konkrete Beispiele, wie du Dateninfrastruktur aufgebaut und optimiert hast, um deine praktischen Fähigkeiten zu demonstrieren.
✨Technische Fähigkeiten auffrischen
Stelle sicher, dass du mit den neuesten Tools und Technologien im Bereich Datenengineering und ML Ops vertraut bist. Nimm an Online-Kursen teil oder arbeite an Projekten, die DVC, MLflow oder Kubernetes beinhalten, um deine Kenntnisse zu vertiefen.
✨Vorbereitung auf technische Interviews
Bereite dich auf technische Interviews vor, indem du häufige Fragen zu Datenpipelines, ETL-Prozessen und ML Ops-Praktiken übst. Simuliere Interviews mit Freunden oder nutze Plattformen, die technische Interviewfragen anbieten, um dein Wissen zu testen.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer / ML Ops
Tipps für deine Bewerbung 🫡
Verstehe die Rolle: Lies die Stellenbeschreibung sorgfältig durch und achte auf die spezifischen Anforderungen und Verantwortlichkeiten. Stelle sicher, dass du die Schlüsselqualifikationen und Technologien, die für die Position wichtig sind, verstehst.
Anpassung des Lebenslaufs: Passe deinen Lebenslauf an die Anforderungen der Stelle an. Hebe relevante Erfahrungen hervor, insbesondere in Bezug auf Datenpipelines, ML Ops und die verwendeten Technologien wie Python, SQL und Cloud-Plattformen.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du für diese Position geeignet bist. Gehe auf deine Erfahrungen mit Dateninfrastruktur und deine Fähigkeit ein, in einem dynamischen Umfeld zu arbeiten.
Dokumentation und Beispiele: Wenn möglich, füge Beispiele deiner bisherigen Arbeiten oder Projekte hinzu, die deine Fähigkeiten im Bereich Datenengineering und ML Ops demonstrieren. Dies kann helfen, deine Eignung für die Rolle zu unterstreichen.
Wie du dich auf ein Vorstellungsgespräch bei Sensmore vorbereitest
✨Verstehe die Technologie
Mach dich mit den Technologien vertraut, die Sensmore verwendet, insbesondere mit den Sensoren (Radar, LiDAR, Kameras) und den ML Ops-Tools (DVC, MLflow). Zeige im Interview, dass du die Herausforderungen und Möglichkeiten in der Datenverarbeitung und -integration verstehst.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte oder Erfahrungen, die deine Fähigkeiten im Aufbau von Datenpipelines und in der Arbeit mit Cloud-Diensten (AWS, GCP, Azure) demonstrieren. Sei bereit, diese Beispiele zu erläutern und wie sie auf die Anforderungen der Stelle zutreffen.
✨Zeige Teamarbeit und Zusammenarbeit
Da die Rolle eine enge Zusammenarbeit mit verschiedenen Teams erfordert, sei bereit, über deine Erfahrungen in interdisziplinären Projekten zu sprechen. Betone, wie du erfolgreich mit anderen Abteilungen zusammengearbeitet hast, um gemeinsame Ziele zu erreichen.
✨Frage nach den Herausforderungen
Stelle Fragen zu den aktuellen Herausforderungen, denen sich das Team gegenübersieht, insbesondere in Bezug auf Datenqualität und -verarbeitung. Dies zeigt dein Interesse an der Position und deine Bereitschaft, aktiv zur Lösung von Problemen beizutragen.