Auf einen Blick
- Aufgaben: Entwickle und pflege Dateninfrastrukturen für KI-Modelle in der Robotik.
- Arbeitgeber: Sensmore revolutioniert schwere Maschinen mit intelligenter Automatisierung.
- Mitarbeitervorteile: Attraktives Gehalt, Aktienoptionen und regelmäßige Teamevents.
- Warum dieser Job: Gestalte die Zukunft der Robotik und arbeite in einem innovativen Team.
- Gewünschte Qualifikationen: Mindestens 3 Jahre Erfahrung in Cloud-Datenpipelines und Kenntnisse in Python und SQL.
- Andere Informationen: Möglichkeit zur Relocation nach Berlin.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
sensmore automatisiert die größten Maschinen der Welt mit beispielloser Intelligenz. Unsere proprietäre Physical AI ermöglicht es schweren Maschinen wie Radladern, sich sofort an dynamische Umgebungen anzupassen und neue Aufgaben ohne vorheriges Training auszuführen. Wir integrieren modernste Robotik in eine Plattform, die Intelligenz und Automatisierungsprodukte antreibt - und die Produktivität sowie Sicherheit für Kunden in der Bergbau-, Bau- und angrenzenden Branchen transformiert.
Als unser Data Engineer werden Sie die Dateninfrastruktur entwerfen, aufbauen und warten, die Sensmores verkörperte KI und Vision-Language-Action-Modelle (VLAMs) antreibt. Sie werden mit Robotik-, ML- und Software-Ingenieuren zusammenarbeiten, um sicherzustellen, dass saubere, zuverlässige Datenströme von unseren Sensorarrays (Radar, LiDAR, Kameras, IMUs) in Trainings- und Inferenzpipelines fließen.
Diese Rolle verbindet klassische Datenengineering-Praktiken (ETL/ELT, Lagerdesign, Überwachung) mit den besten Praktiken von ML Ops: Modellversionierung, Datenabweichungserkennung und automatisches Retraining.
Hauptverantwortlichkeiten:- Datenpipelines aufbauen und betreiben: Multi-Sensor-Telemetrie (Radar-Punktwolken, Video-Frames, Protokollströme) in analysierbare und ML-bereite Formate ingestieren, verarbeiten und transformieren.
- Skalierbaren Speicher entwerfen: Hochdurchsatz-, latenzarme Datenseen und -lager (z.B. S3, Delta Lake, Redshift/Snowflake) architektonisch gestalten.
- ML Ops-Workflows ermöglichen: DVC oder MLflow integrieren, Trigger für das Training/Retaining von Modellen automatisieren, Daten-/Modellverlauf verfolgen.
- Datenqualität sicherstellen: Validierung, Überwachung und Alarmierung implementieren, um Anomalien und Schemaänderungen frühzeitig zu erkennen.
- Cross-funktional zusammenarbeiten: Mit Embedded Systems, Robotik- und Softwareteams zusammenarbeiten, um sich auf Datenschemas, APIs und Echtzeitanforderungen abzustimmen.
- Leistung optimieren: Verteilte Verarbeitung, Abfragen und Speicherlayouts für Kosteneffizienz und Durchsatz optimieren.
- Dokumentieren und evangelisieren: Klare Dokumentation für Datenschemas, Pipeline-Architekturen und ML Ops-Praktiken pflegen, um das gesamte Team zu unterstützen.
- 3+ Jahre praktische Erfahrung im Aufbau von Produktionsdatenpipelines in der Cloud (AWS, GCP oder Azure).
- Kenntnisse in Python, SQL und mindestens einem Big-Data-Framework.
- Vertrautheit mit ML Ops-Tools: DVC, MLflow, Kubeflow oder ähnlichem.
- Erfahrung im Entwurf und Betrieb von Datenlagern/Datenseen (z.B. Redshift, Snowflake, BigQuery, Delta Lake).
- Starkes Verständnis von verteilten Systemen, Datenserialisierung (Parquet, Avro) und Batch- vs. Streaming-Paradigmen.
- Ausgezeichnete Problemlösungsfähigkeiten und die Fähigkeit, in unklaren, schnelllebigen Umgebungen zu arbeiten.
- Hintergrund in Robotik oder Sensordaten (Radar, LiDAR, Kamerapipelines).
- Kenntnisse über Echtzeitdatenverarbeitung und Edge-Computing-Beschränkungen.
- Erfahrung mit Infrastruktur als Code (Terraform, CloudFormation) und CI/CD für Daten-Workflows.
- Vertrautheit mit Kubernetes und containerisierten Bereitstellungen.
- Einblick in Vision-Language- oder Action-Planning-ML-Modelle.
- Physische KI für die größten Maschinen außerhalb der Straße entwickeln – sie intelligent, sicher und bereit für jede schwierige Aufgabe machen.
- Dem Pionier in intelligenter Robotik beitreten, unterstützt von Point Nine und anderen Tier-1-Investoren.
- Modernste Robotikforschung in End-to-End-Lernen & Vision Language Action Model mit realen schweren mobilen Geräten kombinieren.
- Den eigenen Karriereweg gestalten, ob man technischer Spezialist oder technischer Teamleiter werden möchte.
- Eine großartige Teamkultur, Getränke und ein erstaunliches Büroumfeld erleben.
- Attraktives Vergütungspaket und Aktienoptionen.
- Getränke vor Ort und regelmäßige gesellschaftliche Veranstaltungen.
- Mit Spitzenforschern, Ingenieuren und Vordenkern interagieren.
- Die Zukunft der Robotiktechnologien beeinflussen und bedeutende technologische Herausforderungen angehen.
- Unterstützung bei der Umsiedlung nach Berlin.
Kontaktperson:
Sensmore HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer
✨Tipp Nummer 1
Netzwerke sind entscheidend! Nutze Plattformen wie LinkedIn, um mit Fachleuten aus der Branche in Kontakt zu treten. Suche nach Gruppen oder Foren, die sich mit Data Engineering und Robotik beschäftigen, und beteilige dich aktiv an Diskussionen.
✨Tipp Nummer 2
Bleibe auf dem neuesten Stand der Technologien! Informiere dich über aktuelle Trends in der Datenverarbeitung und ML Ops. Besuche Webinare oder Konferenzen, um dein Wissen zu erweitern und potenzielle Arbeitgeber kennenzulernen.
✨Tipp Nummer 3
Praktische Erfahrung ist Gold wert! Arbeite an eigenen Projekten oder trage zu Open-Source-Projekten bei, die sich mit Datenpipelines oder ML Ops befassen. Dies zeigt nicht nur deine Fähigkeiten, sondern auch dein Engagement für das Fachgebiet.
✨Tipp Nummer 4
Bereite dich auf technische Interviews vor! Übe häufige Fragen zu Datenarchitekturen, ETL-Prozessen und den von dir verwendeten Technologien. Simuliere Interviews mit Freunden oder nutze Online-Plattformen, um dein Selbstvertrauen zu stärken.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer
Tipps für deine Bewerbung 🫡
Verstehe die Rolle: Lies die Stellenbeschreibung sorgfältig durch und achte auf die spezifischen Anforderungen und Verantwortlichkeiten. Stelle sicher, dass du die Schlüsselqualifikationen und Technologien, die für die Position als Data Engineer wichtig sind, verstehst.
Anpassung des Lebenslaufs: Passe deinen Lebenslauf an die Anforderungen der Stelle an. Hebe relevante Erfahrungen hervor, insbesondere in Bezug auf Datenpipelines, Cloud-Technologien und ML Ops. Verwende spezifische Begriffe aus der Stellenbeschreibung, um deine Eignung zu unterstreichen.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, das deine Leidenschaft für Datenengineering und Automatisierung zeigt. Erkläre, warum du bei Sensmore arbeiten möchtest und wie deine Fähigkeiten zur Transformation der Automatisierungslandschaft beitragen können.
Dokumentation und Nachweise: Bereite alle erforderlichen Dokumente vor, einschließlich Nachweisen über deine technischen Fähigkeiten, Projekterfahrungen und eventuell relevante Zertifikate. Achte darauf, dass alles klar und professionell formatiert ist.
Wie du dich auf ein Vorstellungsgespräch bei Sensmore vorbereitest
✨Verstehe die Technologie
Mach dich mit den Technologien und Tools vertraut, die sensmore verwendet, wie AWS, GCP oder Azure. Zeige im Interview, dass du die Prinzipien von ETL/ELT und Datenpipeline-Architekturen verstehst.
✨Bereite Beispiele vor
Sei bereit, konkrete Beispiele aus deiner bisherigen Erfahrung zu teilen, insbesondere in Bezug auf den Aufbau von Datenpipelines und die Implementierung von ML Ops. Dies zeigt deine praktische Erfahrung und Problemlösungsfähigkeiten.
✨Zeige Teamarbeit
Da die Rolle eine enge Zusammenarbeit mit verschiedenen Teams erfordert, betone deine Erfahrungen in der interdisziplinären Zusammenarbeit. Erkläre, wie du erfolgreich mit anderen Ingenieuren und Fachleuten kommuniziert hast.
✨Frage nach Herausforderungen
Stelle Fragen zu den aktuellen Herausforderungen, denen sich das Team gegenübersieht, insbesondere in Bezug auf Datenqualität und -verarbeitung. Dies zeigt dein Interesse an der Rolle und deine Bereitschaft, aktiv zur Lösung beizutragen.