Auf einen Blick
- Aufgaben: Baue und pflege Datenpipelines für IoT und AI-Anwendungen.
- Arbeitgeber: Wachsendes Startup mit Fokus auf digitale Transformation und Teamarbeit.
- Mitarbeitervorteile: Attraktives Gehalt, flexible Arbeitszeiten und Weiterbildungsmöglichkeiten.
- Andere Informationen: Moderne Arbeitsumgebung und viel Raum für eigene Ideen.
- Warum dieser Job: Gestalte innovative Lösungen und arbeite an spannenden Projekten in einem motivierten Team.
- Gewünschte Qualifikationen: Erfahrung mit Kafka, Python/Rust & SQL sowie API-Design.
Das voraussichtliche Gehalt liegt zwischen 45000 - 65000 € pro Jahr.
Bei uns zählt der Mensch, nicht das Geschlecht. Wir setzen auf Vielfalt, lehnen Diskriminierung ab und denken nicht in Kategorien.
Wir verbinden maschinennahe Kompetenz mit Daten-Intelligenz bis hin zu Agentic Workflows zur digitalen Transformation der deutschen Industrie durch smarte Lösungen. Du kannst uns dabei unterstützen! In deiner neuen Rolle baust und pflegst du die Datenpipelines (Batch/Streaming) von IoT bis AI-Anwendung. Du integrierst IoT-Daten in Analyse-Dashboards und in ML- und KI-Plattformen. Außerdem entwickelst du vielseitige Schnittstellen von REST-APIs bis Kafka und ETL-Prozesse. Darüber hinaus optimierst du die Datenarchitektur sowohl On-Premises als auch in der Cloud und stellst die Datenqualität sicher. Zudem bist du für die Data-Governance und die Dokumentation des Data-Flows und der Schnittstellen verantwortlich.
Du hast Spaß daran, an komplexen, industrienahen und modernen Software-Projekten mitzuarbeiten und möchtest Verantwortung in der AI-basierten Software-Entwicklung sowie in spannenden Industrie- und internen Projekten mit Agentic Workflows übernehmen. Das sind super Voraussetzungen. Zudem bringst du noch mit:
- Erfahrung mit Kafka, Airflow, dbt oder ähnlichen Tools
- Solide Kenntnisse in Python/Rust & SQL sowie in moderner Datenverarbeitung On-Premises und in der Cloud
- Verständnis von API-Design und modernen Standards
- Fähigkeit zur Zusammenarbeit in interdisziplinären Teams von Embedded bis AI
NICE TO HAVE
- Erfahrung mit Industrial IoT Datenquellen
- Kenntnisse in Timeseries-Datenbanken
- Cloud-Integration (AWS, Azure IoT)
- Grundlagen in DevOps/MLOps
- Security Awareness bei Datenpipelines
UNSER ANGEBOT AN DICH
- Eine Festanstellung in einem wachsenden Startup mit attraktivem Gehalt.
- Mitarbeit in einem motivierten Team mit hoher Affinität zu gemeinsamen Mittagspausen und neuen Technologien.
- Vielseitige und anspruchsvolle Aufgaben mit hohem Maß an Gestaltungsfreiheit, die dir den Freiraum bieten, eigene Ideen einzubringen und umzusetzen.
- Flexible Arbeitszeiten und die Möglichkeit zum mobilen Arbeiten sind für uns selbstverständlich.
- Weiterbildungsmöglichkeiten für deine persönliche und fachliche Entwicklung.
- Weitere Benefits wie Bistro im Gebäude und eine moderne Arbeitsumgebung (z.B. elektrisch höhenverstellbarer Schreibtisch, ergonomischer Schreibtischstuhl).
BEWIRB DICH JETZT! Untenstehenden Link anklicken, Kontaktdaten eingeben und Lebenslauf hochladen. Wir freuen uns auf dich!
Über uns: In unserem engagierten Team bekommst du den Gestaltungsspielraum, den du brauchst, um deine Projekte optimal voranzubringen. Die Zusammenarbeit im Team spielt bei uns eine große Rolle, genau wie der offene und transparente Umgang. Zudem stehen wir für hohe Qualität und großes Fach-Knowhow. Aus diesen Gründen erhältst du bei uns die nötige Unterstützung, dich weiterzuentwickeln, dein Potential auszuschöpfen und kein einzelnes Rädchen im Getriebe zu sein.
Data Engineer – Pipelines & Integration * Arbeitgeber: Tri Merge
Kontaktperson:
Tri Merge HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer – Pipelines & Integration *
✨Netzwerken, Netzwerken, Netzwerken!
Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Lass uns nicht vergessen, dass viele Jobs über persönliche Empfehlungen vergeben werden – also sei aktiv und knüpfe Kontakte!
✨Sei bereit für technische Gespräche!
Bereite dich auf technische Interviews vor, indem du deine Kenntnisse in Python, SQL und den Tools wie Kafka oder Airflow auffrischst. Wir wissen, dass du das drauf hast, also zeig es uns!
✨Präsentiere deine Projekte!
Habe eine Auswahl deiner besten Projekte parat, die deine Fähigkeiten als Data Engineer zeigen. Zeige uns, wie du Datenpipelines gebaut und optimiert hast – das wird uns beeindrucken!
✨Bewirb dich direkt über unsere Website!
Klicke auf den Link in der Stellenanzeige und lade deinen Lebenslauf hoch. Wir freuen uns darauf, dich kennenzulernen und gemeinsam an spannenden Projekten zu arbeiten!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer – Pipelines & Integration *
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wir wollen dich kennenlernen, also zeig uns, wer du wirklich bist! Lass deine Persönlichkeit in deinem Anschreiben durchscheinen und erzähl uns, warum du für die Rolle als Data Engineer brennst.
Betone deine Skills: Stell sicher, dass du deine Erfahrungen mit Kafka, Python oder SQL klar hervorhebst. Wir suchen nach konkreten Beispielen, wie du diese Tools in der Vergangenheit eingesetzt hast, um Probleme zu lösen oder Projekte voranzutreiben.
Mach es übersichtlich: Halte deinen Lebenslauf und dein Anschreiben klar und strukturiert. Verwende Absätze und Aufzählungen, um wichtige Informationen hervorzuheben. So können wir schnell erkennen, was du drauf hast!
Bewirb dich über unsere Website: Der einfachste Weg, um Teil unseres Teams zu werden, ist, dich direkt über unsere Website zu bewerben. Klicke auf den Link, lade deinen Lebenslauf hoch und gib uns die Chance, dich kennenzulernen!
Wie du dich auf ein Vorstellungsgespräch bei Tri Merge vorbereitest
✨Verstehe die Technologien
Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Kafka, Airflow und SQL. Zeige im Interview, dass du nicht nur die Theorie kennst, sondern auch praktische Erfahrungen hast. Bereite Beispiele vor, wie du diese Tools in früheren Projekten eingesetzt hast.
✨Bereite konkrete Projekte vor
Denke an spezifische Projekte, an denen du gearbeitet hast, die relevant für die Rolle sind. Sei bereit, über Herausforderungen zu sprechen, die du gemeistert hast, und wie du zur Datenqualität und -architektur beigetragen hast. Das zeigt dein Engagement und deine Problemlösungsfähigkeiten.
✨Teamarbeit betonen
Da die Zusammenarbeit in interdisziplinären Teams wichtig ist, solltest du Beispiele für erfolgreiche Teamprojekte parat haben. Erkläre, wie du mit anderen zusammengearbeitet hast, um gemeinsame Ziele zu erreichen und welche Rolle du dabei gespielt hast.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Position und am Unternehmen. Frage nach den aktuellen Projekten, der Teamdynamik oder den Möglichkeiten zur Weiterbildung. So kannst du auch herausfinden, ob das Unternehmen gut zu dir passt.