Auf einen Blick
- Aufgaben: Leite ein Team von Dateningenieuren und entwickle skalierbare Datenpipelines.
- Arbeitgeber: Werde Teil eines innovativen Unternehmens, das sich auf Datenarchitektur in der LatAm-Region spezialisiert.
- Mitarbeitervorteile: Genieße flexible Arbeitszeiten, Remote-Arbeit und spannende Unternehmensvorteile.
- Warum dieser Job: Gestalte die Zukunft der Datenverarbeitung und arbeite in einem dynamischen, agilen Umfeld.
- Gewünschte Qualifikationen: Erforderlich sind Kenntnisse in SQL, Python/PySpark und Erfahrung mit Cloud-Technologien.
- Andere Informationen: Fließende Englischkenntnisse sind notwendig; Spanischkenntnisse sind von Vorteil.
Das voraussichtliche Gehalt liegt zwischen 54000 - 84000 € pro Jahr.
Diese Rolle ist verantwortlich für die Analyse von Geschäfts- und Systemanforderungen und die Definition der optimalen Datenstrategie zu deren Erfüllung. Der Stelleninhaber wird Datenakquisitionsstrategien entwerfen und implementieren sowie die Datenpipeline des Unternehmens durch die Sammlung, Speicherung, Verarbeitung und Transformation großer Datensätze besitzen und erweitern. Diese Rolle wird die Datenarchitektur in der LatAm-Region leiten und ist verantwortlich für ein kleines Team zur Umsetzung dieser Strategie.
Um in dieser Rolle erfolgreich zu sein, benötigen Sie ausgezeichnete analytische Fähigkeiten im Umgang mit strukturierten, semi-strukturierten und unstrukturierten Datensätzen, Expertenkenntnisse in SQL und Erfahrung mit relationalen sowie NoSQL-Datenbanksystemen. Sie müssen über Expertenkenntnisse in der Programmierung mit Python/PySpark verfügen, und es wäre vorteilhaft, wenn Sie auch Erfahrung in der Programmierung mit Java/Scala haben.
Anforderungen:
- Universitätsabschluss in Informatik, Informationssystemen, Statistik oder einem verwandten Bereich.
- Expertise in der Implementierung von Data Lake/Big Data-Projekten in der Cloud (vorzugsweise MS Azure) und/oder On-Premise-Plattformen.
- Erfahrung mit dem Cloud Azure-Technologiestack: ADLS Gen2, Databricks EventHub, Stream Analytics, Synapse Analytics, AKS, Key Vault.
- On-Premise: Spark, HDFS, Hive, Hadoop-Distributionen (Cloudera oder MapR), Kafka, Airflow (oder einen anderen Scheduler).
- Erfahrung im Entwerfen und Bauen von Lakehouse-Architekturen in Parquet/Delta und Synapse Serverless oder Databricks SQL (Kenntnisse des Unity Catalog sind ein großes Plus).
- Fähigkeit, Code modularisiert zu entwickeln, zu warten und zu verteilen.
- Berufserfahrung mit dem DevOps-Framework.
- Sehr gutes Verständnis des Softwareentwicklungszyklus, Quellcodeverwaltung, Code-Reviews usw.
- Erfahrung in der Durchführung von Ursachenanalysen zu internen und externen Daten und Prozessen, um spezifische Geschäftsfragen zu beantworten und Verbesserungspotenziale zu identifizieren.
- Erfahrung im Aufbau von Prozessen zur Unterstützung der Datenumwandlung, Datenstrukturen, Metadaten, Abhängigkeits- und Arbeitslastmanagement.
- Fähigkeit zur Zusammenarbeit mit verschiedenen Teams/Geografien/Stakeholdern/Ebenen der Seniorität.
- Energiegeladene, begeisterte und ergebnisorientierte Persönlichkeit.
- Kundenorientierung mit einem Auge auf kontinuierliche Verbesserung.
- Motivation und Fähigkeit, als Berater in Datenengineering-Projekten zu agieren.
- Fähigkeit, unabhängig, aber auch im Team zu arbeiten.
- Führungskompetenzen zur Entwicklung der Teamstrategie und zur Leitung eines Teams von 3 Personen.
- Starker Wille, die Komplexitäten bei der Entwicklung und Unterstützung von Datenpipelines zu überwinden.
- Agile Denkweise.
Sprachliche Anforderungen:
- Englisch - fließend in Wort und Schrift
- Spanisch – von Vorteil.
Hauptverantwortlichkeiten:
- Entwicklung und Leitung von Dateningenieuren (3 Personen).
- Aufbau skalierbarer, leistungsfähiger, wartungsfreundlicher und zuverlässiger Datenpipelines.
- Sie sollten Freude daran haben, Datensysteme zu optimieren sowie sie von Grund auf neu zu erstellen.
- Einrichten neuer und Überwachen bestehender Metriken, Analysieren von Daten und Zusammenarbeit mit anderen Mitgliedern des Daten- und Analytikteams zur Identifizierung und Umsetzung von System- und Prozessverbesserungen.
- Unterstützung der Sammlung von Metadaten in unser Datenkatalogsystem, wo immer verfügbar, und Sicherstellung, dass Daten genau gepflegt und katalogisiert werden.
- Definition und Implementierung des DevOps-Frameworks unter Verwendung von CI/CD.
- Enge Zusammenarbeit mit Big Data-Architekten, Datenanalysten, Data Warehouse-Ingenieuren und Datenwissenschaftlern.
- Unterstützung und Förderung einer agilen Arbeitsweise unter Verwendung des SCRUM-Frameworks.
Data Engineer - Manager Arbeitgeber: DHL Germany

Kontaktperson:
DHL Germany HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer - Manager
✨Netzwerken ist der Schlüssel
Nutze Plattformen wie LinkedIn, um mit Fachleuten aus der Datenengineering-Branche in Kontakt zu treten. Suche gezielt nach Personen, die bei StudySmarter arbeiten oder ähnliche Positionen innehaben, und versuche, ein Gespräch zu initiieren.
✨Fachliche Weiterbildung
Halte dich über die neuesten Trends und Technologien im Bereich Data Engineering auf dem Laufenden. Besuche Webinare oder Online-Kurse zu Themen wie Azure, Databricks oder DevOps, um deine Kenntnisse zu vertiefen und deine Eignung für die Rolle zu unterstreichen.
✨Praktische Erfahrungen sammeln
Falls du noch keine umfangreiche Erfahrung mit den geforderten Technologien hast, arbeite an eigenen Projekten oder trage zu Open-Source-Projekten bei. Dies zeigt nicht nur dein Engagement, sondern gibt dir auch praktische Beispiele, die du im Gespräch anführen kannst.
✨Vorbereitung auf das Vorstellungsgespräch
Bereite dich darauf vor, spezifische technische Fragen zu beantworten, insbesondere zu SQL, Python/PySpark und Cloud-Technologien. Übe auch, wie du deine bisherigen Erfahrungen und Erfolge im Datenmanagement klar und überzeugend präsentieren kannst.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer - Manager
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf spezifische Anforderungen wie Kenntnisse in SQL, Python/PySpark und Cloud-Technologien. Stelle sicher, dass du diese Punkte in deiner Bewerbung ansprichst.
Hebe relevante Erfahrungen hervor: Betone in deinem Lebenslauf und Anschreiben deine Erfahrungen mit Datenarchitekturen, Big Data Projekten und der Arbeit mit verschiedenen Datenbanksystemen. Zeige konkrete Beispiele, wie du ähnliche Herausforderungen gemeistert hast.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du deine Leidenschaft für Datenengineering und deine Führungsqualitäten darlegst. Erkläre, warum du die richtige Person für die Rolle bist und wie du das Team unterstützen kannst.
Prüfe deine Unterlagen: Bevor du deine Bewerbung einreichst, überprüfe alle Dokumente auf Vollständigkeit und Fehler. Achte darauf, dass dein Lebenslauf aktuell ist und alle relevanten Informationen enthält.
Wie du dich auf ein Vorstellungsgespräch bei DHL Germany vorbereitest
✨Verstehe die Datenarchitektur
Mach dich mit den spezifischen Anforderungen der Datenarchitektur in der LatAm-Region vertraut. Sei bereit, deine Erfahrungen mit der Implementierung von Data Lake- und Big Data-Projekten zu erläutern, insbesondere in Bezug auf Cloud-Technologien wie MS Azure.
✨Demonstriere deine Programmierkenntnisse
Bereite dich darauf vor, deine Fähigkeiten in Python/PySpark sowie in SQL zu demonstrieren. Es könnte auch hilfreich sein, Beispiele für Projekte oder Herausforderungen zu teilen, bei denen du diese Technologien erfolgreich eingesetzt hast.
✨Fokussiere auf Teamführung
Da du ein kleines Team leiten wirst, sei bereit, über deine Führungserfahrungen zu sprechen. Betone, wie du Teamstrategien entwickelst und wie du die Zusammenarbeit innerhalb des Teams förderst.
✨Agile Denkweise zeigen
Zeige, dass du mit agilen Methoden vertraut bist, insbesondere mit dem SCRUM-Framework. Bereite Beispiele vor, wie du agile Prinzipien in früheren Projekten angewendet hast, um Effizienz und Zusammenarbeit zu fördern.