Auf einen Blick
- Aufgaben: Leite die Entwicklung und Optimierung unserer Dateninfrastruktur und automatisiere Datenpipelines.
- Arbeitgeber: Werde Teil eines dynamischen Teams in einem wachsenden internationalen Markt.
- Mitarbeitervorteile: Genieße flexible Arbeitsbedingungen, umfassende Schulungen und moderne Technologien.
- Warum dieser Job: Arbeite an spannenden Projekten mit innovativen Lösungen und einer unterstützenden Teamkultur.
- Gewünschte Qualifikationen: Mindestens 5 Jahre Erfahrung im Data Engineering und tiefgehende Kenntnisse in SQL und Python.
- Andere Informationen: Fließende Deutsch- und Englischkenntnisse sind erforderlich; Geodatenkenntnisse sind von Vorteil.
Das voraussichtliche Gehalt liegt zwischen 54000 - 84000 € pro Jahr.
Als Senior Data Engineer (w/m/d) im Location Data & Analytics Team spielst Du eine Schlüsselrolle in der Entwicklung und Optimierung unserer Dateninfrastruktur. Du bist verantwortlich für den Aufbau robuster und automatisierter Datenpipelines, die Pflege unserer Datenplattform und die Unterstützung von Data Scientists und Analysten bei der Erhebung wichtiger Erkenntnisse.
- Entwurf einer nachhaltigen Datenarchitektur und Umsetzung einer performanten und stabilen Dateninfrastruktur auf der Google Cloud Platform zur Skalierung unserer Datenoperationen.
- Migration der derzeitigen On-Premise-Lösung auf Basis von PostgreSQL in eine Cloud-Lösung auf Basis von Big Query.
- Entwurf, Implementierung und Optimierung von Datenpipelines für den Umgang mit einer Vielzahl von strukturierten und unstrukturierten Datenquellen.
- Sicherstellung der Datenverfügbarkeit und -qualität durch den Einsatz von Best Practices in den Bereichen Datenmodellierung und Datenmanagement.
- Entwicklung von automatisierten DataOps-Lösungen zur Gewährleistung der Datenintegrität und -transparenz, inklusive Monitoring und Fehlerbehebung.
- Konfiguration, Implementierung und Verwaltung von Airflow zur Orchestrierung von Workflows und DataKitchen für die Implementierung von Tests und Alerts.
- Nutzung Deiner Expertise in Spatial SQL für die Verarbeitung und Analyse von Geo-, Sach- und Marktdaten.
- Zusammenarbeit mit funktionsübergreifenden Teams, um Datenprodukte zu entwickeln, die auf die Geschäftsanforderungen zugeschnitten sind.
Dein Profil
- Mindestens 5 Jahre Berufserfahrung im Bereich Data Engineering oder in einer ähnlichen Rolle.
- Tiefgreifende Kenntnisse im Umgang mit Datenbanken (SQL, PostgreSQL, OGC SQL/PostGIS, Big Query) und Skalierung von Datenplattformen.
- Erfahrung in der Arbeit mit ETL/ELT-Prozessen und Datenintegrationswerkzeugen.
Umfangreiche Erfahrung in der Python-Entwicklung, einschließlich der Beherrschung von Bibliotheken wie Pandas, NumPy, pyspark, pandera oder pytest. - Praktische Erfahrung mit Cloud Platform-Diensten und Infrastruktur als Code (IaC) für die Bereitstellung und Verwaltung von Datenlösungen – optimalerweise mit Google Cloud Platform.
- Praktische Erfahrung mit Automatisierungs- und Workflow-Orchestrierungstools wie Airflow und dbt sowie mit Data Quality Testing und Data Observability Tools wie DataKitchen.
- Praktische Erfahrung mit VCS und CI/CD mit Git, GitLab, GitHub o.ä.
Bachelor- oder Master-Abschluss in Informatik, Informationstechnologie oder einem verwandten Bereich. - Du hast Spaß an der Arbeit und gestaltest Dinge aktiv im Team und wartest nicht darauf, dass Dir Arbeit vorgegeben wird.
- Hervorragende Problemlösungsfähigkeiten und die Fähigkeit, in einem kollaborativen, agilen Umfeld zu arbeiten.
- Optimalerweise Projekterfahrung mit Geodaten und Geoinformationssystemen.
- Du sprichts fließend Deutsch (C1) und Englisch.
Gestalte deine Zukunft mit uns!
- Arbeite mit spannenden Daten und state of the art Technologielösungen.
- Wir bieten Dir umfassende Schulungen und die Möglichkeit, selbstständig in beratender und leitender Funktion im internationalen Umfeld eines attraktiven Wachstumsmarktes zu arbeiten.
- Es erwartet Dich ein hochmotiviertes, ehrgeiziges und dynamisches Team, internationale Herausforderungen und außergewöhnlich spannende Projekte in einem globalen Umfeld.
- Du wirst bei Deinen Aktivitäten vom gesamten Team unterstützt.
- Wir leben eine professionelle Feedback-Kultur mit regelmäßigen objektiven Leistungsbeurteilungen und Raum für Wachstum.
- Eine attraktive Vergütung wird durch Sozialleistungen wie betriebliche Altersvorsorge ergänzt.
- Wir statten Dich mit modernster Technologie aus und bieten Du einen Arbeitsplatz, an dem Du Dich wohlfühlst.
- Wir arbeiten mit modernen Methoden und Werkzeugen für die Softwareentwicklung und Datenanalyse und experimentieren beständig mit Innovationen.
#J-18808-Ljbffr
Lead Data Engineer (w/m/d) Arbeitgeber: Ipsos

Kontaktperson:
Ipsos HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Lead Data Engineer (w/m/d)
✨Tip Nummer 1
Nutze dein Netzwerk! Sprich mit ehemaligen Kollegen oder Bekannten, die bereits in der Datenengineering-Branche tätig sind. Oftmals erfährt man über persönliche Kontakte von offenen Stellen oder erhält wertvolle Einblicke in den Bewerbungsprozess.
✨Tip Nummer 2
Engagiere dich in relevanten Online-Communities oder Foren, die sich mit Data Engineering und Cloud-Technologien beschäftigen. Dort kannst du nicht nur dein Wissen erweitern, sondern auch potenzielle Arbeitgeber kennenlernen und dich über aktuelle Trends informieren.
✨Tip Nummer 3
Bereite dich auf technische Interviews vor, indem du häufige Fragen zu Datenpipelines, SQL und Cloud-Lösungen übst. Es kann hilfreich sein, Mock-Interviews mit Freunden oder Mentoren durchzuführen, um dein Selbstbewusstsein zu stärken.
✨Tip Nummer 4
Zeige deine Leidenschaft für Daten und Technologie in Gesprächen. Sei bereit, über Projekte zu sprechen, an denen du gearbeitet hast, und wie du Herausforderungen gemeistert hast. Dies wird dir helfen, dich von anderen Bewerbern abzuheben.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Lead Data Engineer (w/m/d)
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf spezifische Anforderungen wie Kenntnisse in SQL, PostgreSQL und Google Cloud Platform. Stelle sicher, dass du diese Punkte in deinem Lebenslauf und Anschreiben ansprichst.
Hebe relevante Erfahrungen hervor: Betone deine mindestens 5-jährige Berufserfahrung im Data Engineering und spezifische Projekte, die du geleitet hast. Zeige auf, wie du Datenpipelines entworfen und optimiert hast, um die Anforderungen des Unternehmens zu erfüllen.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du für die Position geeignet bist. Gehe auf deine Problemlösungsfähigkeiten und deine Erfahrung in der Zusammenarbeit mit funktionsübergreifenden Teams ein.
Prüfe deine Unterlagen: Bevor du deine Bewerbung einreichst, überprüfe alle Dokumente auf Vollständigkeit und Fehler. Achte darauf, dass dein Lebenslauf aktuell ist und alle relevanten Fähigkeiten und Erfahrungen klar dargestellt sind.
Wie du dich auf ein Vorstellungsgespräch bei Ipsos vorbereitest
✨Verstehe die Datenarchitektur
Mach dich mit den Grundlagen der Datenarchitektur vertraut, insbesondere im Hinblick auf Google Cloud Platform und Big Query. Sei bereit, spezifische Fragen zu beantworten, wie du eine nachhaltige Datenarchitektur entwerfen würdest.
✨Demonstriere deine ETL/ELT-Kenntnisse
Bereite Beispiele vor, in denen du erfolgreich ETL- oder ELT-Prozesse implementiert hast. Zeige, wie du Datenpipelines optimiert hast und welche Tools du dabei verwendet hast.
✨Zeige deine Programmierfähigkeiten
Sei bereit, über deine Erfahrungen mit Python und relevanten Bibliotheken wie Pandas und NumPy zu sprechen. Möglicherweise wirst du auch gebeten, ein kleines Coding-Beispiel zu lösen, also übe vorher!
✨Bereite Fragen vor
Stelle Fragen zur Unternehmenskultur, den aktuellen Projekten und den Herausforderungen, die das Team bewältigt. Dies zeigt dein Interesse und deine Bereitschaft, aktiv zum Team beizutragen.