Auf einen Blick
- Aufgaben: Entwickle und optimiere unsere Dateninfrastruktur und automatisierte Datenpipelines.
- Arbeitgeber: Infas 360 ist ein führender Anbieter für Datenanalysen und Business Mapping.
- Mitarbeitervorteile: Attraktive Vergütung, betriebliche Altersvorsorge und modernste Technologie.
- Warum dieser Job: Arbeite in einem dynamischen Team an spannenden Projekten mit internationalem Einfluss.
- Gewünschte Qualifikationen: Mindestens 5 Jahre Erfahrung im Data Engineering und tiefgreifende Kenntnisse in SQL und Python.
- Andere Informationen: Regelmäßige Feedback-Kultur und Raum für persönliches Wachstum.
Das voraussichtliche Gehalt liegt zwischen 43200 - 84000 € pro Jahr.
infas 360 berät Wirtschaft und Wissenschaft im Nutzen aller verfügbaren Daten und Analysen, um bessere strategische Entscheidungen zu treffen sowie operative Planungen und Maßnahmen zu optimieren. Basis der Beratung sind die Sammlung und Kombination aller verfügbaren Datenquellen, die fortlaufend aktualisiert und analytisch aufbereitet werden. Zudem verfügen wir mit easymap über eine der international führenden Anwendungen für Business Mapping.
Die infas 360 hat sich als Teil der international agierenden Ipsos Gruppe als Full-Service-Anbieter darauf spezialisiert soziales Handeln, gesellschaftlich wie ökonomisch, in ihrer räumlichen und zeitlichen Dimension darstellbar zu machen.
Das Location Data & Analytics Team der Infas 360, einem Ipsos-Unternehmen, entwickelt standardisierte und integrierte Geo-, Sach- und Markt-Datenprodukte und liefert individuelle Analysen für unsere Kunden. Unternehmen, Institute und Behörden nutzen unsere umfassenden und verlässlichen Datenprodukte für kritische Entscheidungen im Marketing, Vertrieb, Logistik, Bau- und Umweltplanung und für viele weitere Bereiche. Für die Verstärkung unseres Teams suchen wir zum nächstmöglichen Zeitpunkt in Vollzeit eine : n Lead Data Engineer (w / m / d) an einem unserer Standorte in Hamburg, Berlin, Bonn, Frankfurt, Nürnberg oder München.
Deine Aufgaben
Als Senior Data Engineer (w / m / d) im Location Data & Analytics Team spielst Du eine Schlüsselrolle in der Entwicklung und Optimierung unserer Dateninfrastruktur. Du bist verantwortlich für den Aufbau robuster und automatisierter Datenpipelines, die Pflege unserer Datenplattform und die Unterstützung von Data Scientists und Analysten bei der Erhebung wichtiger Erkenntnisse.
- Entwurf einer nachhaltigen Datenarchitektur und Umsetzung einer performanten und stabilen Dateninfrastruktur auf der Google Cloud Platform zur Skalierung unserer Datenoperationen.
- Migration der derzeitigen On-Premise-Lösung auf Basis von PostgreSQL in eine Cloud-Lösung auf Basis von Big Query.
- Entwurf, Implementierung und Optimierung von Datenpipelines für den Umgang mit einer Vielzahl von strukturierten und unstrukturierten Datenquellen.
- Sicherstellung der Datenverfügbarkeit und -qualität durch den Einsatz von Best Practices in den Bereichen Datenmodellierung und Datenmanagement.
- Entwicklung von automatisierten DataOps-Lösungen zur Gewährleistung der Datenintegrität und -transparenz, inklusive Monitoring und Fehlerbehebung.
- Konfiguration, Implementierung und Verwaltung von Airflow zur Orchestrierung von Workflows und DataKitchen für die Implementierung von Tests und Alerts.
- Nutzung Deiner Expertise in Spatial SQL für die Verarbeitung und Analyse von Geo-, Sach- und Marktdaten.
- Zusammenarbeit mit funktionsübergreifenden Teams, um Datenprodukte zu entwickeln, die auf die Geschäftsanforderungen zugeschnitten sind.
Dein Profil
- Mindestens 5 Jahre Berufserfahrung im Bereich Data Engineering oder in einer ähnlichen Rolle.
- Tiefgreifende Kenntnisse im Umgang mit Datenbanken (SQL, PostgreSQL, OGC SQL / PostGIS, Big Query) und Skalierung von Datenplattformen.
- Erfahrung in der Arbeit mit ETL / ELT-Prozessen und Datenintegrationswerkzeugen.
Umfangreiche Erfahrung in der Python-Entwicklung, einschließlich der Beherrschung von Bibliotheken wie Pandas, NumPy, pyspark, pandera oder pytest.
- Praktische Erfahrung mit Cloud Platform-Diensten und Infrastruktur als Code (IaC) für die Bereitstellung und Verwaltung von Datenlösungen – optimalerweise mit Google Cloud Platform.
- Praktische Erfahrung mit Automatisierungs- und Workflow-Orchestrierungstools wie Airflow und dbt sowie mit Data Quality Testing und Data Observability Tools wie DataKitchen.
- Praktische Erfahrung mit VCS und CI / CD mit Git, GitLab, GitHub o.ä.
Bachelor- oder Master-Abschluss in Informatik, Informationstechnologie oder einem verwandten Bereich.
- Du hast Spaß an der Arbeit und gestaltest Dinge aktiv im Team und wartest nicht darauf, dass Dir Arbeit vorgegeben wird.
- Hervorragende Problemlösungsfähigkeiten und die Fähigkeit, in einem kollaborativen, agilen Umfeld zu arbeiten.
- Optimalerweise Projekterfahrung mit Geodaten und Geoinformationssystemen.
- Du sprichts fließend Deutsch (C1) und Englisch.
Gestalte deine Zukunft mit uns!
- Arbeite mit spannenden Daten und state of the art Technologielösungen.
- Wir bieten Dir umfassende Schulungen und die Möglichkeit, selbstständig in beratender und leitender Funktion im internationalen Umfeld eines attraktiven Wachstumsmarktes zu arbeiten.
- Es erwartet Dich ein hochmotiviertes, ehrgeiziges und dynamisches Team, internationale Herausforderungen und außergewöhnlich spannende Projekte in einem globalen Umfeld.
- Du wirst bei Deinen Aktivitäten vom gesamten Team unterstützt.
- Wir leben eine professionelle Feedback-Kultur mit regelmäßigen objektiven Leistungsbeurteilungen und Raum für Wachstum.
- Eine attraktive Vergütung wird durch Sozialleistungen wie betriebliche Altersvorsorge ergänzt.
- Wir statten Dich mit modernster Technologie aus und bieten Du einen Arbeitsplatz, an dem Du Dich wohlfühlst.
- Wir arbeiten mit modernen Methoden und Werkzeugen für die Softwareentwicklung und Datenanalyse und experimentieren beständig mit Innovationen.
Kontaktiere uns!
Wir freuen uns auf deine Bewerbungsunterlagen (Lebenslauf, Zeugnisse und ein kurzes Anschreiben) unter Angabe deines frühestmöglichen Eintrittstermins und deiner Gehaltsvorstellung.
Jobalert für diese Suche erstellen
#J-18808-Ljbffr
Lead Data Engineer (w/m/d) - infas 360 Arbeitgeber: Ipsos

Kontaktperson:
Ipsos HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Lead Data Engineer (w/m/d) - infas 360
✨Netzwerk aufbauen
Nutze Plattformen wie LinkedIn, um mit Fachleuten aus der Data Engineering Community in Kontakt zu treten. Vernetze dich mit aktuellen Mitarbeitern von infas 360 oder anderen Unternehmen in der Branche, um Einblicke in die Unternehmenskultur und die spezifischen Anforderungen der Position zu erhalten.
✨Technische Fähigkeiten demonstrieren
Bereite dich darauf vor, deine technischen Fähigkeiten in einem persönlichen Gespräch zu demonstrieren. Übe den Umgang mit SQL, Python und Cloud-Technologien, um sicherzustellen, dass du in der Lage bist, praktische Probleme zu lösen, die dir während des Interviews präsentiert werden könnten.
✨Projekte präsentieren
Erstelle ein Portfolio von Projekten, die deine Erfahrung im Data Engineering zeigen. Fokussiere dich auf Projekte, die relevante Technologien wie Google Cloud Platform, Airflow oder Datenpipelines beinhalten, um deine Eignung für die Rolle zu unterstreichen.
✨Fragen vorbereiten
Bereite gezielte Fragen für das Interview vor, die dein Interesse an der Position und dem Unternehmen zeigen. Frage nach den Herausforderungen, die das Team aktuell bewältigt, oder nach den Technologien, die sie in ihren Projekten verwenden, um dein Engagement und deine Neugier zu demonstrieren.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Lead Data Engineer (w/m/d) - infas 360
Tipps für deine Bewerbung 🫡
Verstehe die Unternehmenswerte: Informiere dich über infas 360 und die Ipsos Gruppe. Verstehe ihre Mission, Vision und Werte, um diese in deinem Anschreiben und Lebenslauf zu reflektieren.
Betone relevante Erfahrungen: Hebe deine mindestens 5-jährige Berufserfahrung im Data Engineering hervor. Gehe besonders auf deine Kenntnisse in SQL, PostgreSQL und Cloud-Diensten ein, da diese für die Position entscheidend sind.
Individualisiere dein Anschreiben: Gestalte dein Anschreiben so, dass es spezifisch auf die Anforderungen der Stelle eingeht. Zeige, wie deine Fähigkeiten in Python, ETL-Prozessen und Datenmanagement den Bedürfnissen des Unternehmens entsprechen.
Prüfe deine Unterlagen: Bevor du deine Bewerbung einreichst, überprüfe alle Dokumente auf Vollständigkeit und Fehler. Achte darauf, dass dein Lebenslauf klar strukturiert ist und alle relevanten Informationen enthält.
Wie du dich auf ein Vorstellungsgespräch bei Ipsos vorbereitest
✨Verstehe die Unternehmensmission
Informiere dich über die Mission und die Werte von infas 360. Zeige im Interview, dass du verstehst, wie deine Rolle als Lead Data Engineer zur Erreichung dieser Ziele beiträgt.
✨Bereite technische Fragen vor
Erwarte technische Fragen zu Datenarchitekturen, ETL-Prozessen und Cloud-Lösungen. Übe, wie du deine Erfahrungen mit PostgreSQL, Big Query und Python klar und präzise darstellst.
✨Demonstriere Teamarbeit
Betone deine Fähigkeit zur Zusammenarbeit mit funktionsübergreifenden Teams. Bereite Beispiele vor, in denen du erfolgreich in einem agilen Umfeld gearbeitet hast und wie du zur Lösung komplexer Probleme beigetragen hast.
✨Frage nach den nächsten Schritten
Zeige dein Interesse an der Position, indem du am Ende des Interviews nach den nächsten Schritten im Auswahlprozess fragst. Dies zeigt, dass du proaktiv bist und wirklich an der Stelle interessiert bist.