Auf einen Blick
- Aufgaben: Entwickle und optimiere eine moderne Data-&-AI-Plattform in der Azure Cloud.
- Arbeitgeber: Innovatives Versicherungsunternehmen mit Fokus auf Daten und KI.
- Mitarbeitervorteile: Attraktive Vergütung, flexible Homeoffice-Regelung und respektvolle Arbeitskultur.
- Andere Informationen: Wachstumsorientierte Umgebung mit tollen Karrierechancen.
- Warum dieser Job: Gestalte aktiv die Zukunft der Datenwelt und arbeite an spannenden Projekten.
- Gewünschte Qualifikationen: Erfahrung in Databricks, PySpark und CI/CD-Prozessen.
Das voraussichtliche Gehalt liegt zwischen 60000 - 75000 € pro Jahr.
Deine Chance im Herzen von Köln. Für unseren Kunden aus dem Versicherungsumfeld suchen wir einen Senior Data Engineer (m/w/d) am Standort Köln. Nach der Einarbeitungsphase wird eine Vor-Ort-Anwesenheit von 2 aufeinanderfolgenden Tagen aller 2 Wochen gewünscht. Die Versicherung betreibt mit einer Analytics Plattform eine moderne Data-&-AI-Plattform in der Azure Cloud. Diese wird aktuell für folgende Zwecke genutzt:
- Entwicklung und Betrieb von KI-Systemen (z. B. RAG-Applikationen)
- Hosting selbst trainierter KI-Modelle
- Durchführung von Ad-hoc-Analysen auf strukturierten und unstrukturierten Daten
- Entwicklung von Datenprodukten
- Datenintegration und -transformation für ein separates Data Warehouse
Im Rahmen der IT-Transformations-Roadmap wird Unterstützung für die Weiterentwicklung sowie die spätere Migration der Plattform benötigt.
Deine Benefits:
- Attraktive Vergütung
- Modernes, technisches Umfeld mit Fokus auf Innovation
- Flexible Homeoffice-Regelung für deine Work-Life-Balance
- Respektvolle und offene Arbeitskultur
- Weihnachts- und Urlaubsgeld on top
Deine Aufgaben als Senior Data Engineer:
- Weiterentwicklung der bestehenden Plattform zu einem Lakehouse
- Unterstützung bei der technischen Anbindung weiterer IT-Systeme
- Implementierung von Entwicklungsprozessen für Lakehouse-Entwickler unter Beachtung von DABs und Data Contracts
- Mitarbeit an der Migration von GitLab CI/CD zu GitHub Actions
- Wiederherstellung und Bewertung vorhandener Assets, Daten und Daten-Pipelines im neuen Azure Tenant
- Unterstützung bei der automatischen Bereitstellung von Berechtigungsgruppen, Monitoring-Dashboards und Incident-Routing-Mechanismen
- Vorbereitung der vorhandenen Infrastructure-as-Code-Repositories sowie Bewertung der vorhandenen Assets
- Wiederherstellen vorhandener Assets, Daten und Daten-Pipelines im neuen Tenant
- Anbindung an Umsysteme, SIEM und IAM
- Migration von GitLab CI/CD zu GitHub Actions
- Abbau der Cloud-Ressourcen, Prozesse und Assets im alten Azure-Tenant
Dein Profil:
- Tiefes Verständnis von Berechtigungsstrukturen in Databricks mit Unity Catalog
- Erfahrung im Design und der Administration von Databricks Workspaces
- Entwicklung von resilienten Data-Pipelines mit PySpark inkl. Testautomatisierung, Packaging und Deployment mit Declarative Automation Bundles (DAB), Kenntnisse von Data Contracts
- Partitionierung von Daten in Delta Lake
- Erfahrung mit GitLab CI/CD und/oder GitHub Actions
- Sehr gute Deutschkenntnisse in Wort und Schrift
Werde Teil von expertplace professionals. Du willst als Senior Data Engineer am Standort Köln den nächsten Schritt machen und Innovationen aktiv gestalten? Dann bewirb dich jetzt und gestalte mit uns die Zukunft der Datenwelt!
Senior Data Engineer (m/w/d) Lakehouse, Databricks Arbeitgeber: expertplace professionals
Kontaktperson:
expertplace professionals HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Senior Data Engineer (m/w/d) Lakehouse, Databricks
✨Netzwerken, Netzwerken, Netzwerken!
Nutze LinkedIn und Xing, um mit Leuten aus der Branche in Kontakt zu treten. Oft sind es persönliche Empfehlungen, die den Unterschied machen, also lass uns aktiv sein und unser Netzwerk erweitern!
✨Sei bereit für spontane Gespräche
Wenn du auf Events oder Messen bist, sprich einfach Leute an! Bereite ein kurzes Pitch über dich und deine Skills vor, damit du im richtigen Moment glänzen kannst. Wir wissen, dass die besten Chancen oft unerwartet kommen.
✨Zeige deine Leidenschaft
Wenn du dich bewirbst, sei authentisch und zeige, warum du für die Rolle brennst. Teile deine Ideen zur Weiterentwicklung der Plattform oder wie du die Herausforderungen meistern würdest. Lass uns die Arbeitgeber begeistern!
✨Bewirb dich direkt über unsere Website
Wir haben viele spannende Stellenangebote, also schau regelmäßig vorbei und bewirb dich direkt bei uns. So hast du die besten Chancen, schnell in den Auswahlprozess zu kommen und uns von deinen Fähigkeiten zu überzeugen!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Senior Data Engineer (m/w/d) Lakehouse, Databricks
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wir wollen dich kennenlernen, also zeig uns, wer du wirklich bist! Lass deine Persönlichkeit in deiner Bewerbung durchscheinen und erzähl uns, warum du der perfekte Fit für die Rolle als Senior Data Engineer bist.
Pass deine Unterlagen an: Schau dir die Stellenbeschreibung genau an und passe deinen Lebenslauf sowie dein Anschreiben an. Hebe relevante Erfahrungen und Fähigkeiten hervor, die zu den Anforderungen passen – so zeigst du, dass du die richtige Wahl für uns bist!
Mach es übersichtlich: Achte darauf, dass deine Bewerbung klar und strukturiert ist. Verwende Absätze, Aufzählungen und eine gut lesbare Schriftart, damit wir schnell die wichtigsten Infos finden können. Wir lieben es, wenn alles schön aufbereitet ist!
Bewirb dich über unsere Website: Um sicherzustellen, dass deine Bewerbung direkt bei uns landet, bewirb dich am besten über unsere Website. So können wir deine Unterlagen schnell bearbeiten und du bist einen Schritt näher dran, Teil unseres Teams zu werden!
Wie du dich auf ein Vorstellungsgespräch bei expertplace professionals vorbereitest
✨Verstehe die Technologie
Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, insbesondere mit Databricks und Azure. Zeige im Interview, dass du nicht nur die Grundlagen kennst, sondern auch praktische Erfahrungen hast, die du einbringen kannst.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte oder Herausforderungen, die du in der Vergangenheit gemeistert hast. Sei bereit, diese zu erläutern, insbesondere wie du Data-Pipelines entwickelt oder Migrationen durchgeführt hast. Das zeigt deine praktische Erfahrung und Problemlösungsfähigkeiten.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Position und hilft dir, mehr über die Unternehmenskultur und die Erwartungen an die Rolle zu erfahren. Fragen zur Teamstruktur oder zu aktuellen Projekten sind immer gut.
✨Soft Skills betonen
Neben technischen Fähigkeiten sind auch Soft Skills wichtig. Betone deine Teamfähigkeit, Kommunikationsstärke und Flexibilität. Diese Eigenschaften sind besonders in einem dynamischen Umfeld wie der Datenanalyse von Bedeutung.