Auf einen Blick
- Aufgaben: Entwickle und betreibe Datenprodukte auf der Databricks-Plattform.
- Arbeitgeber: Globale Vermögensverwaltung mit starkem Fokus auf Innovation.
- Mitarbeitervorteile: Attraktives Gehalt, flexible Arbeitszeiten und Weiterbildungsmöglichkeiten.
- Andere Informationen: Tolle Karrierechancen in einem internationalen Team.
- Warum dieser Job: Gestalte die Zukunft der Datenverarbeitung in einem dynamischen Umfeld.
- Gewünschte Qualifikationen: Mindestens 3 Jahre Erfahrung in der Datenpipeline-Entwicklung und Kenntnisse in Databricks.
Das voraussichtliche Gehalt liegt zwischen 60000 - 80000 € pro Jahr.
Für unseren Kunden, ein global tätiges Vermögensverwaltungsunternehmen mit einer starken Präsenz in den Bereichen institutionelle und private Kunden, suchen wir derzeit einen Data Engineer - Databricks (gn), um das Team zu verstärken.
Zweck der Stelle
Die Rolle ist verantwortlich für das Entwerfen, Bauen und Betreiben von Datenprodukten und wiederverwendbaren Datenvorbereitungs-Komponenten auf einer Databricks-basierten Daten- und KI-Plattform, während sie als technischer Ermöglicher für interne Plattformbenutzer durch fachkundige Anleitung und fortgeschrittene Unterstützung fungiert. Die Position stellt die Einhaltung von Sicherheits-, Datenschutz- und regulatorischen Anforderungen durch einen Compliance-by-Design-Ansatz sicher, hält die Ausrichtung an etablierten Best Practices für Datenpipelines und Datenqualität aufrecht und treibt die kontinuierliche Verbesserung der Plattform durch die Integration neuer Funktionen und standardisierter, wiederverwendbarer Pipelines voran.
Aufgaben
- Entwicklung und Pflege einer Bibliothek modularer, wiederverwendbarer Pipeline-Komponenten – einschließlich Datenaufnahme, Verarbeitung, Verifizierung und Anreicherung – zur Erzeugung konsistent strukturierter, AI/ML-bereitgestellter Datensätze aus sowohl strukturierten als auch unstrukturierten Quellen.
- Architektur und Ausführung zuverlässiger Daten-Workflows auf Databricks, die aus einer Vielzahl interner und externer Quellen stammen, um saubere, validierte Datenbestände für AI, ML und Reporting-Zwecke zu produzieren.
- Governance des Lebenszyklus geschichteter Datenbestände über Reifegrade hinweg, Einhaltung von Qualitäts- und Zeitstandards bei gleichzeitiger Bereitstellung von zweckgebundenen, analytischen und modellbereiten Ausgabedatensätzen.
- Aufbau und Pflege von Transformations-Workflows, die bedeutende prädiktive Attribute aus Rohdaten ableiten, zusammen mit einem zentral verwalteten Attributrepository mit klarer Versionierung, Eigentum und Service-Level-Verpflichtungen.
- Zusammenarbeit mit AI- und ML-Ingenieuren zur Etablierung und Pflege von Datenversorgungsketten für retrieval-augmentierte Generierungssysteme, einschließlich Inhaltssegmentierung, Vektorrepräsentationsaktualisierungen und Indexsynchronisation.
- Einbettung von Governance-Kontrollen – einschließlich Berechtigungen, Rückverfolgbarkeit, Datenlebenszyklusmanagement, Verschlüsselung und Prüfpfade – in das Plattformdesign, um sowohl interne Richtlinien als auch externe regulatorische Anforderungen zu erfüllen.
Erforderlich
- Mindestens 3 Jahre praktische Erfahrung im Entwerfen und Ausführen von großangelegten Datenpipelines und Datenprodukten auf Databricks – Batch und/oder Streaming – vorzugsweise in regulierten oder governance-intensiven Umgebungen (idealerweise in der Finanzdienstleistungsbranche).
- Fortgeschrittene Kenntnisse in Databricks, Spark, Python und SQL, ergänzt durch fundierte Software-Engineering-Praktiken wie CI/CD-Workflows und Infrastructure-as-Code-Tools (z. B. Terraform) auf Azure.
- Solides Verständnis der Prinzipien des Datenengineering, die für AI/ML-Kontexte relevant sind, einschließlich Datenmodellierung, Qualitätssicherung, Merkmalszusammenarbeit und Reproduzierbarkeit sowie ein Verständnis dafür, wie Datenmerkmale das Verhalten von Modellen beeinflussen.
- Starke Beherrschung moderner Datenarchitektur-Muster – einschließlich Lakehouse-Prinzipien, geschichteter Datenorganisation und Datenproduktdenken – und die Fähigkeit, diese in einem regulierten Unternehmensumfeld praktisch umzusetzen.
- Abschluss in Informatik oder einem vergleichbaren Fachgebiet.
- Starkes analytisches Denken gepaart mit strukturiertem Planen, klarer Dokumentation und der Fähigkeit, Wissen effektiv an Kollegen weiterzugeben.
Bevorzugt
- Beruflicher Hintergrund im Finanzsektor, idealerweise im Bereich Vermögensverwaltung, kombiniert mit internationaler Berufserfahrung und relevanten Databricks-Zertifizierungen.
Data Engineer - Databricks (gn) Arbeitgeber: BLACKBULL INTERNATIONAL GmbH
Kontaktperson:
BLACKBULL INTERNATIONAL GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer - Databricks (gn)
✨Netzwerken, Netzwerken, Netzwerken!
Nutze Plattformen wie LinkedIn, um mit Fachleuten aus der Branche in Kontakt zu treten. Lass uns gemeinsam nach Events oder Meetups suchen, wo du Gleichgesinnte treffen und dein Netzwerk erweitern kannst.
✨Sei proaktiv!
Warte nicht darauf, dass die Stellenanzeigen auf dich zukommen. Kontaktiere Unternehmen direkt über unsere Website und zeige dein Interesse an der Position als Data Engineer. Ein persönlicher Ansatz kann oft den Unterschied machen!
✨Bereite dich auf technische Interviews vor!
Stelle sicher, dass du deine Kenntnisse in Databricks, Spark und Python auffrischst. Lass uns gemeinsam einige Übungsfragen durchgehen, damit du im Interview glänzen kannst!
✨Zeige deine Projekte!
Hast du an spannenden Datenprojekten gearbeitet? Teile diese in deinem Portfolio oder auf GitHub. Das zeigt nicht nur deine Fähigkeiten, sondern auch dein Engagement für die Datenengineering-Community!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer - Databricks (gn)
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wir wollen dich kennenlernen, also sei authentisch in deiner Bewerbung. Zeig uns, wer du bist und was dich motiviert, Teil unseres Teams zu werden.
Pass deine Unterlagen an: Schau dir die Stellenbeschreibung genau an und passe deinen Lebenslauf sowie dein Anschreiben an. Hebe relevante Erfahrungen und Fähigkeiten hervor, die zu den Anforderungen passen.
Klarheit und Struktur: Achte darauf, dass deine Bewerbung klar und strukturiert ist. Verwende Absätze und Aufzählungen, um wichtige Informationen hervorzuheben und es uns leicht zu machen, deine Qualifikationen zu erkennen.
Bewirb dich über unsere Website: Um sicherzustellen, dass wir deine Bewerbung schnell und effizient bearbeiten können, bewirb dich bitte direkt über unsere Website. So bist du auf der sicheren Seite!
Wie du dich auf ein Vorstellungsgespräch bei BLACKBULL INTERNATIONAL GmbH vorbereitest
✨Verstehe die Databricks-Plattform
Mach dich mit den spezifischen Funktionen und Vorteilen von Databricks vertraut. Zeige im Interview, dass du nicht nur die technischen Fähigkeiten hast, sondern auch verstehst, wie diese Plattform in der Finanzdienstleistungsbranche eingesetzt wird.
✨Bereite Beispiele vor
Denke an konkrete Projekte oder Erfahrungen, die deine Fähigkeiten im Umgang mit großen Datenpipelines und Databricks demonstrieren. Sei bereit, über Herausforderungen zu sprechen, die du gemeistert hast, und wie du zur Verbesserung von Datenprodukten beigetragen hast.
✨Kenntnis der Compliance-Anforderungen
Informiere dich über die relevanten Sicherheits- und Datenschutzbestimmungen, die in der Finanzbranche gelten. Im Interview solltest du zeigen, dass du die Bedeutung von Compliance verstehst und wie du sicherstellen kannst, dass deine Datenlösungen diesen Anforderungen entsprechen.
✨Fragen stellen
Bereite einige durchdachte Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Rolle und der Firma. Frage nach den aktuellen Herausforderungen des Teams oder wie sie neue Technologien in ihre Datenarchitektur integrieren.