Auf einen Blick
- Aufgaben: Entwickle und pflege skalierbare Datenpipelines und ETL/ELT-Frameworks.
- Arbeitgeber: Führender Hedgefonds in Frankfurt, der seine Datenengineering-Fähigkeiten stärkt.
- Mitarbeitervorteile: Hybrid-Arbeitsmodell mit 2-3 Tagen vor Ort pro Woche.
- Warum dieser Job: Spannende Möglichkeit, mit Quants und Händlern an innovativen Datenlösungen zu arbeiten.
- GewĂĽnschte Qualifikationen: Erfahrung mit Azure, Databricks, Kafka und starken Programmierkenntnissen in PySpark und SQL erforderlich.
- Andere Informationen: 18-monatiger Vertrag mit sofortigem Start und flexiblen Arbeitszeiten.
Das voraussichtliche Gehalt liegt zwischen 60000 - 84000 € pro Jahr.
Ich unterstütze einen führenden Hedgefonds mit Sitz in Frankfurt, der seine Data Engineering-Fähigkeiten stärkt. Sie suchen einen Freelance Data Engineer mit Expertise in Azure, Databricks und Kafka für ein 18-monatiges Engagement.
Hauptverantwortlichkeiten
- Architektur, Aufbau und Wartung skalierbarer Datenpipelines und ETL/ELT-Frameworks unter Verwendung von Azure Data Services, Databricks und Apache Kafka
- Ingestion und Verarbeitung groĂźer Mengen an Echtzeit- und Batch-Daten aus Handelssystemen, Marktfeeds und internen Anwendungen
- Enge Zusammenarbeit mit Quant-Analysten, Händlern und Risikoteams zur Gestaltung zuverlässiger und latenzarmer Datenlösungen
- Optimierung von Spark-basierten Workflows auf Databricks und Gewährleistung einer nahtlosen Datenintegration über Azure Data Lake und nachgelagerte Systeme
- Implementierung von Datenqualitätsprüfungen, Nachverfolgung der Herkunft und Echtzeit-Alarme zur Unterstützung der regulatorischen und operativen Berichterstattung
Erforderliche Fähigkeiten & Erfahrung
- Solide Erfahrung als Data Engineer mit Azure (Data Factory, Data Lake, Synapse) und Databricks in Unternehmensumgebungen
- Starke Programmierkenntnisse in PySpark und SQL; Vertrautheit mit Scala oder Java ist von Vorteil
- Praktische Erfahrung mit Kafka fĂĽr die Echtzeit-Datenaufnahme und Stream-Verarbeitung
- Tiefes Verständnis von verteiltem Rechnen, Datenmodellierung und Konzepten der Datenlagerung
- Erfahrung mit CI/CD-Pipelines und Infrastruktur als Code (z.B. Terraform, Azure DevOps)
Logistik
- Standort: Frankfurt am Main (Hybrid – 2–3 Tage vor Ort pro Woche)
- Vertragsdauer: 18 Monate
- Startdatum: Sofortige VerfĂĽgbarkeit bevorzugt
- Stunden: 40 Stunden/Woche (normale Geschäftszeiten)
Um sich zu bewerben, senden Sie mir entweder eine DM hier oder schicken Sie Ihren Lebenslauf an will.childs@aifutures.group.
Data Engineer Arbeitgeber: AI Futures
Kontaktperson:
AI Futures HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer
✨Netzwerk aufbauen
Nutze Plattformen wie LinkedIn, um mit Fachleuten aus der Finanz- und Datenbranche in Frankfurt in Kontakt zu treten. Vernetze dich mit Personen, die bereits bei Hedgefonds arbeiten oder gearbeitet haben, um wertvolle Einblicke und möglicherweise Empfehlungen zu erhalten.
✨Fachliche Weiterbildung
Stelle sicher, dass du deine Kenntnisse in Azure, Databricks und Kafka auf dem neuesten Stand hältst. Online-Kurse oder Zertifikate können dir helfen, deine Fähigkeiten zu vertiefen und dich von anderen Bewerbern abzuheben.
✨Projekte präsentieren
Erstelle ein Portfolio oder eine Sammlung von Projekten, die deine Erfahrungen als Data Engineer zeigen. Konkrete Beispiele für erfolgreich implementierte Datenpipelines oder ETL-Prozesse können potenzielle Arbeitgeber beeindrucken.
✨Vorbereitung auf technische Interviews
Bereite dich auf technische Fragen und praktische Tests vor, die häufig in Interviews für Data Engineering-Positionen gestellt werden. Übe das Lösen von Problemen mit PySpark und SQL, um deine Fähigkeiten im Gespräch unter Beweis zu stellen.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf die geforderten Fähigkeiten und Erfahrungen. Stelle sicher, dass du alle relevanten Punkte in deinem Lebenslauf und Anschreiben ansprichst.
Hebe deine technischen Fähigkeiten hervor: Betone deine Erfahrung mit Azure, Databricks und Kafka in deinem Lebenslauf. Füge spezifische Projekte oder Erfolge hinzu, die deine Fähigkeiten in diesen Technologien demonstrieren.
Anpassung des Lebenslaufs: Gestalte deinen Lebenslauf so, dass er auf die spezifischen Anforderungen der Position zugeschnitten ist. Verwende Schlüsselbegriffe aus der Stellenanzeige, um sicherzustellen, dass dein Lebenslauf bei automatisierten Systemen nicht herausfällt.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du für diese Position geeignet bist. Gehe auf deine Erfahrungen mit Datenpipelines, ETL/ELT-Frameworks und deine Zusammenarbeit mit verschiedenen Teams ein.
Wie du dich auf ein Vorstellungsgespräch bei AI Futures vorbereitest
✨Kenntnis der Technologien zeigen
Stelle sicher, dass du deine Kenntnisse in Azure, Databricks und Kafka klar kommunizierst. Bereite Beispiele vor, wie du diese Technologien in frĂĽheren Projekten eingesetzt hast, um deine praktische Erfahrung zu untermauern.
✨Verstehe die Branche
Informiere dich über die Hedgefonds-Branche und deren spezifische Anforderungen an Datenlösungen. Zeige, dass du die Herausforderungen verstehst, mit denen Quant Analysten und Trader konfrontiert sind, und wie deine Lösungen ihnen helfen können.
✨Teamarbeit betonen
Da die Rolle enge Zusammenarbeit mit verschiedenen Teams erfordert, solltest du Beispiele für erfolgreiche Teamprojekte bereit haben. Betone deine Kommunikationsfähigkeiten und wie du effektiv mit anderen zusammenarbeitest, um Datenlösungen zu entwickeln.
✨Fragen vorbereiten
Bereite gezielte Fragen vor, die dein Interesse an der Position und dem Unternehmen zeigen. Frage nach den aktuellen Herausforderungen im Datenengineering des Unternehmens oder wie sie ihre Datenpipelines optimieren möchten.