Senior Data Engineer

Senior Data Engineer

Genf Vollzeit 60000 - 80000 € / Jahr (geschätzt) Kein Home Office möglich
Go Premium
K

Auf einen Blick

  • Aufgaben: Entwickle Datenpipelines und baue eine innovative Datenplattform für unser Team.
  • Arbeitgeber: Keyrock, ein führendes Unternehmen im Bereich digitale Vermögenswerte mit globalem Team.
  • Mitarbeitervorteile: Flexibles Arbeiten, wettbewerbsfähiges Gehalt und zahlreiche Vorteile.
  • Andere Informationen: Gestalte die Teamkultur und Standards aktiv mit.
  • Warum dieser Job: Sei Teil eines dynamischen Teams und forme die Zukunft der digitalen Assets.
  • Gewünschte Qualifikationen: Mindestens 8 Jahre Erfahrung in der Datenverarbeitung und starke Python- und SQL-Kenntnisse.

Das voraussichtliche Gehalt liegt zwischen 60000 - 80000 € pro Jahr.

Über Keyrock

Seit unserer Gründung im Jahr 2017 sind wir zu einem führenden Akteur im Bereich digitaler Vermögenswerte gewachsen, bekannt für unsere Partnerschaften und Innovationen. Heute arbeiten über 250 Teammitglieder weltweit mit uns zusammen. Unser diverses Team stammt aus 42 Nationalitäten, mit Hintergründen von autodidaktischen DeFi-Experten bis hin zu PhDs. Überwiegend remote, haben wir Standorte in London, Brüssel und Singapur und veranstalten regelmäßige Online- und Offline-Treffen, um das Team eng zusammenzuhalten. Wir handeln an mehr als 80 Handelsplätzen und arbeiten mit einer Vielzahl von Vermögensausstellern. Als etablierter Market Maker hat unser einzigartiges Fachwissen zu einem schnellen Wachstum geführt. Heute umfassen unsere Dienstleistungen Market Making, Optionshandel, Hochfrequenzhandel, OTC und DeFi-Handelsplätze.

Wir sind jedoch mehr als nur ein Dienstleister. Wir sind Initiatoren. Wir sind Pioniere in der Anwendung der Programmiersprache Rust für unseren algorithmischen Handel und setzen uns für deren Einsatz in der Branche ein. Wir unterstützen das Wachstum von Web3-Startups durch unser Accelerator-Programm. Wir verbessern Ökosysteme, indem wir Liquidität in vielversprechende DeFi-, RWA- und NFT-Protokolle einspeisen. Und wir treiben den Fortschritt der Branche mit unseren Forschungs- und Governance-Initiativen voran.

Bei Keyrock stellen wir nicht nur die Zukunft digitaler Vermögenswerte in Aussicht. Wir bauen sie aktiv auf.

Über das Team und warum die Rolle existiert

Das Central Data Team (CDT) ist erst seit wenigen Monaten aktiv, aber Daten sind seit Tag eins das Lebenselixier von Keyrock. Wir bauen jetzt die Keyrock Data Platform auf, um den Keyrockern und den KI-Agenten, die mit ihnen zusammenarbeiten, die Daten und den Kontext zu geben, die sie benötigen, um schnell und autonom innerhalb vereinbarter Grenzen und in Übereinstimmung mit unseren gemeinsamen Zielen zu handeln. Das bedeutet, Daten aus dem gesamten Unternehmen zu sammeln und in Echtzeit für alle Funktionen, die davon abhängen, verständlich zu machen: Handelsplätze, Vermögens- und Asset-Management, Produkt, Risiko, Finanzen, Compliance und Forschung, um nur einige zu nennen. Sie wären einer der ersten Mitarbeiter im CDT und wir erwarten, dass Sie zu den meisten größeren Entscheidungen und Arbeiten beitragen. Die Standards, die wir festlegen, und die Art und Weise, wie das Team letztendlich arbeitet, sind noch offen.

Was Sie tun werden

  • Streaming- und Batch-Pipelines erstellen, die Markt-, Handels- und Portfoliodaten aufnehmen, normalisieren und verteilen, widerstandsfähig gegenüber Feed- und Börsenfehlern.
  • Die Selbstbedienungswerkzeuge (SDKs, Muster, Vorlagen, KI-Agenten) erstellen, damit andere Teams Datenprodukte veröffentlichen, konsumieren und darauf aufbauen können, ohne auf uns warten zu müssen.
  • Datenverträge und Schema-Evolution verwalten. Schemaänderungen verhindern, die zu Koordinationsereignissen zwischen mehreren Teams führen.
  • Das Lakehouse und die Zeitreihenebene rund um die Abfragemuster der Verbraucher entwerfen.
  • Das Data Governance- und Data Quality-Framework aufbauen und weiterentwickeln: Erkennung von veralteten Datenfeeds, Schema-Validierung, Bereichsprüfungen, idempotente Schreibvorgänge, Herkunft, Eigentum, Selbstheilung.
  • Die abgeleiteten Analysen erstellen, auf denen das Geschäft basiert: Cross-Exchange-Spreads, VWAP in der Tiefe, Mikrostruktur des Orderbuchs für die Handelsplätze; Portfolioansichten, Exposition, Leistung für Vermögens- und Asset-Management.
  • Beobachtbarkeit, Kosten und Leistung von Anfang an in den Vordergrund stellen.
  • Infrastruktur als Code behandeln (Docker, Terraform, CI/CD) zusammen mit unserem Central Infrastructure Team.
  • Offen arbeiten: alles dokumentieren, eng mit Architektur, Infrastruktur, Plattform und den anderen Teams zusammenarbeiten.

Was wir suchen

Engineering Craft
  • 8+ Jahre Erfahrung im Aufbau von Produktionsdaten-Systemen, auf die andere angewiesen sind.
  • Starke Kenntnisse in Python und SQL: nicht nur in der Lage sein, eine Abfrage zu schreiben, sondern auch zu verstehen, was die Engine damit macht.
  • Code, der für andere leicht zu lesen, zu testen und später zu löschen ist.
  • Starkes Verständnis von Datenmodellierung für sowohl Streaming- als auch analytische Workloads.
  • Effizienz, Qualität, Idempotenz und Beobachtbarkeit werden standardmäßig ernst genommen.
Systemdesign
  • Sie haben Streaming-Systeme auf Kafka, Redpanda, MSK oder Kinesis entworfen und betrieben und haben Meinungen zu Partitionierung, Verbrauchergruppen, Offsets und Schema-Registrierungen.
  • Sie haben einen Zeitreihen-Speicher in der Produktion verwendet (idealerweise ClickHouse; TimescaleDB, QuestDB oder ähnliche sind ebenfalls in Ordnung) und können über das Tabellendesign als Funktion der Abfragemuster sprechen.
  • Sie haben mit einer Lakehouse-Architektur gearbeitet und denken über das Layout, die Partitionierung und die Verdichtung von Tabellen als Designentscheidungen nach, die die Abfrageleistung und die Speicherkosten beeinflussen.
  • Sie bauen für Selbstheilung und Idempotenz. Eine erneute Verarbeitung ist sicher, Wiederholungen führen nicht zu doppelten Schreibvorgängen, und das System erholt sich ohne menschliches Eingreifen.
Betriebsbereitschaft
  • Docker, Terraform und CI/CD sind Teil Ihrer Arbeitsweise, kein separates „DevOps“-Ding.
  • Sie denken frühzeitig über Kosten und Leistung nach.
  • Sie instrumentieren während des Aufbaus: Protokolle, Metriken und Traces sind von Anfang an Teil des Systems.
  • Sie entwerfen für Datenqualität und Governance von Anfang an, einschließlich Verträgen, Validierung, Herkunft und Eigentum.
Wie Sie denken und arbeiten
  • Sie denken von den Grundprinzipien aus, wenn ein Problem neu ist, bleiben pragmatisch, wenn es nicht so ist, und aktualisieren Ihre Sichtweise, wenn Sie mehr lernen.
  • Sie betrachten die Handelsplätze, das Vermögens- und Asset-Management, Produkte, Risiko, Finanzen, Compliance und Forschung als Kunden dessen, was Sie bauen, und kommunizieren mit ihnen auf diese Weise.
  • Sie optimieren für Ergebnisse über Ausgaben. Ein kleineres, einfacheres Produkt, das funktioniert, ist besser als ein größeres, das es nicht tut.
  • Sie übernehmen Verantwortung von Anfang bis Ende: entwerfen, liefern, betreiben, verbessern.
  • Sie sagen, was Sie denken, auch wenn es eine unpopuläre Meinung ist. Sie ändern Ihre Meinung, wenn das Argument besser ist.
  • Sie machen die Menschen um Sie herum besser. Bewertungen sind real, Junioren wachsen durch die Zusammenarbeit mit Ihnen, und Kollegen möchten wieder mit Ihnen arbeiten.
  • Sie sind neugierig, wie Märkte funktionieren. Datenengineering allein wird Sie hier nicht interessieren.
  • Sie sind ehrlich darüber, was Sie wissen und was nicht, und schließen schnell die Lücke.
  • Sie verstehen Finanzmarktdaten: Orderbücher, Trades, Referenzdaten, Portfolios, Expositionen. Crypto, TradFi oder beides sind ein großer Vorteil.
Schön zu haben
  • Lakehouse-Erfahrung mit Apache Iceberg oder Delta Lake.
  • Vertrautheit mit DataHub oder ähnlichen Metadaten-/Herkunftsplattformen.
  • Rust. Einige unserer leistungs-kritischen Dienste sind darin geschrieben. Interesse ist willkommen; Sprachbeherrschung ist nicht erforderlich.

Was Sie bekommen

  • Ein Mandat von Grund auf. Sie werden zu den ersten Mitarbeitern im CDT gehören, und die Plattform, die Standards und die Teamkultur sind es, die Sie mit uns gestalten können.
  • Starke Partner. Enge Arbeitsbeziehungen zu Architektur, Infrastruktur, Plattform und den Handelsplätzen selbst. Sie werden keine Daten im Vakuum erstellen.
  • Autonomie bei Ihrer Arbeitsweise. Flexible Arbeitszeiten, remote-first, Bereitschaftsdienst während der Geschäftszeiten, der im Team geteilt wird.
  • Ein wettbewerbsfähiges Gehaltspaket mit verschiedenen Vorteilen.
  • Ein Team, das sich gegenseitig mag. Regelmäßige Online-Treffen und ein jährliches Treffen, bei dem alle im selben Raum sind.

Wir setzen uns dafür ein, ein positives und kollaboratives Arbeitsumfeld zu schaffen. Wir heißen Mitarbeiter aller Hintergründe willkommen und stellen ausschließlich auf der Grundlage von Verdienst und Leistung ein, belohnen und befördern.

Senior Data Engineer Arbeitgeber: Keyrock

Keyrock ist ein hervorragender Arbeitgeber, der seinen Mitarbeitern die Möglichkeit bietet, in einem dynamischen und innovativen Umfeld zu arbeiten. Mit einer flexiblen Remote-Arbeitskultur, einem starken Fokus auf Teamzusammenhalt und der Chance, als einer der ersten Mitarbeiter im Central Data Team maßgeblich zur Gestaltung der Datenplattform beizutragen, fördert Keyrock das persönliche und berufliche Wachstum seiner Mitarbeiter. Zudem profitieren die Angestellten von einem wettbewerbsfähigen Gehaltspaket und regelmäßigen Teamevents, die den Zusammenhalt stärken.
K

Kontaktperson:

Keyrock HR Team

StudySmarter Bewerbungstipps 🤫

So bekommst du den Job: Senior Data Engineer

Tipp Nummer 1

Netzwerken ist der Schlüssel! Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Lass uns wissen, wenn du Fragen hast oder Unterstützung brauchst!

Tipp Nummer 2

Bereite dich auf Vorstellungsgespräche vor, indem du häufige Fragen und technische Herausforderungen übst. Wir können dir helfen, die besten Ressourcen zu finden, um dich optimal vorzubereiten.

Tipp Nummer 3

Zeige deine Leidenschaft für Datenengineering! Teile Projekte oder Erfahrungen, die deine Fähigkeiten unter Beweis stellen. Das wird dir helfen, dich von anderen Bewerbern abzuheben.

Tipp Nummer 4

Bewirb dich direkt über unsere Website! So kannst du sicherstellen, dass deine Bewerbung die richtigen Leute erreicht. Und vergiss nicht, uns bei Fragen zu kontaktieren!

Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Senior Data Engineer

Python
SQL
Datenmodellierung
Streaming-Systeme (Kafka, Redpanda, MSK, Kinesis)
Zeitreihenspeicher (ClickHouse, TimescaleDB, QuestDB)
Lakehouse-Architektur
Docker
Terraform
CI/CD
Datenqualität und Governance
Einhaltung von Datenverträgen
Selbstheilung und Idempotenz
Analytische Fähigkeiten
Kommunikationsfähigkeiten
Interesse an Finanzmarktdaten

Tipps für deine Bewerbung 🫡

Sei du selbst!: Wenn du deine Bewerbung schreibst, sei authentisch und zeig uns, wer du wirklich bist. Wir suchen nach Menschen, die nicht nur die richtigen Fähigkeiten haben, sondern auch gut ins Team passen.

Mach es klar und präzise!: Halte deine Bewerbung übersichtlich und auf den Punkt. Verwende klare Sprache und vermeide unnötigen Jargon. So können wir schnell erkennen, was du drauf hast!

Zeig deine Leidenschaft!: Erzähl uns, warum du dich für die Rolle als Senior Data Engineer interessierst und was dich an der Arbeit bei Keyrock reizt. Deine Begeisterung kann einen großen Unterschied machen!

Bewirb dich über unsere Website!: Um sicherzustellen, dass deine Bewerbung direkt bei uns landet, bewirb dich bitte über unsere Website. So können wir deine Unterlagen schnell und effizient bearbeiten.

Wie du dich auf ein Vorstellungsgespräch bei Keyrock vorbereitest

Verstehe die Unternehmensvision

Mach dich mit der Vision und den Werten von Keyrock vertraut. Zeige im Interview, dass du nicht nur die technischen Anforderungen verstehst, sondern auch, wie deine Rolle zur Gesamtstrategie des Unternehmens beiträgt. Das zeigt dein Interesse und Engagement.

Bereite konkrete Beispiele vor

Denke an spezifische Projekte oder Herausforderungen, die du in der Vergangenheit gemeistert hast. Sei bereit, diese zu erläutern, insbesondere in Bezug auf Datenpipelines, Systemdesign und deine Erfahrungen mit Technologien wie Kafka oder Docker. Konkrete Beispiele helfen, deine Fähigkeiten greifbar zu machen.

Fragen stellen

Bereite einige durchdachte Fragen vor, die zeigen, dass du dich mit der Rolle und dem Team auseinandergesetzt hast. Frage nach den aktuellen Herausforderungen im Central Data Team oder wie die Zusammenarbeit zwischen den verschiedenen Abteilungen aussieht. Das zeigt, dass du proaktiv bist und wirklich interessiert bist.

Technische Fähigkeiten demonstrieren

Sei bereit, deine technischen Fähigkeiten während des Interviews zu demonstrieren. Möglicherweise wirst du gebeten, eine technische Aufgabe zu lösen oder über deine Erfahrungen mit Python und SQL zu sprechen. Übe vorher, um sicherzustellen, dass du deine Gedanken klar und strukturiert präsentieren kannst.

Senior Data Engineer
Keyrock
Standort: Genf
Premium gehen

Schneller zum Traumjob mit Premium

Deine Bewerbung wird als „Top Bewerbung“ bei unseren Partnern gekennzeichnet
Individuelles Feedback zu Lebenslauf und Anschreiben, einschließlich der Anpassung an spezifische Stellenanforderungen
Gehöre zu den ersten Bewerbern für neue Stellen mit unserem AI Bewerbungsassistenten
1:1 Unterstützung und Karriereberatung durch unsere Career Coaches
Premium gehen

Geld-zurück-Garantie, wenn du innerhalb von 6 Monaten keinen Job findest

>