Auf einen Blick
- Aufgaben: Entwickle innovative Datenpipelines und Prototypen mit modernsten Technologien.
- Arbeitgeber: Orcrist, ein führendes Unternehmen im Bereich Datenintelligenz.
- Mitarbeitervorteile: 30 Tage Urlaub, Remote-Arbeit, Ausstattungs- und Lernbudget.
- Andere Informationen: Dynamisches Umfeld mit großem Wachstumspotenzial und regelmäßigen Prototyping-Sprints in Berlin.
- Warum dieser Job: Gestalte die Zukunft der Datenverarbeitung und hinterlasse einen bleibenden Eindruck.
- Gewünschte Qualifikationen: Mindestens 3 Jahre Erfahrung in der Datenverarbeitung, starke Python- und SQL-Kenntnisse.
Das voraussichtliche Gehalt liegt zwischen 45000 - 65000 € pro Jahr.
Company Orcrist builds the Orcrist Intelligence Platform (OIP), a Kubernetes-basiertes Datenintelligenzsystem, das als SaaS oder selbst gehostet/on-prem (einschließlich luftdichter Bereitstellungen) bereitgestellt wird. Wir betreiben Streaming- und Batch-Pipelines, die Such-, ML-Anreicherungs- und Ermittlungs-Workflows für mission-critical Kunden unterstützen.
Rolle
Validieren Sie neue Dateninitiativen schnell von Anfang bis Ende – ohne die Anpassungsfähigkeit zu opfern. Im Bereich Innovation werden Sie repräsentative Connectoren und Pipelines (Batch + Streaming) prototypisieren, glaubwürdige Leistungs-/Betriebsberichte erstellen und ein Übergabepaket liefern, das von Foundation oder einem Lieferungsteam produktiv genutzt werden kann.
Was Sie tun werden
- Prototyping von Ingestion- und Connector-Mustern (Batch + Streaming) unter Verwendung von NiFi, Kafka, Kafka Connect/Streams und CDC-Ansätzen.
- Entwerfen von „prototypenfähigen, aber annehmbaren“ Schemata und Datenmodellen mit klarer Semantik und Evolutionsdisziplin.
- Erstellen von inkrementellen Lakehouse-Datensätzen (Hudi/Iceberg/Delta-Muster) und Erzeugen von abfragbaren Ausgaben zur realistischen Bewertung von Latenz/Durchsatz.
- Datenqualitäts- und Provenienzdenken frühzeitig einbinden (Überprüfungen, Metadaten-Hooks, grundlegende Betriebsfähigkeit).
- Containerisieren und Bereitstellen von Prototypen auf Kubernetes; minimale Runbooks/Configs liefern, die die Annahme einfach machen.
- Produzieren von Annahmeartefakten: Schemata, Referenzimplementierungen, technische Entwurfsnotizen und einen Integrationsrückstand.
Über Sie
- 3+ Jahre Erfahrung im Bereich Datenengineering (abhängig vom Niveau) mit realer Pipeline-Lieferung über ad-hoc-Skripte hinaus.
- Starke Kenntnisse in Python + SQL; sicher im Erstellen von Transformationen, Validierungstools und Pipeline-Klebercode.
- Praktische Grundlagen in Streaming/CDC (Reihenfolge, Duplikation, Wiedergabe, Idempotenz) und Erfahrung im Kafka-Ökosystem.
- Vertraut mit Lakehouse/Speicher- und Abfrageschichten (z.B. Hudi/Iceberg/Delta, Trino/Hive/Postgres) und wie man Datensätze nutzbar macht.
- Sicher im Arbeiten in Kubernetes/containerbasierten Umgebungen und klare Dokumentation von Entscheidungen.
- Berechtigt, in Deutschland zu arbeiten; EU/NATO-Staatsbürgerschaft bevorzugt und Exportkontrollüberprüfung gilt.
Nice-to-haves
- Great Expectations oder ähnliche Datenqualitätswerkzeuge; Metadaten-/Linienplattformen (OpenMetadata/DataHub/Atlas).
- Erfahrung in der Bereitstellung in On-Prem- oder luftdichten Umgebungen; Governance-/Politikbewusstsein für regulierte Kunden.
- Deutschkenntnisse (B1+) und/oder Erfahrung mit OSINT/GEOINT/multi-INT-Datenformen.
Was wir bieten
Moderner Datenstack mit echten Einschränkungen: Kafka + NiFi + Lakehouse + verteiltes SQL + Kubernetes. Remote-first in Deutschland mit regelmäßigen Prototyping-Sprints in Berlin, 30 Tage Urlaub, Equipment- & Lernbudget. Hohe Hebelwirkung: Ihre Prototypen werden zu Blaupausen, die mehrere Teams wiederverwenden und produktiv nutzen.
Data Engineer (Python) Arbeitgeber: Orcrist Technologies
Kontaktperson:
Orcrist Technologies HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer (Python)
✨Netzwerken, Netzwerken, Netzwerken!
Nutze LinkedIn und andere Plattformen, um mit Leuten aus der Branche in Kontakt zu treten. Frag nach informellen Gesprächen oder Meetups – oft erfährst du so von offenen Stellen, bevor sie offiziell ausgeschrieben werden.
✨Zeig deine Projekte!
Hast du coole Projekte oder Prototypen, die du gebaut hast? Teile sie auf GitHub oder in deinem Portfolio! Das zeigt nicht nur deine Fähigkeiten, sondern gibt potenziellen Arbeitgebern auch einen Einblick in deinen Arbeitsstil.
✨Bereite dich auf technische Interviews vor!
Mach dich mit typischen Fragen und Aufgaben für Data Engineers vertraut. Übe das Lösen von Problemen in Python und SQL, damit du im Interview glänzen kannst. Wir wissen, dass du das drauf hast!
✨Bewirb dich direkt über unsere Website!
Wenn du an einer Stelle interessiert bist, bewirb dich direkt über unsere Website. So stellst du sicher, dass deine Bewerbung schnell gesehen wird und du die besten Chancen hast, Teil unseres Teams zu werden!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer (Python)
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wenn du deine Bewerbung schreibst, sei authentisch und zeig uns, wer du wirklich bist. Wir suchen nach Menschen, die nicht nur die richtigen Fähigkeiten haben, sondern auch gut ins Team passen.
Betone deine Erfahrungen: Erzähle uns von deinen bisherigen Projekten und Erfahrungen im Data Engineering. Zeig uns, wie du mit Python und SQL gearbeitet hast und welche Herausforderungen du gemeistert hast. Das hilft uns, dich besser kennenzulernen!
Mach es klar und strukturiert: Achte darauf, dass deine Bewerbung übersichtlich und gut strukturiert ist. Verwende klare Absätze und Überschriften, damit wir schnell die wichtigsten Informationen finden können. Das zeigt uns auch, dass du organisiert bist.
Bewirb dich über unsere Website: Wir empfehlen dir, dich direkt über unsere Website zu bewerben. So kannst du sicherstellen, dass deine Bewerbung an die richtige Stelle gelangt und du alle notwendigen Informationen bereitstellst.
Wie du dich auf ein Vorstellungsgespräch bei Orcrist Technologies vorbereitest
✨Verstehe die Technologien
Mach dich mit den Technologien vertraut, die im Jobprofil erwähnt werden, wie Python, SQL, Kafka und Kubernetes. Zeige im Interview, dass du nicht nur die Grundlagen kennst, sondern auch praktische Erfahrungen hast. Bereite Beispiele vor, wie du diese Technologien in früheren Projekten eingesetzt hast.
✨Bereite konkrete Projekte vor
Denke an spezifische Projekte, an denen du gearbeitet hast, die relevant für die Rolle sind. Sei bereit, über die Herausforderungen zu sprechen, die du gemeistert hast, und wie deine Lösungen zur Verbesserung der Datenpipeline beigetragen haben. Das zeigt, dass du praxisorientiert bist und echte Ergebnisse liefern kannst.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Position und dem Unternehmen. Frage nach den aktuellen Herausforderungen, die das Team hat, oder wie sie Innovationen in ihren Projekten umsetzen. So kannst du auch herausfinden, ob die Unternehmenskultur zu dir passt.
✨Dokumentation und Kommunikation
Da Dokumentation ein wichtiger Teil der Rolle ist, sei bereit, über deine Erfahrungen in der klaren Kommunikation von technischen Entscheidungen zu sprechen. Erkläre, wie du sicherstellst, dass deine Arbeit für andere verständlich ist, und bringe Beispiele für Dokumentationen oder Runbooks, die du erstellt hast.