Das erwartet Dich
- Aufbau, Pflege und Weiterentwicklung von Datenarchitekturen (z. B. Data Warehouses, Data Lakes, Lakehouses)
- Entwicklung und Orchestrierung von ETL / ELT-Prozessen zur Datenintegration
- Datenmodellierung und Optimierung zur UnterstĂĽtzung von Analyse- und Reporting-Anwendungen
- Integration vielfältiger Datenquellen und Aufbau automatisierter Datenpipelines (Batch- und Streaming-Verarbeitung)
- Enge Zusammenarbeit mit Data Scientists, Analyst:innen und Entwickler:innen zur Entwicklung datengetriebener Lösungen
- Betrieb und Versionierung von Datenprojekten mit Git und Azure DevOps
- Monitoring, Logging und Performance-Tuning von Datenworkloads
Das bringst Du mit
- Fundierte Kenntnisse in SQL sowie praktische Erfahrung mit relationalen und NoSQL-Datenbanken
- Erfahrung in der Arbeit mit Lakehouse-Architekturen (z. B. Microsoft Fabric, Databricks oder ähnliches)
- Gute Kenntnisse in Python (besonders fĂĽr die Datenverarbeitung) und Bash-Scripting
- Erfahrung im Einsatz und der Verwaltung von Orchestrierungstools wie Airflow oder ähnlichem
- Sicherer Umgang mit Git, idealerweise mit Erfahrung in CI / CD-Pipelines in Azure DevOps
- Vertraut mit Datenmodellierungsprinzipien (z. B. Star Schema, 3NF, Data Vault)
- Selbstständige und strukturierte Arbeitsweise, ausgeprägter Teamgeist und ein Gespür für sauberen, wartbaren Code
- Sehr gute Deutsch- und Englischkenntnisse
Darauf kannst Du Dich freuen
Viel Freiraum durch flexible Arbeitszeiten und einen flexiblen Arbeitsort
– eine digitale Ausstattung für dein mobiles Arbeiten ist bei uns selbstverständlich
- 300 € jährliches Gesundheitsbudget sowie eine betriebliche Altersvorsorge
- Klimaneutrale Mobilität : Bezuschussung beim Jobrad‑Leasing und Jobticket
- VergĂĽnstigte Mitgliedschaft beim Urban Sports Club
- \“HAPPY\“ Firmenspecials : Wir machen mehr als nur Sommerfest & Weihnachtsfeier
- 2‑tägiges Onboarding‑Event für deinen optimalen Start und dein Netzwerk bei uns
#J-18808-Ljbffr
Kontaktperson:
EAT HAPPY GROUP HR Team