Aufgaben
- Du entwirfst, entwickelst und wartest robuste Datenpipelines, um die Sammlung, Transformation und Speicherung von Daten aus verschiedenen internen und externen Quellen zu ermöglichen.
- Die Erstellung eines stabilen Datenmodells für die flexible Analyse in unserer Analyseplattform gehört zu deinem Verantwortungsbereich.
- Du arbeitest eng mit funktionsübergreifenden Teams zusammen, um Datenanforderungen zu verstehen und sicherzustellen, dass die Datenarchitektur den Unternehmenszielen entspricht.
- Die Überwachung und Optimierung von Datensystemen hinsichtlich Leistung, Zuverlässigkeit und Skalierbarkeit ist Teil deiner Verantwortung, um eine hohe Datenverfügbarkeit sicherzustellen.
- Du implementierst Datenqualitätsprüfungen und Validierungsprozesse, um die Integrität und Genauigkeit der Daten zu gewährleisten.
- Es gehört zu deinen Aufgaben, Dokumentationen für Datenmodelle, Datenflüsse, ETL-Prozesse und allgemeine Datenmanagement-Initiativen zu erstellen und zu pflegen, um Transparenz und Wissensaustausch zu fördern.
- Du führst Troubleshooting durch und behebst datenbezogene Probleme, wobei du Nutzerinnen, Nutzern und Stakeholder bei Bedarf unterstützt.
- Du hältst dich über neue Technologien und Best Practices im Bereich Datenengineering auf dem Laufenden, um unsere Datenprozesse und -systeme kontinuierlich weiterzuentwickeln.
Qualifikationen
- Ein Bachelor-Abschluss in Informatik, Informationstechnologie, Data Science oder einem verwandten Bereich ist erforderlich, alternativ mehrjährige relevante Erfahrung und kontinuierliche Weiterbildung in diesem Bereich. Ein Master-Abschluss ist von Vorteil.
- Mehrjährige Erfahrung im Datenengineering oder einem verwandten Bereich, mit Fokus auf Entwicklung von Datenpipelines, Data Storage und Datenmanagement.
- Erfahrung in der OTC- oder FMCG-Umgebung ist von Vorteil.
- Versiert in Datenmodellierung und Programmierung (z.B. mit Python, Java oder Scala), sicher im Umgang mit SQL und Erfahrung mit relationalen (z.B. PostgreSQL, MySQL) sowie NoSQL-Datenbanken (z.B. MongoDB, Cassandra).
- Erfahrung im Bereich Data Storage (z.B. AWS Redshift, Google BigQuery), mit ETL-Tools (z.B. Apache Airflow, Talend) sowie mit Cloud-Plattformen (z.B. AWS, Azure, Google Cloud) und Kenntnisse im Design multidimensionaler Modelle (z.B. PowerBI, MS Analysis Services).
- Fundierte Kenntnisse in Datenanalyse-Konzepten, statistischer Analyse und Erfahrung mit Tools wie Power BI für Berichte und Dashboards.
- Starke analytische und problemlösende Fähigkeiten, Fähigkeit komplexe Datensätze zu analysieren und eng mit Datenanalysten zusammenzuarbeiten, um Geschäftsanforderungen in technische Lösungen umzusetzen.
- Sichere Kommunikation in Deutsch und Englisch, um effektiv mit technischen und nicht-technischen Stakeholdern zusammenzuarbeiten.
#J-18808-Ljbffr

Kontaktperson:
Bayer HR Team