Auf einen Blick
- Aufgaben: Join our team to manage and integrate high-quality data for energy networks.
- Arbeitgeber: We are a leading provider in energy data solutions, focusing on innovation and quality.
- Mitarbeitervorteile: Enjoy remote work options and a collaborative environment with cutting-edge technology.
- Warum dieser Job: Be part of a dynamic team that impacts energy planning and data quality in real-time.
- Gewünschte Qualifikationen: Proficient in Python, Data Engineering, SQL, and API development; fluent in German and English.
- Andere Informationen: Flexible home office arrangements available.
Das voraussichtliche Gehalt liegt zwischen 48000 - 84000 € pro Jahr.
Unsere große Datenplattform ist dafür ausgelegt, verschiedenen Lösungen hoch qualitative Daten zur Verfügung zu stellen. Es handelt sich um technische Daten im Bereich Strom und Gas Netzbetrieb. Des Weiteren werden Zeitreihen integriert. Zuletzt werden neue Datenquellen mit Planungsdaten eingebunden. Um die verschiedenen Datenlösungen auf der Plattform an die neuen Anforderungen anzupassen, müssen neue Daten integriert und per API ausgeliefert werden.
Kommunale Wärmeplanung: Dort müssen Stamm- und Bewegungsdaten im Bereich Zählerwesen bereitgestellt werden. Außerdem werden wir einen Umzug auf eine neue Infrastruktur mit Data Bricks und Unity Catalogue vornehmen. Dafür muss der Code und alle Pipeline umgezogen und mit anderen Codeteilen synchronisiert werden.
Planung: Planung von Strom und Gasassets muss gegenüber der Bundes Netzagentur erweitert werden. Dafür muss eine neue Datenquelle in eine bestehende Datenlösung integriert werden. Erneut bedarf es der Einbindung von neuen Datenstrukturen in bestehende Datenbanken und die Auslieferung der Daten per API.
Reporting: Es müssen verschiedene Reportings von Asset Stammdaten an verschiedene Stakeholder erstellt werden. Sowohl für kommunal als auch überregional müssen Aggregationen aus den Daten erstellt werden, die den Anforderungen der jeweiligen Stakeholder genügen.
Datenqualität: Zuletzt werden in den beschriebenen Anwendungsfällen auf Datenebene Datenfehler auftreten. Deren systematische Ausspielung innerhalb einer Databricks Umgebung wird ebenfalls von Nöten sein.
Minimum Requirements:
- Sicherer Umgang mit Python
- Sicherer Umgang im Bereich Data Engineering und Bibliotheken wie Spark und Pandas
- Kenntnisse mit SQL
- Erfahrung in der Nutzung und im Aufbau von APIs
- Erfahrung im Umgang mit Gitlab
- Erfahrung in der Arbeit mit Data Services in der Cloud (vorzugsweise Azure)
- Sichere Kenntnisse von Deutsch und Englisch
Benefits:
- Homeoffice-Möglichkeit
#J-18808-Ljbffr
Data Engineer (m/w/d) Arbeitgeber: Hays

Kontaktperson:
Hays HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer (m/w/d)
✨Tip Nummer 1
Mach dich mit den spezifischen Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Data Bricks und Unity Catalogue. Zeige in deinem Gespräch, dass du nicht nur die Grundlagen beherrschst, sondern auch bereit bist, dich in neue Tools einzuarbeiten.
✨Tip Nummer 2
Bereite dich darauf vor, konkrete Beispiele für deine Erfahrungen im Umgang mit APIs und Datenintegration zu teilen. Überlege dir, wie du ähnliche Herausforderungen in der Vergangenheit gemeistert hast und welche Ergebnisse du erzielt hast.
✨Tip Nummer 3
Da die Kommunikation mit verschiedenen Stakeholdern wichtig ist, solltest du deine Fähigkeiten im Reporting und in der Datenvisualisierung hervorheben. Überlege dir, wie du komplexe Daten einfach und verständlich präsentieren kannst.
✨Tip Nummer 4
Nutze die Möglichkeit, Fragen zur Unternehmenskultur und den Teamdynamiken zu stellen. Zeige dein Interesse an der Zusammenarbeit im Team und wie du zur Verbesserung der Datenqualität beitragen kannst.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer (m/w/d)
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf die spezifischen Anforderungen wie Kenntnisse in Python, SQL und Erfahrung mit APIs. Stelle sicher, dass du diese Punkte in deiner Bewerbung ansprichst.
Hebe relevante Erfahrungen hervor: Betone in deinem Lebenslauf und Anschreiben deine Erfahrungen im Data Engineering, insbesondere mit Bibliotheken wie Spark und Pandas sowie deine Kenntnisse in Cloud-Diensten wie Azure. Zeige konkrete Beispiele, wie du diese Technologien in der Vergangenheit eingesetzt hast.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du dich für die Position interessierst und wie deine Fähigkeiten zur Lösung der beschriebenen Aufgaben beitragen können. Gehe auf die Herausforderungen ein, die in der Stellenbeschreibung genannt werden.
Dokumente überprüfen: Bevor du deine Bewerbung einreichst, überprüfe alle Dokumente auf Vollständigkeit und Richtigkeit. Achte darauf, dass dein Lebenslauf aktuell ist und alle relevanten Informationen enthält. Ein fehlerfreies Dokument hinterlässt einen guten Eindruck.
Wie du dich auf ein Vorstellungsgespräch bei Hays vorbereitest
✨Zeige deine technischen Fähigkeiten
Bereite dich darauf vor, deine Kenntnisse in Python, Spark und Pandas zu demonstrieren. Sei bereit, spezifische Beispiele aus deiner bisherigen Arbeit zu nennen, die deine Fähigkeiten im Data Engineering unter Beweis stellen.
✨Verstehe die API-Integration
Da die Rolle die Integration neuer Datenquellen und die Auslieferung per API umfasst, solltest du dich mit den gängigen Best Practices für API-Entwicklung und -Nutzung vertraut machen. Bereite dich darauf vor, Fragen zu beantworten, wie du APIs in früheren Projekten verwendet hast.
✨Datenqualität im Fokus
Sei bereit, über deine Erfahrungen mit der Sicherstellung der Datenqualität zu sprechen. Diskutiere, wie du Datenfehler identifiziert und behoben hast, insbesondere in einer Databricks-Umgebung.
✨Sprich über Cloud-Erfahrungen
Da Erfahrung mit Cloud-Diensten, insbesondere Azure, gefordert ist, solltest du konkrete Beispiele für Projekte oder Aufgaben haben, bei denen du Cloud-Technologien eingesetzt hast. Zeige, wie du diese Technologien zur Verbesserung von Datenlösungen genutzt hast.