Auf einen Blick
- Aufgaben: Entwickle und optimiere Datenpipelines für eine leistungsstarke Datenverarbeitung.
- Arbeitgeber: Ein innovatives Unternehmen im Grossraum Zürich, das auf Datenlösungen spezialisiert ist.
- Mitarbeitervorteile: Flexible Arbeitszeiten und die Möglichkeit, remote zu arbeiten.
- Warum dieser Job: Werde Teil eines dynamischen Teams und arbeite an spannenden Projekten im Cloud-Bereich.
- Gewünschte Qualifikationen: Mehrjährige Erfahrung als Data Engineer und Kenntnisse in Python, PySpark und Azure Data Factory.
- Andere Informationen: Fließende Deutschkenntnisse sind erforderlich.
Das voraussichtliche Gehalt liegt zwischen 48000 - 84000 € pro Jahr.
Für unseren Kunden im Grossraum Zürich, suchen wir eine:n erfahrene:n und aufgeschlossene:n Data Engineer - Azure Cloud.
- Design & Entwicklung des Data Lakehouse als Self-Service-Plattform
- Unterstützung und Enablement von Data Domains, um sich in die Plattform zu integrieren
- Optimierung von Datenpipelines mit Python & PySpark für leistungsstarke Datenverarbeitung
- Mehrjährige Erfahrung als Data Engineer mit vertieften Kenntnissen von Data Lakes und Data Warehouses
- Versiert in der Entwicklung und Optimierung von Datenpipelines mit Python und PySpark und umfassende Kenntnisse in Azure Data Factory
- Fliessende Deutschkenntnisse
Data Engineer - Azure Cloud Arbeitgeber: Whatjobs

Kontaktperson:
Whatjobs HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer - Azure Cloud
✨Tip Nummer 1
Netzwerke sind entscheidend! Nutze Plattformen wie LinkedIn, um dich mit anderen Data Engineers und Fachleuten im Bereich Azure Cloud zu vernetzen. Nimm an relevanten Gruppen und Diskussionen teil, um dein Wissen zu erweitern und potenzielle Kontakte zu knüpfen.
✨Tip Nummer 2
Halte Ausschau nach Meetups oder Konferenzen, die sich auf Data Engineering und Azure Cloud konzentrieren. Diese Veranstaltungen bieten nicht nur wertvolle Einblicke, sondern auch die Möglichkeit, direkt mit Unternehmen in Kontakt zu treten, die möglicherweise offene Stellen haben.
✨Tip Nummer 3
Erstelle ein Portfolio, das deine Projekte und Erfahrungen im Bereich Data Engineering zeigt. Zeige konkrete Beispiele für Datenpipelines, die du mit Python und PySpark entwickelt hast, sowie deine Kenntnisse in Azure Data Factory. Dies kann dir helfen, dich von anderen Bewerbern abzuheben.
✨Tip Nummer 4
Bereite dich auf technische Interviews vor, indem du häufige Fragen zu Data Lakes, Data Warehouses und der Optimierung von Datenpipelines übst. Stelle sicher, dass du auch praktische Übungen durchführen kannst, um deine Fähigkeiten in Python und PySpark zu demonstrieren.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer - Azure Cloud
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf spezifische Anforderungen wie Kenntnisse in Azure Data Factory, Python und PySpark. Stelle sicher, dass du diese Punkte in deiner Bewerbung ansprichst.
Hebe relevante Erfahrungen hervor: Betone in deinem Lebenslauf und Anschreiben deine mehrjährige Erfahrung als Data Engineer sowie deine Kenntnisse in der Entwicklung und Optimierung von Datenpipelines. Verwende konkrete Beispiele, um deine Fähigkeiten zu untermauern.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du dich für diese Position interessierst und wie deine Fähigkeiten und Erfahrungen zum Erfolg des Unternehmens beitragen können.
Prüfe deine Unterlagen: Bevor du deine Bewerbung einreichst, überprüfe alle Dokumente auf Vollständigkeit und Richtigkeit. Achte darauf, dass dein Lebenslauf aktuell ist und keine Rechtschreibfehler enthält.
Wie du dich auf ein Vorstellungsgespräch bei Whatjobs vorbereitest
✨Kenntnisse über Azure und Data Lakes
Stelle sicher, dass du dich gut mit Azure Data Factory und den Konzepten von Data Lakes und Data Warehouses auskennst. Bereite Beispiele vor, wie du diese Technologien in der Vergangenheit eingesetzt hast.
✨Python und PySpark Fähigkeiten demonstrieren
Sei bereit, deine Erfahrungen mit Python und PySpark zu erläutern. Du könntest auch praktische Beispiele oder Projekte anführen, bei denen du Datenpipelines optimiert hast.
✨Fragen zur Teamarbeit und Integration
Da die Rolle auch die Unterstützung und das Enablement von Data Domains umfasst, sei darauf vorbereitet, Fragen zu deiner Teamarbeit und deinen Erfahrungen in der Zusammenarbeit mit anderen Abteilungen zu beantworten.
✨Fließende Deutschkenntnisse zeigen
Da fließende Deutschkenntnisse gefordert sind, achte darauf, während des Interviews klar und präzise auf Deutsch zu kommunizieren. Übe eventuell vorher einige technische Begriffe auf Deutsch.