Auf einen Blick
- Aufgaben: Entwickle und optimiere Cloud-basierte Datenlösungen mit Azure, Snowflake und dbt.
- Arbeitgeber: Werde Teil eines innovativen Unternehmens, das datengetriebene Lösungen vorantreibt.
- Mitarbeitervorteile: Flexibles Arbeiten, Homeoffice-Ausstattung, 30 Tage Urlaub und exklusive Corporate Benefits.
- Warum dieser Job: Gestalte die Zukunft der Datenverarbeitung in einem dynamischen Team und entwickle deine Fähigkeiten weiter.
- Gewünschte Qualifikationen: Erfahrung mit Data-Warehouse-Architekturen, SQL-Kenntnisse und Teamfähigkeit sind wichtig.
- Andere Informationen: Jede Bewerbung ist willkommen – wir schätzen Begeisterung und Initiative!
Das voraussichtliche Gehalt liegt zwischen 42000 - 84000 € pro Jahr.
- Entwicklung und Optimierung eines Cloud-basierten Systemstacksauf Basis von Azure, Snowflake und dbt
- Umsetzung von Datenarchitekturen und Modellierungskonzepten zur effizienten Verarbeitung und Analyse großer Datenmengen
- Verantwortung für den gesamten Lebenszyklus von Datenprodukten, einschließlich Design, Entwicklung, Deployment und Betrieb
- Sicherstellung der Performance und Skalierbarkeit von Data-Warehouse- und Data-Lake-Lösungen
- Zusammenarbeit mit interdisziplinären Teams zur Anpassung und Weiterentwicklung datengetriebener Lösungen
Das treibst du voran
- Entwicklung und Optimierung eines Cloud-basierten Systemstacksauf Basis von Azure, Snowflake und dbt
- Umsetzung von Datenarchitekturen und Modellierungskonzepten zur effizienten Verarbeitung und Analyse großer Datenmengen
- Verantwortung für den gesamten Lebenszyklus von Datenprodukten, einschließlich Design, Entwicklung, Deployment und Betrieb
- Sicherstellung der Performance und Skalierbarkeit von Data-Warehouse- und Data-Lake-Lösungen
- Zusammenarbeit mit interdisziplinären Teams zur Anpassung und Weiterentwicklung datengetriebener Lösungen
Das zeichnet dich aus
- Erfahrung in der Entwicklung und Verwaltung von Data-Warehouse- oder Data-Lake-Architekturen
- Fundierte SQL-Kenntnisse und Erfahrung mit relationalen sowie Cloud-basierten Datenbanken
- Erfahrung mit Cloud-Plattformen (Azure, GCP oder AWS) sowie mit modernen ETL-Tools und dbt
- Verständnis für Datenmodellierungsmethoden (z. B. Data Vault, dimensionale Modellierung)
- Kenntnisse in Python von Vorteil
- Analytische und lösungsorientierte Arbeitsweise sowie ein hohes Maß an Eigeninitiative
- Teamfähigkeit und Kommunikationsstärke, insbesondere in interdisziplinären Projekten
- Sehr gute Deutsch- und Englischkenntnisse
Auf das und mehr kannst du dich freuen
Flexibles Arbeiten – dein Job, dein Rhythmus, deine Wahl
Homeoffice-Ausstattung – inklusive ergonomischer Möbel für mehr Komfort
Weiterbildung & Schulungsangebote – mit unserer Academy einen Schritt voraus
30 Tage Urlaub – plus zusätzliche freie Tage an Heiligabend und Silvester
Corporate Benefits & Rabatte – exklusive Vorteile für deinen Alltag
Flexibler Benefit – wähle das ideale Extra, das zu dir passt
Nutze deine Chance
Du erfüllst nicht alle Anforderungen? Kein Problem – für uns zählt auch deine Begeisterung, neue Wege zu gehen, und dein Wille, gemeinsam etwas zu bewegen. Jede Bewerbung ist bei uns willkommen, egal wer du bist und welchen Hintergrund du mitbringst. Werde Teil unserer Mission und lass uns gemeinsam Großes gestalten!
Noch Fragen? Dann melde dich gerne bei:
Olivia Zydek
Expert Talent Acquisition & Employer Branding
Wir freuen uns auf deine Bewerbung!
Düsseldorf, North Rhine-Westphalia, Germany 1 month ago
Düsseldorf, North Rhine-Westphalia, Germany 1 month ago
Düsseldorf, North Rhine-Westphalia, Germany 4 months ago
Düsseldorf, North Rhine-Westphalia, Germany 1 month ago
Düsseldorf, North Rhine-Westphalia, Germany 1 week ago
Düsseldorf, North Rhine-Westphalia, Germany 1 month ago
Düsseldorf, North Rhine-Westphalia, Germany 1 month ago
Mönchengladbach, North Rhine-Westphalia, Germany 4 weeks ago
Düsseldorf, North Rhine-Westphalia, Germany 4 days ago
Düsseldorf, North Rhine-Westphalia, Germany 1 month ago
Essen, North Rhine-Westphalia, Germany 4 days ago
Heiligenhaus, North Rhine-Westphalia, Germany 4 weeks ago
Young Professional Big Data Engineer (m/w/d) ←
Ratingen, North Rhine-Westphalia, Germany 1 day ago
Düsseldorf, North Rhine-Westphalia, Germany 1 month ago
Düsseldorf, North Rhine-Westphalia, Germany 1 week ago
Trainee Cloud & Data – Dein Einstieg in Artificial Intelligence & Data (m/w/d) in Düsseldorf
Düsseldorf, North Rhine-Westphalia, Germany 2 days ago
#J-18808-Ljbffr
Data Engineer Business Intelligence (w/m/d) Arbeitgeber: Deutsche Glasfaser Unternehmensgruppe

Kontaktperson:
Deutsche Glasfaser Unternehmensgruppe HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer Business Intelligence (w/m/d)
✨Tip Nummer 1
Nutze dein Netzwerk! Sprich mit ehemaligen Kollegen oder Kommilitonen, die bereits in der Datenengineering-Branche arbeiten. Sie können dir wertvolle Einblicke geben und möglicherweise sogar eine Empfehlung aussprechen.
✨Tip Nummer 2
Setze dich intensiv mit den Technologien auseinander, die in der Stellenbeschreibung erwähnt werden, insbesondere Azure, Snowflake und dbt. Erstelle kleine Projekte oder Tutorials, um deine Kenntnisse praktisch anzuwenden und zu vertiefen.
✨Tip Nummer 3
Bereite dich auf technische Interviews vor, indem du häufige Fragen zu SQL, Datenarchitekturen und ETL-Prozessen übst. Es kann hilfreich sein, Mock-Interviews mit Freunden oder über Online-Plattformen durchzuführen.
✨Tip Nummer 4
Zeige deine Teamfähigkeit und Kommunikationsstärke in Gesprächen. Bereite Beispiele vor, wie du erfolgreich in interdisziplinären Teams gearbeitet hast, um deine Eignung für die Zusammenarbeit bei uns zu unterstreichen.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer Business Intelligence (w/m/d)
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf die geforderten Fähigkeiten und Erfahrungen. Stelle sicher, dass du diese in deinem Lebenslauf und Anschreiben klar hervorhebst.
Betone relevante Erfahrungen: Fokussiere dich in deinem Lebenslauf auf deine Erfahrungen mit Cloud-Plattformen wie Azure, Snowflake und dbt. Zeige konkrete Projekte oder Aufgaben, die deine Fähigkeiten in der Datenarchitektur und -modellierung demonstrieren.
Anpassung des Anschreibens: Gestalte dein Anschreiben individuell für diese Position. Erkläre, warum du an dieser Stelle interessiert bist und wie deine analytische und lösungsorientierte Arbeitsweise zur Weiterentwicklung datengetriebener Lösungen beitragen kann.
Sprache und Stil: Achte darauf, dass dein Anschreiben und Lebenslauf in einem professionellen, aber persönlichen Stil verfasst sind. Verwende klare und präzise Sprache, um deine Punkte zu vermitteln, und achte auf Grammatik und Rechtschreibung.
Wie du dich auf ein Vorstellungsgespräch bei Deutsche Glasfaser Unternehmensgruppe vorbereitest
✨Verstehe die Technologien
Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, insbesondere Azure, Snowflake und dbt. Zeige im Interview, dass du praktische Erfahrungen oder Kenntnisse in diesen Bereichen hast.
✨Bereite Beispiele vor
Denke an konkrete Projekte oder Erfahrungen, die deine Fähigkeiten in der Datenarchitektur und -modellierung demonstrieren. Sei bereit, diese Beispiele zu erläutern und wie sie zur Lösung von Problemen beigetragen haben.
✨Teamarbeit betonen
Da die Zusammenarbeit mit interdisziplinären Teams wichtig ist, solltest du Beispiele für erfolgreiche Teamprojekte parat haben. Betone deine Kommunikationsfähigkeiten und wie du zur Teamdynamik beigetragen hast.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Position und dem Unternehmen. Frage nach den Herausforderungen, die das Team aktuell hat, oder nach den nächsten Schritten in der Entwicklung der Datenlösungen.