Auf einen Blick
- Aufgaben: Entwickle skalierbare Datenpipelines und arbeite an spannenden Kundenprojekten.
- Arbeitgeber: Innovatives Unternehmen mit kreativem und dynamischem Arbeitsumfeld.
- Mitarbeitervorteile: Attraktives Gehalt, flexible Arbeitszeiten und coole Mitarbeiterevents.
- Andere Informationen: Offene Teamkultur, die Vielfalt schätzt und Inklusion fördert.
- Warum dieser Job: Gestalte den Data-Bereich aktiv mit und entwickle deine Fähigkeiten weiter.
- Gewünschte Qualifikationen: Erfahrung in SQL, Spark/PySpark und Datenmodellierung erforderlich.
Das voraussichtliche Gehalt liegt zwischen 36000 - 60000 € pro Jahr.
Was dich erwartet
Du liebst es, Daten zum Fließen zu bringen, große Datenmengen performant zu verarbeiten und saubere Pipelines zu bauen? Dein Schwerpunkt liegt klar auf Entwicklung und Datenverarbeitung? Dann bist du hier richtig. Du arbeitest im Consulting-Umfeld und entwickelst für unterschiedliche Kunden immer wieder neue, abwechslungsreiche Datenlösungen. Du entwickelst skalierbare ETL/ELT-Datenpipelines für Batch- und Streaming-Verarbeitung und arbeitest mit Spark / PySpark, Python und SQL. Du implementierst Datenmodelle nach Kimball, Data Vault oder Lakehouse-Prinzipien. Du transformierst, normalisierst und denormalisierst Daten aus verschiedenen Quellsystemen. Du orchestrierst Datenpipelines mit Airflow oder vergleichbaren Tools und arbeitest mit Databricks, Snowflake oder ähnlichen Plattformen. Du unterstützt Datenanalyse- und Machine-Learning-Pipelines. Du sorgst für Qualität durch Testing, Dokumentation und CI/CD.
Was du mitbringst
- Mehrjährige Berufserfahrung in den oben genannten Themen
- Sehr gute SQL-Kenntnisse
- Sehr gute Kenntnisse in Spark / PySpark
- Sichere Arbeitsweise mit Python
- Erfahrung mit dbt und Airflow oder vergleichbaren Orchestrierungstools
- Sicherer Umgang mit Snowflake und/oder Databricks
- Erfahrung in Datenmodellierung (dimensionale Modellierung, Data Vault, Normalisierung & Denormalisierung)
- Analytisches Denken und Freude daran, komplexe Datenprobleme sauber zu lösen
- Selbstorganisierte Arbeitsweise und Überblick in mehreren Kundenprojekten
- Lust auf Consulting und wechselnde, spannende Projekte
- Offene und konstruktive Kommunikation sowie Wertschätzung von Feedback
Worauf du dich freuen kannst - unsere Benefits
- Innovative Projekte und kreatives Umfeld: Du arbeitest an spannenden Kundenprojekten in einem kreativen und dynamischen Arbeitsumfeld mit viel Raum für eigene Ideen und persönliche Weiterentwicklung.
- Agilität: Du wirst Teil eines Teams, das agil und flexibel arbeitet, um immer die besten Ergebnisse zu erzielen.
- Flexibilität: Gestalte deinen Arbeitstag nach deinen Bedürfnissen – mit der Option auf Homeoffice und flexiblen Arbeitszeiten.
- Gestaltungsspielraum: Du hast die Möglichkeit, den Data-Bereich bei uns aktiv mitzugestalten und weiter auszubauen.
- Wissen teilen & gemeinsam wachsen: Du profitierst von intensivem internem Know-how-Transfer und hast die Möglichkeit, Dich aktiv an der Weiterentwicklung des Teams zu beteiligen – fachlich wie menschlich.
- Teamgeist: In unserem offenen und kollegialen Umfeld wird Teamarbeit großgeschrieben – wir glauben daran, dass die besten Ideen im Austausch entstehen.
- Vielfalt und Kultur der Inklusion: Bei uns ist jeder herzlich willkommen!
- Attraktive Benefits: Du bekommst ein attraktives Gehalt, diverse Benefits und coole Mitarbeiterevents.
Data Engineer – Schwerpunkt Programmierung & Datenpipelines* Arbeitgeber: Haeger Consulting GmbH
Kontaktperson:
Haeger Consulting GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer – Schwerpunkt Programmierung & Datenpipelines*
✨Netzwerken, Netzwerken, Netzwerken!
Nutze Plattformen wie LinkedIn, um mit anderen Data Engineers und Branchenprofis in Kontakt zu treten. Teile deine Projekte und Erfahrungen, um sichtbar zu werden und vielleicht sogar Empfehlungen zu erhalten.
✨Präsentiere deine Skills!
Bereite eine kurze Präsentation oder ein Portfolio vor, das deine besten Projekte zeigt. Zeige, wie du Datenpipelines gebaut hast und welche Technologien du verwendet hast – das macht Eindruck!
✨Sei proaktiv!
Wenn du eine interessante Stelle siehst, zögere nicht, direkt Kontakt aufzunehmen. Frag nach, ob es Möglichkeiten gibt, dich vorzustellen oder mehr über die Projekte zu erfahren, an denen du arbeiten könntest.
✨Bewirb dich über unsere Website!
Wir freuen uns über Bewerbungen direkt über unsere Website. So kannst du sicherstellen, dass deine Bewerbung schnell und unkompliziert bei uns landet – und wir dich schnell kennenlernen können!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer – Schwerpunkt Programmierung & Datenpipelines*
Tipps für deine Bewerbung 🫡
Mach es persönlich!: Zeig uns, wer du bist! Verwende in deinem Anschreiben eine persönliche Ansprache und erzähle uns, warum du genau bei StudySmarter arbeiten möchtest. Das macht deine Bewerbung einzigartig und hebt dich von anderen ab.
Betone deine Skills: Stell sicher, dass du deine Erfahrungen mit SQL, Spark/PySpark und Python klar hervorhebst. Wir suchen nach konkreten Beispielen, wie du diese Technologien in der Vergangenheit eingesetzt hast, um Datenprobleme zu lösen.
Sei strukturiert: Eine gut strukturierte Bewerbung ist das A und O. Gliedere dein Anschreiben und deinen Lebenslauf übersichtlich, damit wir schnell die wichtigsten Informationen finden können. Denk daran, auch deine Projekte und Erfolge klar darzustellen!
Bewirb dich über unsere Website: Der einfachste Weg, um Teil unseres Teams zu werden, ist, dich direkt über unsere Website zu bewerben. So stellst du sicher, dass deine Bewerbung schnell bei uns ankommt und wir sie zügig bearbeiten können.
Wie du dich auf ein Vorstellungsgespräch bei Haeger Consulting GmbH vorbereitest
✨Verstehe die Technologien
Mach dich mit den spezifischen Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Spark, PySpark, SQL und Airflow. Bereite Beispiele vor, wie du diese Tools in deinen bisherigen Projekten eingesetzt hast.
✨Analytisches Denken demonstrieren
Bereite dich darauf vor, deine analytischen Fähigkeiten zu zeigen. Überlege dir konkrete Datenprobleme, die du gelöst hast, und erkläre den Lösungsprozess klar und strukturiert. Das zeigt, dass du komplexe Herausforderungen meistern kannst.
✨Fragen zur Unternehmenskultur
Informiere dich über die Unternehmenskultur und die Werte des Unternehmens. Stelle Fragen, die zeigen, dass du an Teamarbeit und offener Kommunikation interessiert bist. Das zeigt, dass du gut ins Team passen würdest.
✨Projekte und Erfahrungen teilen
Bereite eine kurze Präsentation deiner bisherigen Projekte vor, insbesondere solche, die mit ETL/ELT-Datenpipelines zu tun haben. Zeige, wie du Qualität durch Testing und Dokumentation sichergestellt hast. Das gibt dem Interviewer einen Einblick in deine Arbeitsweise.