Auf einen Blick
- Aufgaben: Entwickle und optimiere Datenpipelines für spannende Projekte in verschiedenen Industrien.
- Arbeitgeber: Ein inhabergeführtes, mittelständisches Unternehmen in München mit flachen Hierarchien.
- Mitarbeitervorteile: Flexible Arbeitszeiten, Home-Office, attraktive Vergütung und Entwicklungsmöglichkeiten warten auf dich.
- Warum dieser Job: Werde Teil eines dynamischen Teams, das Innovation und persönliche Entfaltung fördert.
- Gewünschte Qualifikationen: Abgeschlossenes Studium in Informatik oder Data Science und Erfahrung mit modernen Datenarchitekturen erforderlich.
- Andere Informationen: Du sprichst fließend Deutsch und Englisch und bringst Teamgeist mit.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
Spannende und technologisch sehr anspruchsvolle Projekte, unterschiedliche Industrien in einem inhabergeführten, mittelständischen Münchner Unternehmen. Flache Hierarchien, eine angenehme Arbeitsatmosphäre, geprägt von Teamwork und getreu dem Motto "Work, learn & grow".
Tätigkeiten
- Zusammenarbeit mit Data Scientists und Analysten zur Bereitstellung von Datenlösungen für analytische und maschinelle Anwendungen.
- Entwicklung und Optimierung von Datenpipelines mit Databricks und anderen Technologien auf der Azure Cloud Platform.
- Integration von Datenquellen und Verarbeitung großer Datenmengen aus strukturierten und unstrukturierten Quellen.
- Aufbau und Betrieb moderner, skalierbarer Datenarchitekturen für Echtzeit- und Batch-Verarbeitung.
- Implementierung und Betreuung von Streaming-Anwendungen mit Technologien wie Flink, Spark Streaming oder Kafka Streams.
- Sicherstellung von Datenqualität, Sicherheit und Performance in komplexen Datenlandschaften.
- Monitoring, Debugging und Optimierung der bestehenden Dateninfrastruktur.
Anforderungen
- Abgeschlossenes Studium in Informatik, Data Science, Ingenieurwissenschaften oder eine vergleichbare Qualifikation.
- Mehrjährige Erfahrung in der Entwicklung von Datenpipelines und in der Arbeit mit modernen Datenarchitekturen.
- Sehr gute Kenntnisse in Databricks (z.B. Delta Lake, Unity Catalog, MLFlow), Apache Spark, Apache Flink und Apache Kafka.
- Fundierte Programmierkenntnisse in Python, Scala oder Java, sowie ausgeprägte SQL-Fähigkeiten.
- Erfahrung mit der Azure Cloud Platform, Kenntnisse in anderen Cloud-Umgebungen (z. B. AWS, GCP) von Vorteil.
- Idealerweise Erfahrung mit CI/CD-Pipelines, DataOps und Infrastructure-as-Code (z. B. Terraform).
- Kenntnisse in weiteren Werkzeugen und Technologien wie Airflow, Kubernetes oder Docker sind ein Plus.
- Analytisches Denkvermögen, Teamgeist und eine strukturierte, eigenverantwortliche Arbeitsweise.
- Du sprichst fließend Deutsch und Englisch.
Team
Warum wir? Dich erwartet ein kollegiales und dynamisches Umfeld, in das Du Dich vom ersten Tag aktiv einbringen und eigene Ideen in einem motivierten Team umsetzen kannst. Wir wertschätzen Deine Leistung u.a. mit einer attraktiven Vergütung, flexiblen Arbeitszeiten und Teilzeitmodellen, Home-Office, Entwicklungsmöglichkeiten und Freiraum für Deine Persönlichkeit.
Bewerbungsprozess
- 1. Erstgespräch per Teams mit HR und Fachbereich; fachliche Eignung wird eingeschätzt
- 2. Zweitgespräch gerne vor Ort (je nach Präferenz des Kandidaten) mit HR und Fachbereich inkl. Use Case Diskussion
- 3. Angebot
Data Engineer Arbeitgeber: Steadforce GmbH
Kontaktperson:
Steadforce GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer
✨Netzwerk aufbauen
Nutze Plattformen wie LinkedIn, um dich mit anderen Data Engineers und Fachleuten aus der Branche zu vernetzen. Engagiere dich in relevanten Gruppen und Diskussionsforen, um dein Wissen zu erweitern und potenzielle Kontakte zu knüpfen.
✨Technische Fähigkeiten demonstrieren
Erstelle ein Portfolio oder GitHub-Repository, in dem du deine Projekte und Erfahrungen mit Databricks, Apache Spark und anderen relevanten Technologien präsentierst. Dies zeigt nicht nur deine Fähigkeiten, sondern auch dein Engagement für die Branche.
✨Vorbereitung auf technische Interviews
Bereite dich auf technische Fragen und praktische Aufgaben vor, die während des Interviews gestellt werden könnten. Übe das Lösen von Problemen mit Datenpipelines und Cloud-Technologien, um deine Fähigkeiten unter Beweis zu stellen.
✨Kulturelle Passung betonen
Informiere dich über die Unternehmenskultur von StudySmarter und betone in Gesprächen, wie deine Werte und Arbeitsweise zu ihrem Motto "Work, learn & grow" passen. Zeige, dass du ein Teamplayer bist und bereit bist, aktiv zum Erfolg des Unternehmens beizutragen.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer
Tipps für deine Bewerbung 🫡
Unternehmensrecherche: Informiere dich über das Unternehmen, bei dem du dich bewirbst. Verstehe die Unternehmenskultur, die Projekte und die Technologien, die sie verwenden. Dies hilft dir, deine Motivation im Bewerbungsschreiben klar zu formulieren.
Anpassung des Lebenslaufs: Gestalte deinen Lebenslauf so, dass er die spezifischen Anforderungen der Stelle als Data Engineer widerspiegelt. Betone relevante Erfahrungen mit Datenpipelines, Databricks und den geforderten Programmiersprachen.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du für diese Position geeignet bist. Gehe auf deine Erfahrungen mit modernen Datenarchitekturen und deine Teamarbeit ein.
Überprüfung der Unterlagen: Bevor du deine Bewerbung einreichst, überprüfe alle Dokumente auf Vollständigkeit und Richtigkeit. Achte darauf, dass dein Deutsch und Englisch fehlerfrei sind, da dies für die Kommunikation im Team wichtig ist.
Wie du dich auf ein Vorstellungsgespräch bei Steadforce GmbH vorbereitest
✨Verstehe die Technologien
Mach dich mit den spezifischen Technologien vertraut, die im Job gefordert werden, wie Databricks, Apache Spark und Azure Cloud. Zeige im Interview, dass du praktische Erfahrungen hast und bereit bist, diese Technologien effektiv zu nutzen.
✨Bereite konkrete Beispiele vor
Denke an konkrete Projekte oder Herausforderungen, die du in der Vergangenheit gemeistert hast. Sei bereit, diese Beispiele zu teilen, um deine Fähigkeiten in der Entwicklung von Datenpipelines und der Arbeit mit modernen Datenarchitekturen zu demonstrieren.
✨Teamarbeit betonen
Da Teamarbeit ein wichtiger Aspekt der Unternehmenskultur ist, solltest du betonen, wie du in der Vergangenheit erfolgreich mit Data Scientists und Analysten zusammengearbeitet hast. Zeige, dass du ein Teamplayer bist und bereit bist, Ideen aktiv einzubringen.
✨Fragen vorbereiten
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Dies zeigt dein Interesse am Unternehmen und an der Position. Frage nach den aktuellen Projekten, der Teamdynamik oder den Möglichkeiten zur beruflichen Weiterentwicklung.