Auf einen Blick
- Aufgaben: Entwickle und optimiere Datenpipelines mit Databricks für spannende Projekte.
- Arbeitgeber: Inhabergeführtes, mittelständisches Unternehmen in München mit flachen Hierarchien.
- Mitarbeitervorteile: Flexible Arbeitszeiten, Home-Office, Entwicklungsmöglichkeiten und eine attraktive Vergütung.
- Warum dieser Job: Werde Teil eines dynamischen Teams und bringe deine Ideen aktiv ein.
- Gewünschte Qualifikationen: Studium in Informatik oder Data Science und Erfahrung mit modernen Datenarchitekturen erforderlich.
- Andere Informationen: Engagierte Teamkultur, die Lernen und Wachstum fördert.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
Spannende und technologisch sehr anspruchsvolle Projekte, unterschiedliche Industrien in einem inhabergeführten, mittelständischen Münchner Unternehmen. Flache Hierarchien, eine angenehme Arbeitsatmosphäre, geprägt von Teamwork und getreu dem Motto "Work, learn & grow".
Tätigkeiten
- Zusammenarbeit mit Data Scientists und Data Analysten zur Bereitstellung von Datenlösungen für analytische und maschinelle Anwendungen.
- Entwicklung und Optimierung von Datenpipelines und MLOps Workflows mit Databricks und anderen Technologien auf der Azure Cloud Platform.
- Integration von Datenquellen und Verarbeitung großer Datenmengen aus strukturierten und unstrukturierten Quellen.
- Aufbau und Betrieb moderner, skalierbarer Datenarchitekturen für Echtzeit- und Batch-Verarbeitung.
- Implementierung und Betreuung von Streaming-Anwendungen mit Technologien wie Flink, Spark Streaming oder Kafka Streams.
- Sicherstellung von Datenqualität, Sicherheit und Performance in komplexen Datenlandschaften.
- Monitoring, Debugging und Optimierung der bestehenden Dateninfrastruktur.
Anforderungen
- Abgeschlossenes Studium in Informatik, Data Science, Ingenieurwissenschaften oder eine vergleichbare Qualifikation.
- Mehrjährige Erfahrung in der Entwicklung von Datenpipelines und in der Arbeit mit modernen Datenarchitekturen.
- Erfahrung im Aufbau von MLOps Workflows mit Databricks für Machine Learning Projekte.
- Sehr gute Kenntnisse der Databricks Plattform (z.B. MLFlow, Assett Bundles, Unity Catalog, Delta Lake), Apache Spark, Apache Flink und Apache Kafka.
- Fundierte Programmierkenntnisse in Python, Scala oder Java, sowie ausgeprägte SQL-Fähigkeiten.
- Erfahrung mit der Azure Cloud Platform, Kenntnisse in anderen Cloud-Umgebungen (z. B. AWS, GCP) sind ein Plus.
- Idealerweise Erfahrung mit CI/CD-Pipelines, DataOps und Infrastructure-as-Code (z. B. Terraform).
- Kenntnisse in weiteren Werkzeugen und Technologien wie Airflow, Kubernetes oder Docker sind ein Plus.
- Analytisches Denkvermögen, Teamgeist und eine strukturierte, eigenverantwortliche Arbeitsweise.
- Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift.
Team
Warum wir? Dich erwartet ein kollegiales und dynamisches Umfeld, in das Du Dich vom ersten Tag aktiv einbringen und eigene Ideen in einem motivierten Team umsetzen kannst. Wir wertschätzen Deine Leistung u.a. mit einer attraktiven Vergütung, flexiblen Arbeitszeiten und Teilzeitmodellen, Home-Office, Entwicklungsmöglichkeiten und Freiraum für Deine Persönlichkeit.
Bewerbungsprozess
- 1. Erstgespräch per Teams mit HR und Fachbereich; fachliche Eignung wird eingeschätzt
- 2. Zweitgespräch gerne vor Ort (je nach Präferenz des Kandidaten) mit HR und Fachbereich inkl. Use Case Diskussion
- 3. Angebot
Data Engineer (gn) mit Fokus auf Databricks Arbeitgeber: Steadforce GmbH
Kontaktperson:
Steadforce GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer (gn) mit Fokus auf Databricks
✨Tip Nummer 1
Nutze dein Netzwerk! Sprich mit ehemaligen Kollegen oder Kommilitonen, die bereits in der Datenengineering-Branche arbeiten. Sie können dir wertvolle Einblicke geben und möglicherweise sogar eine Empfehlung aussprechen.
✨Tip Nummer 2
Informiere dich über aktuelle Trends und Technologien im Bereich Data Engineering, insbesondere zu Databricks und Azure. Zeige in Gesprächen, dass du auf dem neuesten Stand bist und bereit bist, dich weiterzuentwickeln.
✨Tip Nummer 3
Bereite dich auf technische Fragen vor, die sich auf Datenpipelines und MLOps Workflows beziehen. Überlege dir konkrete Beispiele aus deiner bisherigen Erfahrung, die deine Fähigkeiten in diesen Bereichen unter Beweis stellen.
✨Tip Nummer 4
Zeige deine Teamfähigkeit! Bereite dich darauf vor, wie du in einem Team gearbeitet hast, um komplexe Datenlösungen zu entwickeln. Betone, wie wichtig dir Zusammenarbeit und Kommunikation sind.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer (gn) mit Fokus auf Databricks
Tipps für deine Bewerbung 🫡
Unternehmensrecherche: Informiere dich über das Unternehmen, bei dem du dich bewirbst. Verstehe die Unternehmenskultur, die Projekte und die Technologien, die sie verwenden. Dies hilft dir, deine Motivation im Bewerbungsschreiben klar zu formulieren.
Anpassung des Lebenslaufs: Gestalte deinen Lebenslauf so, dass er die relevanten Erfahrungen und Fähigkeiten hervorhebt, die für die Position als Data Engineer wichtig sind. Betone insbesondere deine Kenntnisse in Databricks, Azure und den verwendeten Programmiersprachen.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du an dieser Position interessiert bist und wie deine bisherigen Erfahrungen dich darauf vorbereiten. Gehe auf spezifische Projekte oder Technologien ein, die im Jobprofil erwähnt werden.
Vorbereitung auf das Vorstellungsgespräch: Bereite dich auf technische Fragen und Fallstudien vor, die während des Interviews gestellt werden könnten. Überlege dir Beispiele aus deiner bisherigen Arbeit, die deine Fähigkeiten in der Entwicklung von Datenpipelines und MLOps Workflows demonstrieren.
Wie du dich auf ein Vorstellungsgespräch bei Steadforce GmbH vorbereitest
✨Verstehe die Technologien
Mach dich mit den spezifischen Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, insbesondere Databricks, Apache Spark und Azure. Zeige im Interview, dass du praktische Erfahrungen hast und bereit bist, diese Technologien effektiv zu nutzen.
✨Bereite konkrete Beispiele vor
Denke an konkrete Projekte oder Erfahrungen, die deine Fähigkeiten in der Entwicklung von Datenpipelines und MLOps Workflows demonstrieren. Sei bereit, über Herausforderungen zu sprechen, die du gemeistert hast, und wie du zur Lösung beigetragen hast.
✨Teamarbeit betonen
Da das Unternehmen Wert auf Teamarbeit legt, solltest du Beispiele für erfolgreiche Zusammenarbeit mit Data Scientists und Analysten parat haben. Betone, wie du in der Vergangenheit in einem Team gearbeitet hast, um gemeinsame Ziele zu erreichen.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse am Unternehmen und an der Position. Frage nach den aktuellen Projekten, der Teamdynamik oder den Möglichkeiten zur beruflichen Weiterentwicklung.