Auf einen Blick
- Aufgaben: Entwickle und optimiere Datenpipelines mit Databricks und Azure Cloud.
- Arbeitgeber: Ein innovatives, inhabergeführtes Unternehmen in München mit flachen Hierarchien.
- Mitarbeitervorteile: Flexible Arbeitszeiten, Home-Office, attraktive Vergütung und Entwicklungsmöglichkeiten.
- Warum dieser Job: Arbeite in einem dynamischen Team und bringe deine Ideen aktiv ein.
- Gewünschte Qualifikationen: Abgeschlossenes Studium in Informatik oder Data Science und mehrjährige Erfahrung in Datenarchitekturen.
- Andere Informationen: Du sprichst fließend Deutsch und Englisch und hast Kenntnisse in modernen Technologien.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
Spannende und technologisch sehr anspruchsvolle Projekte, unterschiedliche Industrien in einem inhabergeführten, mittelständischen Münchner Unternehmen. Flache Hierarchien, eine angenehme Arbeitsatmosphäre, geprägt von Teamwork und getreu dem Motto "Work, learn & grow".
Tätigkeiten
- Zusammenarbeit mit Data Scientists und Analysten zur Bereitstellung von Datenlösungen für analytische und maschinelle Anwendungen.
- Entwicklung und Optimierung von Datenpipelines mit Databricks und anderen Technologien auf der Azure Cloud Platform.
- Integration von Datenquellen und Verarbeitung großer Datenmengen aus strukturierten und unstrukturierten Quellen.
- Aufbau und Betrieb moderner, skalierbarer Datenarchitekturen für Echtzeit- und Batch-Verarbeitung.
- Implementierung und Betreuung von Streaming-Anwendungen mit Technologien wie Flink, Spark Streaming oder Kafka Streams.
- Sicherstellung von Datenqualität, Sicherheit und Performance in komplexen Datenlandschaften.
- Monitoring, Debugging und Optimierung der bestehenden Dateninfrastruktur.
Anforderungen
- Abgeschlossenes Studium in Informatik, Data Science, Ingenieurwissenschaften oder eine vergleichbare Qualifikation.
- Mehrjährige Erfahrung in der Entwicklung von Datenpipelines und in der Arbeit mit modernen Datenarchitekturen.
- Sehr gute Kenntnisse in Databricks (z.B. Delta Lake, Unity Catalog, MLFlow), Apache Spark, Apache Flink und Apache Kafka.
- Fundierte Programmierkenntnisse in Python, Scala oder Java, sowie ausgeprägte SQL-Fähigkeiten.
- Erfahrung mit der Azure Cloud Platform, Kenntnisse in anderen Cloud-Umgebungen (z. B. AWS, GCP) von Vorteil.
- Idealerweise Erfahrung mit CI/CD-Pipelines, DataOps und Infrastructure-as-Code (z. B. Terraform).
- Kenntnisse in weiteren Werkzeugen und Technologien wie Airflow, Kubernetes oder Docker sind ein Plus.
- Analytisches Denkvermögen, Teamgeist und eine strukturierte, eigenverantwortliche Arbeitsweise.
- Du sprichst fließend Deutsch und Englisch.
Team
Warum wir? Dich erwartet ein kollegiales und dynamisches Umfeld, in das Du Dich vom ersten Tag aktiv einbringen und eigene Ideen in einem motivierten Team umsetzen kannst. Wir wertschätzen Deine Leistung u.a. mit einer attraktiven Vergütung, flexiblen Arbeitszeiten und Teilzeitmodellen, Home-Office, Entwicklungsmöglichkeiten und Freiraum für Deine Persönlichkeit.
Bewerbungsprozess
- 1. Erstgespräch per Teams mit HR und Fachbereich; fachliche Eignung wird eingeschätzt.
- 2. Zweitgespräch gerne vor Ort (je nach Präferenz des Kandidaten) mit HR und Fachbereich inkl. Use Case Diskussion.
- 3. Angebot.
Data Engineer (m/w/d) mit Fokus auf Databricks und modernen Datenarchitekturen Arbeitgeber: Steadforce GmbH
Kontaktperson:
Steadforce GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer (m/w/d) mit Fokus auf Databricks und modernen Datenarchitekturen
✨Netzwerk aufbauen
Nutze Plattformen wie LinkedIn, um mit Fachleuten aus der Datenengineering-Community in Kontakt zu treten. Vernetze dich mit aktuellen Mitarbeitern von StudySmarter oder ähnlichen Unternehmen, um Einblicke in die Unternehmenskultur und die spezifischen Anforderungen für die Position zu erhalten.
✨Technische Fähigkeiten vertiefen
Stelle sicher, dass du deine Kenntnisse in Databricks, Apache Spark und anderen relevanten Technologien regelmäßig auffrischst. Online-Kurse oder Tutorials können dir helfen, praktische Erfahrungen zu sammeln und dein Wissen zu erweitern, was dir im Vorstellungsgespräch einen Vorteil verschafft.
✨Vorbereitung auf technische Interviews
Bereite dich auf technische Fragen und praktische Aufgaben vor, die während des Interviews gestellt werden könnten. Übe das Lösen von Problemen in Echtzeit, insbesondere in Bezug auf Datenpipelines und Cloud-Technologien, um deine Fähigkeiten unter Beweis zu stellen.
✨Fragen vorbereiten
Bereite gezielte Fragen für das Interview vor, die dein Interesse an der Rolle und dem Unternehmen zeigen. Frage nach den aktuellen Projekten, den verwendeten Technologien und den Herausforderungen, die das Team bewältigt, um zu zeigen, dass du dich aktiv mit der Position auseinandergesetzt hast.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer (m/w/d) mit Fokus auf Databricks und modernen Datenarchitekturen
Tipps für deine Bewerbung 🫡
Stelle deine technischen Fähigkeiten heraus: Betone in deinem Lebenslauf und Anschreiben deine Erfahrungen mit Databricks, Apache Spark, Flink und Kafka. Zeige konkrete Projekte oder Erfolge, die deine Fähigkeiten in der Entwicklung von Datenpipelines und modernen Datenarchitekturen belegen.
Anpassung des Lebenslaufs: Gestalte deinen Lebenslauf so, dass er auf die spezifischen Anforderungen der Stelle zugeschnitten ist. Hebe relevante Erfahrungen und Kenntnisse hervor, insbesondere in Bezug auf Azure Cloud Platform und Programmierkenntnisse in Python, Scala oder Java.
Motivationsschreiben: Verfasse ein überzeugendes Motivationsschreiben, in dem du erklärst, warum du dich für diese Position interessierst und wie du zum Team beitragen kannst. Gehe auf deine analytischen Fähigkeiten und Teamarbeit ein, die in der Stellenbeschreibung betont werden.
Vorbereitung auf das Vorstellungsgespräch: Bereite dich auf technische Fragen und Use Case Diskussionen vor, die im zweiten Gespräch behandelt werden könnten. Überlege dir Beispiele aus deiner bisherigen Arbeit, die deine Problemlösungsfähigkeiten und Erfahrungen mit den geforderten Technologien zeigen.
Wie du dich auf ein Vorstellungsgespräch bei Steadforce GmbH vorbereitest
✨Verstehe die Technologien
Mach dich mit den spezifischen Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Databricks, Apache Spark und Azure Cloud. Zeige im Interview, dass du praktische Erfahrungen hast und bereit bist, diese Technologien effektiv zu nutzen.
✨Bereite Use Cases vor
Überlege dir konkrete Beispiele aus deiner bisherigen Arbeit, die deine Fähigkeiten in der Entwicklung von Datenpipelines und der Arbeit mit modernen Datenarchitekturen demonstrieren. Sei bereit, diese im Interview zu diskutieren und zu erklären, wie du Herausforderungen gemeistert hast.
✨Teamarbeit betonen
Da die Stelle eine enge Zusammenarbeit mit Data Scientists und Analysten erfordert, solltest du Beispiele für erfolgreiche Teamprojekte parat haben. Betone deine Teamfähigkeit und wie du zur Erreichung gemeinsamer Ziele beigetragen hast.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Position und dem Unternehmen. Frage nach den aktuellen Projekten, der Teamdynamik oder den Möglichkeiten zur beruflichen Weiterentwicklung.