Auf einen Blick
- Aufgaben: Arbeite mit Dateningenieuren und Wissenschaftlern an innovativen Datenlösungen.
- Arbeitgeber: Dynamisches Unternehmen im Bereich Data & Analytics mit hybridem Arbeitsmodell.
- Mitarbeitervorteile: Marktgerechtes Gehalt, flexible Arbeitszeiten und Entwicklungsmöglichkeiten.
- Andere Informationen: Schnelle Karrierechancen in einem unterstützenden Team.
- Warum dieser Job: Gestalte die Zukunft der Datenanalyse und arbeite mit modernster Technologie.
- Gewünschte Qualifikationen: Erfahrung in DevOps und Datenengineering, Kenntnisse in Databricks und Azure.
Das voraussichtliche Gehalt liegt zwischen 3668 - 3668 € pro Monat.
Ihre Aufgaben:
- Zusammenarbeit mit Dateningenieuren, Wissenschaftlern und Produktverantwortlichen zur Erstellung gruppenweiter Daten-, ML-, GenAI- und BI-Lösungen
- Entwurf, Aufbau und Betrieb von Datenpipelines auf Databricks unter Verwendung von Python und Lakeflow (Pipelines, Jobs/Workflows)
- Nutzung von Azure Data Factory und Azure-Diensten für Datenaufnahme, Orchestrierung und Backend-Integration
- Implementierung und Betrieb von CI/CD-Pipelines, Infrastrukturautomatisierung und Umweltmanagement
- Standardisierung und Verbesserung von Release-, Bereitstellungs- und Betriebsabläufen in DataOps, MLOps, LLMOps und DevOps
- Sicherstellung von Monitoring, Logging, Sicherheit, Zugriffskontrolle sowie Kosten-/Leistungsoptimierung in der Produktion
Ihr Profil:
- Abschluss in Informatik, Daten-/Cloud-Engineering oder vergleichbare praktische Erfahrung
- 3+ Jahre Erfahrung in DevOps, Cloud, Plattform oder Datenengineering mit Fokus auf produktionsreife Datenlösungen
- Starke Expertise in Databricks (Python, Spark, Lakehouse) und im Aufbau und Betrieb von Datenpipelines
- Erfahrung mit Azure DevOps, Git, CI/CD, Infrastrukturautomatisierung sowie Azure-Diensten einschließlich Data Factory und BI-Tools (Power BI, Fabric)
- DataOps-Mindset mit Fokus auf Testing, Versionierung, Beobachtbarkeit und zuverlässige Abläufe
- Ausgezeichnete Kommunikations- und Teamfähigkeit, selbstständige und lösungsorientierte Arbeitsweise, sehr gute Englischkenntnisse; Deutsch ist von Vorteil
Das monatliche Mindestgehalt gemäß dem Kollektivvertrag beträgt 3.668,49 EUR brutto auf Basis einer Vollzeitbeschäftigung (37,5 Stunden/Woche). Das Vergütungspaket ist marktkonform und wird basierend auf Ihren Qualifikationen und Erfahrungen in einem persönlichen Gespräch besprochen.
Data & Analytics Vienna DevOps Specialist / Data Engineer (all genders) - Data & Analytics Arbeitgeber: Vienna Insurance Group
Kontaktperson:
Vienna Insurance Group HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data & Analytics Vienna DevOps Specialist / Data Engineer (all genders) - Data & Analytics
✨Netzwerken, Netzwerken, Netzwerken!
Nutze LinkedIn und andere Plattformen, um mit Leuten aus der Branche in Kontakt zu treten. Lass uns wissen, wenn du Fragen hast oder Unterstützung brauchst – wir sind hier, um dir zu helfen!
✨Sei proaktiv!
Warte nicht darauf, dass die Stellenanzeigen zu dir kommen. Suche aktiv nach Unternehmen, die dich interessieren, und kontaktiere sie direkt. Wir empfehlen, unsere Website zu besuchen und dich dort zu bewerben!
✨Bereite dich auf technische Interviews vor!
Mach dich mit den gängigen Tools und Technologien vertraut, die in der Stellenbeschreibung erwähnt werden. Übe Coding-Challenges und sei bereit, deine Lösungen zu erklären – das zeigt dein Verständnis und deine Problemlösungsfähigkeiten.
✨Zeige deine Leidenschaft!
Erzähle in Gesprächen von Projekten, an denen du gearbeitet hast, und wie du Herausforderungen gemeistert hast. Deine Begeisterung für Data & Analytics wird sicher Eindruck hinterlassen – lass uns gemeinsam deinen Traumjob finden!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data & Analytics Vienna DevOps Specialist / Data Engineer (all genders) - Data & Analytics
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wenn du deine Bewerbung schreibst, sei authentisch und zeig uns, wer du wirklich bist. Wir suchen nach Menschen, die nicht nur die richtigen Fähigkeiten haben, sondern auch gut ins Team passen.
Betone deine Erfahrungen: Erzähle uns von deinen bisherigen Projekten und Erfahrungen im Bereich DevOps und Data Engineering. Zeig uns, wie du mit Databricks, Azure und CI/CD gearbeitet hast – das interessiert uns brennend!
Mach es übersichtlich: Halte deine Bewerbung klar und strukturiert. Verwende Absätze und Aufzählungen, um wichtige Informationen hervorzuheben. So können wir schnell erkennen, was du drauf hast!
Bewirb dich über unsere Website: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass sie schnell bei uns ankommt und wir dich zeitnah kontaktieren können.
Wie du dich auf ein Vorstellungsgespräch bei Vienna Insurance Group vorbereitest
✨Verstehe die Technologien
Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Databricks, Azure Data Factory und CI/CD-Pipelines. Zeige im Interview, dass du praktische Erfahrungen hast und bereit bist, diese Technologien effektiv zu nutzen.
✨Bereite konkrete Beispiele vor
Überlege dir spezifische Projekte oder Herausforderungen, die du in der Vergangenheit gemeistert hast. Erkläre, wie du Datenpipelines gebaut oder optimiert hast und welche Ergebnisse du erzielt hast. Das zeigt deine praktische Erfahrung und Problemlösungsfähigkeiten.
✨Teamarbeit betonen
Da die Rolle viel Zusammenarbeit erfordert, sei bereit, über deine Erfahrungen in der Teamarbeit zu sprechen. Betone, wie du mit Dateningenieuren, Wissenschaftlern und Produktbesitzern zusammengearbeitet hast, um gemeinsame Ziele zu erreichen.
✨Fragen vorbereiten
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Position und hilft dir, mehr über die Unternehmenskultur und die Erwartungen an die Rolle zu erfahren. Fragen zu den aktuellen Projekten oder Herausforderungen im Team sind immer gut!