Auf einen Blick
- Aufgaben: Baue eine cloudbasierte Datenarchitektur und entwickle skalierbare ETL-Pipelines.
- Arbeitgeber: Führendes Technologieunternehmen in Deutschland mit starkem Marktauftritt.
- Mitarbeitervorteile: Attraktives Gehalt, flexible Arbeitszeiten und Weiterbildungsmöglichkeiten.
- Warum dieser Job: Gestalte innovative Datenlösungen und arbeite an spannenden Projekten im Bereich KI.
- Gewünschte Qualifikationen: 3 Jahre Erfahrung in der Datenverarbeitung und starke Python-Kenntnisse.
- Andere Informationen: Dynamisches Umfeld mit hervorragenden Karrierechancen.
Das voraussichtliche Gehalt liegt zwischen 80000 - 80000 € pro Jahr.
Schließen Sie sich einem führenden Technologieunternehmen in Deutschland an, das weithin als Haushaltsname in seiner Branche anerkannt ist. Die Organisation kombiniert Innovation, Skalierung und eine starke Marktpräsenz und bietet modernste digitale Lösungen für Millionen von Nutzern. Mit einer zukunftsorientierten Kultur und einer starken Investition in Daten und KI entwickelt das Unternehmen kontinuierlich seine Dateninfrastruktur weiter, um Wachstum und Innovation zu unterstützen.
Was Sie tun werden:
- Aufbau und Weiterentwicklung einer cloudbasierten Data-Lake-Architektur mit modernen AWS-Diensten
- Entwurf und Implementierung skalierbarer ETL/ELT-Pipelines mit Tools wie Airflow, dbt und Spark für Batch- und Echtzeitdaten
- Entwicklung von Analyse- und Ereignisverfolgungslösungen zur Überwachung des Nutzerverhaltens und wichtiger Geschäftszahlen
- Sicherstellung einer hohen Datenqualität durch Testframeworks und Überwachungssysteme
- Zusammenarbeit mit funktionsübergreifenden Teams zur Bereitstellung zuverlässiger Datenanalysen und Berichterstattung
- Optimierung der Datenspeicherung, Abfragen und Workflows für Leistung und Kosteneffizienz, einschließlich Automatisierung über Infrastructure as Code
Was Sie mitbringen:
- Abschluss
- 3 Jahre Erfahrung im Bereich Datenengineering oder in einer ähnlichen Rolle
- Starke Programmierkenntnisse in Python oder ähnlichem
- Erfahrung mit AWS oder ähnlichem
- Vertrautheit mit Workflow-Orchestrierung, Messaging-Systemen und Datenformaten wie Parquet
- Erfahrung mit Datenumwandlungstools und BI-/Visualisierungstools ist von Vorteil
- Solides Verständnis von Datenmodellierung und Leistungsoptimierung
- Interesse an KI-Technologien und die Bereitschaft, zu deren Implementierung beizutragen
- Starke Kommunikationsfähigkeiten, proaktive Denkweise und die Fähigkeit, selbstständig zu arbeiten
Data Engineer, Python, AWS, RabbitMQ, ETL - €80K Arbeitgeber: Optimus Search
Kontaktperson:
Optimus Search HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer, Python, AWS, RabbitMQ, ETL - €80K
✨Netzwerken, Netzwerken, Netzwerken!
Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Wir sollten uns aktiv an Diskussionen beteiligen und unser Wissen teilen, um sichtbar zu werden.
✨Bereite dich auf technische Interviews vor!
Mach dich mit typischen Fragen und Aufgaben für Data Engineers vertraut. Wir können auch Mock-Interviews durchführen, um unsere Antworten zu verfeinern und sicherer aufzutreten.
✨Zeige deine Projekte!
Hast du an coolen Projekten gearbeitet? Teile sie auf GitHub oder in deinem Portfolio. Wir sollten unsere praktischen Erfahrungen und Erfolge präsentieren, um potenzielle Arbeitgeber zu beeindrucken.
✨Bewirb dich direkt über unsere Website!
Wenn du eine Stelle gefunden hast, die dir gefällt, bewirb dich direkt über unsere Website. Das zeigt dein Interesse und wir können sicherstellen, dass deine Bewerbung die richtige Aufmerksamkeit erhält.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer, Python, AWS, RabbitMQ, ETL - €80K
Tipps für deine Bewerbung 🫡
Mach deine Bewerbung persönlich: Zeig uns, wer du bist! Verwende eine freundliche und authentische Sprache, um deine Persönlichkeit durchscheinen zu lassen. Wir suchen nach Menschen, die nicht nur die nötigen Fähigkeiten haben, sondern auch gut ins Team passen.
Betone deine relevanten Erfahrungen: Stell sicher, dass du deine Erfahrungen im Bereich Data Engineering klar hervorhebst. Erzähl uns von Projekten, an denen du gearbeitet hast, und wie du Technologien wie Python, AWS oder ETL-Tools eingesetzt hast. Das hilft uns, deine Eignung für die Rolle besser zu verstehen.
Sei konkret und präzise: Vermeide es, zu allgemein zu bleiben. Nutze konkrete Beispiele, um deine Fähigkeiten und Erfolge zu untermauern. Wenn du über deine Erfahrungen sprichst, zeig uns, wie du Herausforderungen gemeistert hast und welche Ergebnisse du erzielt hast.
Bewirb dich über unsere Website: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass wir alle Informationen erhalten, die wir brauchen, um dich kennenzulernen. Außerdem ist es der schnellste Weg, um in den Auswahlprozess zu kommen!
Wie du dich auf ein Vorstellungsgespräch bei Optimus Search vorbereitest
✨Verstehe die Technologien
Mach dich mit den spezifischen Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie AWS, Python und RabbitMQ. Zeige im Interview, dass du praktische Erfahrungen hast und bereit bist, diese Technologien zu nutzen und weiterzuentwickeln.
✨Bereite konkrete Beispiele vor
Überlege dir konkrete Projekte oder Erfahrungen, die deine Fähigkeiten im Bereich ETL/ELT und Datenarchitektur demonstrieren. Sei bereit, über Herausforderungen zu sprechen, die du gemeistert hast, und wie du zur Optimierung von Datenprozessen beigetragen hast.
✨Zeige dein Interesse an AI
Da das Unternehmen stark in Daten und KI investiert, ist es wichtig, dein Interesse an diesen Technologien zu zeigen. Sprich darüber, wie du AI-Technologien in deinen bisherigen Projekten eingesetzt hast oder wie du dir vorstellen kannst, sie in Zukunft zu integrieren.
✨Kommunikation ist der Schlüssel
Stelle sicher, dass du deine Gedanken klar und präzise kommunizieren kannst. Da die Rolle eine enge Zusammenarbeit mit verschiedenen Teams erfordert, ist es wichtig, dass du zeigst, dass du gut im Austausch von Ideen und Informationen bist.