Auf einen Blick
- Aufgaben: Entwickle und optimiere skalierbare Datenpipelines mit AWS-Diensten.
- Arbeitgeber: Werde Teil eines dynamischen Teams, das innovative Datenlösungen liefert.
- Mitarbeitervorteile: Genieße flexible Arbeitszeiten und die Möglichkeit, remote zu arbeiten.
- Warum dieser Job: Gestalte spannende Projekte und arbeite mit einem kreativen Team an der Zukunft der Datenverarbeitung.
- Gewünschte Qualifikationen: Bachelor-Abschluss in Informatik und 5-8 Jahre Erfahrung in der Datenverarbeitung.
- Andere Informationen: Fähigkeit zur Zusammenarbeit mit verschiedenen Teams ist entscheidend.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
Wir suchen einen hochqualifizierten Senior Data Engineer mit 5–8 Jahren Erfahrung, um unser dynamisches Team zu verstärken. Der ideale Kandidat hat einen starken Hintergrund im Aufbau skalierbarer und effizienter Datenpipelines mit AWS Glue, Lambda und Python, mit dem Fokus auf die Bereitstellung von End-to-End-ETL-Lösungen.
Hauptverantwortlichkeiten:
- Entwerfen, Entwickeln und Optimieren robuster und skalierbarer Datenpipelines mit AWS-Diensten wie Glue und Lambda.
- Erstellen wiederverwendbarer Python-Module, APIs (FastAPI, Flask oder Django) und Automatisierungsskripte für Datenverarbeitungs-Workflows.
- Leiten von Projektteams bei der Gestaltung und Bereitstellung von End-to-End-Daten- und ETL-Lösungen.
- Fehlerbehebung und Lösung von Problemen bei der Datenverarbeitung, um optimale Leistung und Zuverlässigkeit sicherzustellen.
- Zusammenarbeit mit funktionsübergreifenden Teams, einschließlich Data Scientists, DevOps und Geschäftspartnern.
Technische Erfahrung:
- Nachgewiesene Erfahrung mit Python für Datenverarbeitung, Transformation und modulare Entwicklung.
- Expertise in der Arbeit mit Python-Notebooks und klassischer Python-basierter Anwendungsentwicklung.
- Praktische Erfahrung mit AWS-Diensten, einschließlich S3, Glue, Lambda und Kinesis (KDS).
- Vertrautheit mit Datenmigrationsstrategien und -tools ist ein großer Vorteil.
- Erfahrung mit DevOps-Praktiken und Infrastrukturautomatisierung/-überwachung ist vorteilhaft.
Qualifikationen:
- Abschluss in Informatik, Informationstechnologie oder einem verwandten Bereich.
- 5–8 Jahre Erfahrung im Bereich Data Engineering mit starkem Fokus auf cloudbasierte Lösungen (vorzugsweise AWS).
- Tiefgehendes Verständnis von IAM-Rollen und Sicherheitsbest Practices in Cloud-Umgebungen.
- Ausgezeichnete analytische und problemlösende Fähigkeiten.
- Starke Kommunikations- und Führungsfähigkeiten zur Förderung der Zusammenarbeit mit Stakeholdern.
- Fähigkeit, mehrere Prioritäten zu bewältigen und qualitativ hochwertige Ergebnisse innerhalb von Fristen zu liefern.
AWS Data Engineer (German Speaking) Arbeitgeber: LinkedIn
Kontaktperson:
LinkedIn HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: AWS Data Engineer (German Speaking)
✨Netzwerken mit Fachleuten
Nutze Plattformen wie LinkedIn, um dich mit anderen Data Engineers und AWS-Experten zu vernetzen. Nimm an relevanten Gruppen und Diskussionen teil, um dein Wissen zu erweitern und potenzielle Kontakte zu knüpfen, die dir bei deiner Bewerbung helfen können.
✨Projekte und Erfahrungen teilen
Erstelle ein Portfolio oder eine GitHub-Seite, auf der du deine bisherigen Projekte und Erfahrungen im Bereich Data Engineering präsentierst. Zeige insbesondere deine Fähigkeiten in AWS Glue, Lambda und Python, um deine praktische Erfahrung zu unterstreichen.
✨Vorbereitung auf technische Interviews
Bereite dich auf technische Interviews vor, indem du häufige Fragen zu AWS-Diensten, ETL-Prozessen und Python-Programmierung übst. Simuliere Interviews mit Freunden oder nutze Online-Plattformen, um dein Wissen zu testen und deine Antworten zu verfeinern.
✨Verstehe die Unternehmenskultur
Informiere dich über die Unternehmenskultur von StudySmarter und deren Werte. Zeige in Gesprächen, dass du nicht nur die technischen Fähigkeiten hast, sondern auch gut ins Team passt und die Mission des Unternehmens verstehst.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: AWS Data Engineer (German Speaking)
Tipps für deine Bewerbung 🫡
Stelle deine Fähigkeiten heraus: Betone in deinem Lebenslauf und Anschreiben deine Erfahrungen mit AWS-Diensten wie Glue, Lambda und Kinesis. Zeige auf, wie du skalierbare Datenpipelines entwickelt hast und welche spezifischen Projekte du geleitet hast.
Verwende relevante Schlüsselwörter: Achte darauf, dass du in deiner Bewerbung Schlüsselwörter aus der Stellenbeschreibung verwendest, wie z.B. 'ETL-Lösungen', 'Python', 'Datenmigration' und 'DevOps'. Dies hilft, deine Bewerbung hervorzuheben und zeigt, dass du die Anforderungen verstehst.
Präsentiere deine Teamarbeit: Da die Rolle eine enge Zusammenarbeit mit verschiedenen Teams erfordert, solltest du Beispiele für erfolgreiche Teamprojekte anführen. Beschreibe deine Rolle und wie du zur Erreichung gemeinsamer Ziele beigetragen hast.
Schreibe ein überzeugendes Anschreiben: Nutze dein Anschreiben, um deine Motivation für die Position zu erklären und warum du der ideale Kandidat bist. Gehe auf deine Leidenschaft für Datenengineering und Cloud-Technologien ein und wie du zur Vision des Unternehmens beitragen kannst.
Wie du dich auf ein Vorstellungsgespräch bei LinkedIn vorbereitest
✨Bereite dich auf technische Fragen vor
Da die Rolle einen starken Fokus auf AWS-Dienste und Python hat, solltest du dich auf technische Fragen zu diesen Themen vorbereiten. Überlege dir Beispiele aus deiner bisherigen Erfahrung, die deine Fähigkeiten in der Entwicklung von Datenpipelines und der Nutzung von AWS-Diensten wie Glue und Lambda demonstrieren.
✨Zeige deine Problemlösungsfähigkeiten
Sei bereit, konkrete Beispiele für Herausforderungen zu nennen, die du in früheren Projekten bewältigt hast. Erkläre, wie du Probleme identifiziert und gelöst hast, insbesondere im Zusammenhang mit Datenverarbeitung und ETL-Lösungen.
✨Kommunikation ist der Schlüssel
Da die Zusammenarbeit mit verschiedenen Teams wichtig ist, solltest du deine Kommunikationsfähigkeiten betonen. Bereite dich darauf vor, zu erklären, wie du effektiv mit Data Scientists, DevOps-Teams und anderen Stakeholdern kommuniziert hast, um gemeinsame Ziele zu erreichen.
✨Vertrautheit mit DevOps-Praktiken
Wenn du Erfahrung mit DevOps-Praktiken hast, bringe dies zur Sprache. Diskutiere, wie du Infrastrukturautomatisierung und -überwachung in deinen Projekten implementiert hast, um die Effizienz und Zuverlässigkeit der Datenverarbeitung zu verbessern.