Auf einen Blick
- Aufgaben: Entwickle und optimiere Data Pipelines in Cloud-Plattformen wie AWS und Azure.
- Arbeitgeber: Ein innovatives Unternehmen, das sich auf Data und AI spezialisiert hat.
- Mitarbeitervorteile: Flexibles Arbeiten, Vertrauensarbeitszeit und zahlreiche Corporate Benefits warten auf dich!
- Warum dieser Job: Werde Teil eines einzigartigen Teams mit flachen Hierarchien und einer offenen Feedbackkultur.
- Gewünschte Qualifikationen: Abgeschlossenes Studium in Informatik oder Data Science sowie Programmierkenntnisse in SQL und Python erforderlich.
- Andere Informationen: Möglichkeit zur Arbeit im EU-Ausland und zahlreiche Weiterbildungsmöglichkeiten.
Das voraussichtliche Gehalt liegt zwischen 36000 - 60000 € pro Jahr.
Startdatum Wir suchen Dich ab 01.10.2025 aneinem unserer deutschen Standorte in München, Stuttgart, Nürnberg, Köln, Essen, Leipzig, Berlin oder Frankfurt am Main ! Deine Aufgaben Data und AI sind Dein zu Hause? Des Weiteren gestaltet sich Deine neue Herausforderung wie folgt: Entwurf, Entwicklung, Testen sowie Automatisierung, Dokumentation und Optimierung von Data Pipelines in Cloud-Plattformen (z.B. AWS, Azure) bzw. Cloud-basierten Lösungen (z.B. Databricks, Snowflake) Mitarbeit an der Architektur, der Entwicklung und der Technologieauswahl für die Realisierung von Data-, Analytics- und KI-Plattformen Entwicklung von vielfältigen Data-, Analytics-, und KI-Lösungen entlang der Geschäftsprozesse und Wertschöpfungskette unserer Kunden, inkl. Requirements Engineering, Konzeption und Business Case Betrachtung Regelmäßige Beratung und Kommunikation mit unseren Kunden Dein Profil Data ist auch in Deiner DNA? Das solltest Du mitbringen: Erfolgreich abgeschlossenes Studium der (Wirtschafts-) Informatik, Computer Science, Data Science, Data Engineering oder eine vergleichbare Qualifikation Erste Berufserfahrung als Software Engineer, Data Engineer oder in einem ähnlichen Berufsfeld Starke Kommunikationsfähigkeit auf Deutsch und Englisch sowie gelegentliche Reisebereitschaft im Rahmen einer Consulting-Tätigkeit Sehr gute Programmierkenntnisse in SQL, Python und PySpark insbesondere mit deren Data Engineering-Komponenten bzw. Bibliotheken Praktische Erfahrung mit Cloud Technologien (z.B. Azure, AWS), Daten-Plattformen (z.B. Databricks, Snowflake) sowie mit Datenbanken (z.B. MySQL, PostgreSQL) Wünschenswert sind Erfahrung in der Entwicklung von Data Warehouse oder Data Lakehouse Lösungen, um strukturierte und unstrukturierte Daten zu speichern, zu organisieren, zu transformieren und zu modellieren Wünschenswert sind Kenntnisse in Git , CI/CD Tools (GitLab CI/CD, GitHub Actions) und Docker bzw. Kubernetes Wünschenswert sind Kenntnisse im Umgang mit REST – oder GraphQL -Schnittstellen Nice to have: Erfahrungswerte im Umgang mit Large Language Models, NLP- oder Chatbot -Lösungen Wir bieten Data bewegt uns! Was Dich auf Deiner persönlichen Journey erwartet, findest Du hier: Work-Life-Balance Vertrauensarbeitszeit mit flexibler Arbeitszeitgestaltung – ob voll remote oder in einem unserer modern eingerichteten Innenstadtbüros (inkl. Dachterrasse), workation – nutze die Möglichkeit aus dem EU-Ausland zu arbeiten Kultur & Zusammenarbeit Einzigartige Teamatmosphäre, flache Hierarchien zu unserem CEO Alex sowie eine offene Feedbackkultur, jährliche Teamworkshops auf unserem Data.Castle im Zillertal, gelebtes Data.Musketeer Prinzip – \“einer für alle, alle für einen!\“, unser [at] Buddy Programm zur besseren Vernetzung, regelmäßig stattfindende Fach- und Freizeitevents, hundefreundliche Büros Fachliche & persönliche Entwicklung Intensiver Onboarding- & Einarbeitungsprozess, persönlicher Entwicklungsplan und individuelle Weiterbildungsmöglichkeiten, vielfältiges Workshop- und Schulungsangebot innerhalb der Data.Academy durch unsere erfahrenen Data.Musketeers sowie externen Anbieter, Führungs-, Projektleiter- und Expertenlaufbahn Vergütung & Zusatzleistungen Kita-Zuschuss, Betriebliche Altersvorsorge mit 20% Bezuschussung, zahlreiche Corporate Benefits & Mitarbeiterangebote (z.B. für Events und Reisen), Startguthaben in unserem internen Merchandise-Shop, kompetitives Gehalt mit variablen Anteilen Gesundheit & Wohlbefinden Mental Health & Wellbeing Support sowie Coaching und Meditation durch nilo.health, Fitness- und Yogaräume im Münchner Office, regelmäßige Mitarbeiterumfragen, EGYM Well Pass Mitgliedschaft mit Plus1 Option, Fahrradleasing über Jobrad nach der Probezeit, interne Gruppen für sportliche Aktivitäten, kostenlose Heiß- und Erfrischungsgetränke sowie frisches Obst im Office, Dachterrasse (Grill) Mobilität Zentrale Lage der Offices, gute Anbindung an den Öffentlichen Nahverkehr, Möglichkeit von anderen Standorten zu arbeiten Ansprechpartnerin Marina Sommer, Principal Recruiting Managerin
Junior Data Engineer - Fokus PySpark (m/w/d) Arbeitgeber: Alexander Thamm GmbH
Kontaktperson:
Alexander Thamm GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Junior Data Engineer - Fokus PySpark (m/w/d)
✨Tip Nummer 1
Nutze Networking-Plattformen wie LinkedIn, um Kontakte zu Fachleuten in der Data Engineering-Branche zu knüpfen. Suche gezielt nach Personen, die bei StudySmarter arbeiten oder dort gearbeitet haben, und versuche, mit ihnen ins Gespräch zu kommen.
✨Tip Nummer 2
Beteilige dich an Online-Communities oder Foren, die sich mit Data Engineering und PySpark beschäftigen. Dort kannst du wertvolle Einblicke gewinnen und möglicherweise sogar auf offene Stellen aufmerksam gemacht werden.
✨Tip Nummer 3
Erstelle ein Portfolio, das deine Projekte und Erfahrungen im Bereich Data Engineering zeigt. Dies kann dir helfen, dich von anderen Bewerbern abzuheben und deine praktischen Fähigkeiten zu demonstrieren.
✨Tip Nummer 4
Bereite dich auf technische Interviews vor, indem du häufige Fragen zu SQL, Python und PySpark übst. Zeige dein Wissen über Cloud-Technologien und Datenplattformen, um deine Eignung für die Position zu unterstreichen.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Junior Data Engineer - Fokus PySpark (m/w/d)
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf die geforderten Qualifikationen und Erfahrungen. Stelle sicher, dass du alle relevanten Punkte in deiner Bewerbung ansprichst.
Individualisiere dein Anschreiben: Gestalte dein Anschreiben so, dass es auf die spezifischen Anforderungen der Position als Junior Data Engineer zugeschnitten ist. Hebe deine Erfahrungen mit PySpark, SQL und Cloud-Technologien hervor.
Betone relevante Projekte: Füge in deinem Lebenslauf konkrete Beispiele von Projekten hinzu, an denen du gearbeitet hast, insbesondere solche, die deine Fähigkeiten im Bereich Data Engineering und Cloud-Plattformen demonstrieren.
Prüfe auf Fehler: Bevor du deine Bewerbung einreichst, überprüfe sie gründlich auf Rechtschreib- und Grammatikfehler. Eine fehlerfreie Bewerbung hinterlässt einen professionellen Eindruck.
Wie du dich auf ein Vorstellungsgespräch bei Alexander Thamm GmbH vorbereitest
✨Bereite Dich auf technische Fragen vor
Da die Position einen starken Fokus auf Data Engineering und PySpark hat, solltest Du Dich auf technische Fragen zu SQL, Python und Cloud-Technologien vorbereiten. Überlege Dir Beispiele aus Deiner bisherigen Erfahrung, die Deine Fähigkeiten in diesen Bereichen demonstrieren.
✨Verstehe die Unternehmenswerte
Informiere Dich über die Kultur und Werte des Unternehmens, insbesondere das 'Data.Musketeer Prinzip'. Zeige im Interview, dass Du diese Werte teilst und bereit bist, in einem Team zu arbeiten, das Zusammenarbeit und Unterstützung großschreibt.
✨Bereite Fragen für den Interviewer vor
Zeige Dein Interesse an der Position und dem Unternehmen, indem Du gezielte Fragen stellst. Frage nach den aktuellen Projekten im Bereich Data Engineering oder wie das Team mit neuen Technologien umgeht. Das zeigt, dass Du proaktiv und engagiert bist.
✨Präsentiere Deine Kommunikationsfähigkeiten
Da starke Kommunikationsfähigkeiten gefordert sind, übe, Deine Gedanken klar und präzise zu formulieren. Achte darauf, sowohl auf Deutsch als auch auf Englisch zu kommunizieren, um Deine Sprachkenntnisse zu demonstrieren.