Auf einen Blick
- Aufgaben: Entwickle und betreibe Datenpipelines und AI-Systeme für smarteren Journalismus.
- Arbeitgeber: ippens.ai – Vorreiter in Agentic AI für den Redaktionsalltag.
- Mitarbeitervorteile: Vollzeitstelle, hybrides Arbeiten, sinnstiftende Mission und modernes Arbeitsumfeld.
- Andere Informationen: Dynamisches Team mit Startup-Mentalität und exzellenten Entwicklungsmöglichkeiten.
- Warum dieser Job: Gestalte die digitale Presselandschaft mit innovativer Technologie und echtem Einfluss.
- Gewünschte Qualifikationen: Erfahrung in Python, SQL und Data Engineering-Tools erforderlich.
Das voraussichtliche Gehalt liegt zwischen 60000 - 75000 € pro Jahr.
Bitte beachten Sie die Deutschkenntnisse für diese Position. Wir bitten um Ihr Verständnis und Respekt für diese Anforderung.
Standort: München (Hybrid)
Beschäftigungsart: Vollzeit
Über uns
Wir sind ippen.ai – Vorreiter in der Integration von Agentic AI in den Redaktionsalltag. Als Technologie-Einheit von IPPEN.MEDIA setzen wir Agentic AI zur Qualitätssicherung und Produktivitätssteigerung ein. Wir bauen Werkzeuge, die sicherstellen, dass Qualitätsjournalismus gegen die Übermacht globaler Algorithmen nicht nur überlebt, sondern technologisch überlegen bleibt. IPPEN.MEDIA ist ein hochgradig vernetztes Medien-Ökosystem. Hinter uns steht eine klare Mission: lokalen Journalismus pluralistisch, unabhängig und zukunftsfähig zu gestalten. Bei uns triffst du auf ein modernes Medienhaus im Herzen von München, das mit Start-up-Mentalität und echter Leidenschaft für digitalen Journalismus arbeitet. Unser Tech-Stack ist state-of-the-art, unsere Teams sind cross-funktional und agil – und unsere Wirkung ist real: Mit deiner Arbeit prägst du die deutsche digitale Presselandschaft. Unsere Entwicklungsteams sind dabei ein zentraler Wachstumstreiber – und genau hier kommst du ins Spiel.
Was dich erwartet
Du baust und betreibst die Datenpipelines und AI-Systeme, die unsere Redaktionen und Produkte smarter machen – von der Rohdatenquelle bis zum produktiven Modell.
- Datenpipelines & Lakehouse: Du entwirfst skalierbare ETL/ELT-Pipelines und verantwortest unsere Databricks-basierte Dateninfrastruktur – inklusive Streaming-Szenarien mit Apache Kafka.
- Feature Engineering & MLOps: Du entwickelst Feature Pipelines, baust CI/CD-Prozesse für ML-Modelle und sorgst dafür, dass Modelle produktionsreif deployed und in Produktion überwacht werden.
- RAG & LLM-Engineering: Du baust Retrieval-Augmented-Generation-Systeme, integrierst LLMs mit internen Wissensdatenbanken und optimierst die Retrieval-Qualität.
- Cloud & DevOps: Du betreibst unseren AI/Data-Stack auf AWS, nutzt Terraform für Infrastructure as Code und containerisierst Workloads mit Docker & Kubernetes.
- Tech meets Business: Du übersetzt Geschäftsanforderungen in technische Lösungen, berätst Data Scientists zur Produktionsfähigkeit und dokumentierst Datenprodukte sowie AI-Komponenten.
Dein Profil
Erforderlich:
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas) und fortgeschrittenes SQL.
- Praxiserfahrung mit Data-Engineering-Tooling: dbt, Apache Spark, Airflow oder vergleichbare Frameworks.
- MLOps-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines.
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API) und Vektordatenbanken (Pinecone, pgvector o.Ä.).
- Cloud-Erfahrung auf AWS sowie sicherer Umgang mit Docker und Terraform.
- Mindestens 3 Jahre Berufserfahrung im Data Engineering.
- Konversationssicheres Deutsch und gutes Englisch.
Wünschenswert:
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen.
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer).
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä. – oder starkes Portfolio (GitHub, Kaggle, eigene Projekte).
Du als Person
Du denkst Systeme ganzheitlich – von der Datenquelle bis zum Business-Outcome. Du bist pragmatisch, eigenverantwortlich und hast Lust, dich in einem sich schnell entwickelnden Feld weiterzuentwickeln.
Was wir dir bieten
Sinnstiftende Mission: Technologie, die unabhängigen, lokalen Journalismus und Meinungsvielfalt sichert.
Data AI Engineer (m/w/d) Arbeitgeber: Ippen Digital
Kontaktperson:
Ippen Digital HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data AI Engineer (m/w/d)
✨Tipp Nummer 1
Mach dir ein starkes Netzwerk! Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Lass uns wissen, wenn du Fragen hast oder Unterstützung brauchst!
✨Tipp Nummer 2
Bereite dich auf Vorstellungsgespräche vor, indem du häufige Fragen und technische Herausforderungen übst. Wir können dir helfen, die besten Ressourcen zu finden, um deine Skills aufzufrischen!
✨Tipp Nummer 3
Zeige deine Leidenschaft für das Thema! Sprich über deine Projekte und Erfahrungen, die zeigen, wie du zur Weiterentwicklung von AI-Systemen beigetragen hast. Das macht Eindruck!
✨Tipp Nummer 4
Bewirb dich direkt über unsere Website! So hast du die besten Chancen, gesehen zu werden. Wir freuen uns darauf, von dir zu hören und gemeinsam an der Zukunft des Journalismus zu arbeiten!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data AI Engineer (m/w/d)
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wir wollen dich kennenlernen, also zeig uns deine Persönlichkeit! Lass deinen Stil durchscheinen und sei authentisch in deinem Anschreiben und Lebenslauf.
Pass auf die Details auf: Achte darauf, dass deine Bewerbung fehlerfrei ist. Rechtschreibfehler oder unklare Formulierungen können einen schlechten Eindruck hinterlassen. Nimm dir die Zeit, alles gründlich zu überprüfen!
Zeige deine Leidenschaft: Erzähle uns, warum du für uns arbeiten möchtest und was dich an der Position als Data AI Engineer reizt. Deine Begeisterung kann den Unterschied machen!
Bewirb dich über unsere Website: Um sicherzustellen, dass wir deine Bewerbung schnell und effizient bearbeiten können, bewirb dich bitte direkt über unsere Website. So bist du auf der sicheren Seite!
Wie du dich auf ein Vorstellungsgespräch bei Ippen Digital vorbereitest
✨Verstehe den Tech-Stack
Mach dich mit dem Tech-Stack von ippen.ai vertraut, insbesondere mit den Tools wie Databricks, Apache Kafka und AWS. Zeige im Interview, dass du nicht nur die Theorie kennst, sondern auch praktische Erfahrungen hast, die du in deine Antworten einfließen lassen kannst.
✨Bereite konkrete Beispiele vor
Überlege dir spezifische Projekte oder Herausforderungen, die du in der Vergangenheit gemeistert hast. Erkläre, wie du ETL/ELT-Pipelines entworfen oder MLOps-Prozesse implementiert hast. Solche Beispiele zeigen deine praktische Erfahrung und Problemlösungsfähigkeiten.
✨Sprich die Sprache des Unternehmens
Da konversationssicheres Deutsch gefordert ist, übe, technische Konzepte auf Deutsch zu erklären. Verwende die Begriffe und Phrasen, die in der Stellenbeschreibung vorkommen, um zu zeigen, dass du die Anforderungen verstehst und dich gut in das Team integrieren kannst.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Interviewer stellen kannst. Das zeigt dein Interesse an der Position und am Unternehmen. Frage nach den aktuellen Projekten im Bereich AI/Data Engineering oder wie das Team zusammenarbeitet, um innovative Lösungen zu entwickeln.