Auf einen Blick
- Aufgaben: Entwickle und betreibe Datenpipelines und AI-Systeme für smarteren Journalismus.
- Arbeitgeber: Innovatives Medienhaus in München mit Start-up-Mentalität.
- Mitarbeitervorteile: 30 Tage Urlaub, flexible Arbeitszeiten, hybrides Arbeiten und Weiterbildungsmöglichkeiten.
- Andere Informationen: Flache Hierarchien und eine transparente, agile Unternehmenskultur.
- Warum dieser Job: Gestalte die digitale Presselandschaft und arbeite an sinnstiftenden AI-Projekten.
- Gewünschte Qualifikationen: Erfahrung in Python, SQL und Data Engineering-Tools erforderlich.
Das voraussichtliche Gehalt liegt zwischen 60000 - 80000 € pro Jahr.
Bitte beachten Sie die Deutschkenntnisse für diese Position. Wir bitten um Ihr Verständnis und Respekt für diese Anforderung.
Standort: München (Hybrid)
Beschäftigungsart: Vollzeit
Über ippen.ai GmbH
Wir sind ippen.ai – Vorreiter in der Integration von Agentic AI in den Redaktionsalltag. Als Technologie-Einheit von IPPEN.MEDIA setzen wir Agentic AI zur Qualitätssicherung und Produktivitätssteigerung ein. Wir bauen Werkzeuge, die sicherstellen, dass Qualitätsjournalismus gegen die Übermacht globaler Algorithmen nicht nur überlebt, sondern technologisch überlegen bleibt. IPPEN.MEDIA ist ein hochgradig vernetztes Medien-Ökosystem. Hinter uns steht eine klare Mission: lokalen Journalismus pluralistisch, unabhängig und zukunftsfähig zu gestalten. Bei uns triffst du auf ein modernes Medienhaus im Herzen von München, das mit Start-up-Mentalität und echter Leidenschaft für digitalen Journalismus arbeitet. Unser Tech-Stack ist state-of-the-art, unsere Teams sind cross-funktional und agil – und unsere Wirkung ist real: Mit deiner Arbeit prägst du die deutsche digitale Presselandschaft. Unsere Entwicklungsteams sind dabei ein zentraler Wachstumstreiber – und genau hier kommst du ins Spiel.
Was dich erwartet:
- Du baust und betreibst die Datenpipelines und AI-Systeme, die unsere Redaktionen und Produkte smarter machen – von der Rohdatenquelle bis zum produktiven Modell.
- Datenpipelines & Lakehouse: Du entwirfst skalierbare ETL/ELT-Pipelines und verantwortest unsere Databricks-basierte Dateninfrastruktur – inklusive Streaming-Szenarien mit Apache Kafka.
- Feature Engineering & MLOps: Du entwickelst Feature Pipelines, baust CI/CD-Prozesse für ML-Modelle und sorgst dafür, dass Modelle produktionsreif deployed und in Produktion überwacht werden.
- RAG & LLM-Engineering: Du baust Retrieval-Augmented-Generation-Systeme, integrierst LLMs mit internen Wissensdatenbanken und optimierst die Retrieval-Qualität.
- Cloud & DevOps: Du betreibst unseren AI/Data-Stack auf AWS, nutzt Terraform für Infrastructure as Code und containerisierst Workloads mit Docker & Kubernetes.
- Tech meets Business: Du übersetzt Geschäftsanforderungen in technische Lösungen, berätst Data Scientists zur Produktionsfähigkeit und dokumentierst Datenprodukte sowie AI-Komponenten.
Dein Profil:
Erforderlich:
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas) und fortgeschrittenes SQL.
- Praxiserfahrung mit Data-Engineering-Tooling: dbt, Apache Spark, Airflow oder vergleichbare Frameworks.
- MLOps-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines.
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API) und Vektordatenbanken (Pinecone, pgvector o.Ä.).
- Cloud-Erfahrung auf AWS sowie sicherer Umgang mit Docker und Terraform.
- Mindestens 3 Jahre Berufserfahrung im Data Engineering.
- Konversationssicheres Deutsch und gutes Englisch.
Wünschenswert:
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen.
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer).
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä. – oder starkes Portfolio (GitHub, Kaggle, eigene Projekte).
Du als Person:
- Du denkst Systeme ganzheitlich – von der Datenquelle bis zum Business-Outcome.
- Du bist pragmatisch, eigenverantwortlich und hast Lust, dich in einem sich schnell entwickelnden Feld weiterzuentwickeln.
Was wir dir bieten:
- Sinnstiftende Mission: Technologie, die unabhängigen, lokalen Journalismus und Meinungsvielfalt sichert.
- Spannende Herausforderungen: Verantwortungsvolle AI-Aufgaben mit interdisziplinärer Zusammenarbeit im Herzen von München.
- Weiterbildung & Wachstum: Umfassendes Onboarding, ID Academy und regelmäßiges Coaching.
- 30 Tage Urlaub, flexible Arbeitszeitmodelle, hybrides Arbeiten & freie Systemauswahl.
- Sabbaticals & Working abroad – weil Leben mehr ist als Arbeit.
- Bikeleasing, Corporate Benefits, Kantinenzuschuss, betriebliche Altersvorsorge & Firmenevents.
- Flache Hierarchien und eine transparente, agile Unternehmenskultur.
Bewerbungsprozess: Du willst die Datenwelt des digitalen Journalismus mitgestalten? Dann schick uns deinen Lebenslauf – und gerne einen Link zu deinem GitHub-Profil oder Portfolio. Ein Anschreiben ist nicht notwendig, aber wir freuen uns, wenn du kurz skizzierst, welche Schwerpunkte dich am meisten begeistern (MLOps, RAG, Feature Engineering?).
Kontakt: Christian Celikovic 📧 christian.celikovic@ippen-digital.de 📞 +49 89 541 984 07 🌐
Data AI Engineer (m/w/d) Arbeitgeber: IT, Data & Support
Kontaktperson:
IT, Data & Support HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data AI Engineer (m/w/d)
✨Netzwerken, Netzwerken, Netzwerken!
Nutze LinkedIn und andere Plattformen, um mit Leuten aus der Branche in Kontakt zu treten. Frag nach Insights über die Firma oder die Position, die dich interessiert. Oft sind es persönliche Kontakte, die dir den entscheidenden Vorteil verschaffen!
✨Sei bereit für technische Herausforderungen!
Bereite dich auf technische Interviews vor, indem du deine Kenntnisse in Python, SQL und MLOps auffrischst. Mach ein paar Coding-Challenges und sei bereit, deine Lösungen zu erklären. Das zeigt, dass du nicht nur die Theorie beherrschst, sondern auch praktisch anwenden kannst.
✨Zeig dein Portfolio!
Wenn du an Projekten gearbeitet hast, die relevant für die Stelle sind, präsentiere sie! Ein starkes GitHub-Profil oder eigene Projekte können dir helfen, dich von anderen Bewerbern abzuheben. Zeig, was du kannst und wie du zur Mission des Unternehmens beitragen kannst.
✨Bewirb dich direkt über unsere Website!
Wir lieben es, wenn du dich direkt über unsere Website bewirbst. So stellst du sicher, dass deine Bewerbung schnell gesehen wird. Und vergiss nicht, uns zu erzählen, was dich an der Position am meisten begeistert – das macht einen guten Eindruck!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data AI Engineer (m/w/d)
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wir wollen dich kennenlernen, also zeig uns, wer du wirklich bist! Lass deine Persönlichkeit in deiner Bewerbung durchscheinen und erzähl uns, was dich an der Position als Data AI Engineer begeistert.
Mach es klar und prägnant: Halte deinen Lebenslauf und die Informationen zu deinem Portfolio übersichtlich. Wir schätzen klare Strukturen und relevante Informationen, die uns schnell einen Überblick über deine Fähigkeiten geben.
Zeig deine Projekte: Wenn du ein GitHub-Profil oder eigene Projekte hast, teile sie mit uns! Wir sind neugierig auf deine praktischen Erfahrungen und wie du deine Skills in realen Anwendungen eingesetzt hast.
Nutze unsere Website: Bewirb dich direkt über unsere Website! So stellst du sicher, dass deine Bewerbung schnell bei uns landet und wir sie zügig bearbeiten können. Wir freuen uns auf deine Unterlagen!
Wie du dich auf ein Vorstellungsgespräch bei IT, Data & Support vorbereitest
✨Verstehe den Tech-Stack
Mach dich mit dem Tech-Stack von ippen.ai vertraut, insbesondere mit Technologien wie Python, Apache Kafka und AWS. Zeige im Interview, dass du nicht nur die Grundlagen kennst, sondern auch, wie diese Technologien in der Praxis eingesetzt werden.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte oder Erfahrungen, die deine Fähigkeiten im Data Engineering und MLOps demonstrieren. Sei bereit, über Herausforderungen zu sprechen, die du gemeistert hast, und wie du technische Lösungen für Geschäftsanforderungen entwickelt hast.
✨Sprich die Sprache des Unternehmens
Da fließende Deutschkenntnisse gefordert sind, solltest du sicherstellen, dass du während des Interviews auf Deutsch kommunizieren kannst. Übe technische Begriffe und erkläre deine Projekte in einer klaren und verständlichen Weise auf Deutsch.
✨Zeige deine Leidenschaft für Journalismus
Mache deutlich, warum du dich für die Verbindung von Technologie und Journalismus interessierst. Teile deine Gedanken darüber, wie AI und Datenanalyse die Zukunft des Journalismus beeinflussen können und warum du Teil dieser Mission sein möchtest.