Auf einen Blick
- Aufgaben: Entwickle KI-Systeme für eine multimodale Plattform, die Kundeninteraktionen revolutioniert.
- Arbeitgeber: Innovatives Unternehmen mit einem engagierten Team und modernster Technologie.
- Mitarbeitervorteile: Flexibles Arbeiten, 25 Urlaubstage, Schulungen und ein modernes Arbeitsumfeld.
- Andere Informationen: Dynamisches Team mit großartigen Wachstums- und Entwicklungsmöglichkeiten.
- Warum dieser Job: Gestalte die Zukunft der Kundenkommunikation mit fortschrittlicher KI-Technologie.
- Gewünschte Qualifikationen: Erfahrung in Python, LLM-Anwendungen und Echtzeitsystemen.
Das voraussichtliche Gehalt liegt zwischen 60000 - 80000 € pro Jahr.
Über das Team
Unsere Mission ist es, ein modernes Ökosystem für alle IONOS-Kundenservicebedürfnisse zu schaffen. Die von uns entwickelten Tools werden an über 20 Standorten von mehr als 2.000 Nutzern eingesetzt und unterstützen 8 Millionen Kundenverträge in 10 Märkten. Das Entwicklungsteam trägt die volle Verantwortung für den Entwicklungszyklus. Das bedeutet, dass wir unsere Software ohne interne oder externe Abhängigkeiten planen, entwickeln, testen und bereitstellen.
Über das Produkt, das Sie entwickeln werden
Wir bauen eine KI-Plattform der nächsten Generation, die darauf abzielt, die Interaktion unseres Unternehmens mit Kunden neu zu definieren. Dies ist nicht nur ein Chatbot; es ist ein leistungsstarkes, multimodales KI-Ökosystem, das von modernsten Speech-to-Speech (S2S)-Modellen, fortschrittlichen großen Sprachmodellen (LLMs) und intelligenten Orchestrierungsframeworks betrieben wird. Die Plattform wird in der Lage sein, zu verstehen, zu argumentieren und über Text und Sprache zu antworten, während sie nahtlos Echtzeithandlungen ausführt, um die Bedürfnisse der Kunden zu erfüllen.
Was dieses Projekt einzigartig macht
- Die Voice Frontier: Aufbau von latenzarmen, emotionalen Speech-to-Speech-Pipelines für ein wirklich natürliches Spracherlebnis.
- Tiefe Systemintegration: Die Plattform verbindet sich direkt mit den Kernsystemen des Unternehmens über MCPs, sodass die KI in der Lage ist, auf Echtzeit-Kundenkontexte zuzugreifen und komplexe Workflows auszuführen.
- Selbstentwickelnde Logik: Entwicklung eines automatisierten QA- und Evaluierungsmoduls, das kontinuierlich Interaktionen über Kanäle hinweg analysiert und das Systemverhalten in Stunden, nicht Wochen, anpasst.
- Hybride Innovation: Arbeiten an der Schnittstelle von „bauen vs. kaufen“, Integration des Besten aus der Open-Source-Community mit maßgeschneiderter interner Infrastruktur.
Was Sie erwartet
Sie werden nicht nur Code versenden; Sie werden helfen, ein Konzept weiterzuentwickeln, das die Branche verändert. Sie werden Teil eines freundlichen, erfahrenen Teams, in dem Ihre Stimme zählt und Ihr Beitrag reale Ergebnisse prägt. Sie arbeiten in einer modernen Umgebung mit Technologien und Praktiken, die uns helfen, zuverlässige Software effizient bereitzustellen.
Rollenbeschreibung
Als KI-Ingenieur in diesem Team werden Sie die Kernintelligenzsysteme hinter unserer multimodalen KI-Plattform aufbauen. Sie sind verantwortlich dafür, über einfache Chat-Schnittstellen hinauszugehen und leistungsstarke, Echtzeitsysteme zu entwickeln, die komplexe Argumentation, tiefes Kontextabrufen, LLM-Orchestrierung, retrieval-augmented generation (RAG) und nahtlose Sprachinteraktionen handhaben.
Hauptverantwortlichkeiten
- Agentische Workflows entwerfen: Entwurf und Implementierung von LLM-basierten Systemen, die über die Generierung von Antworten hinausgehen und strukturierten Toolgebrauch, Workflow-Orchestrierung und sichere Interaktion mit internen Diensten über MCP ermöglichen.
- RAG & CAG aufbauen und optimieren: Entwicklung leistungsstarker Retrieval-Augmented Generation und Context-Augmented Generation-Pipelines, um genaue, relevante und latenzarme Antworten sicherzustellen; kontinuierliche Verbesserung des Kontextmanagements, der Ranking-Strategien und der Verankerungsmechanismen für komplexe, mehrstufige Interaktionen.
- Meisterschaft im Sprachkanal: Entwicklung und Optimierung von Echtzeit-Sprach-zu-Sprache-Pipelines mit Fokus auf Streaming-Architekturen, Latenzreduzierung und Aufrechterhaltung eines natürlichen Gesprächsflusses.
- Evaluierung, Qualität & Ausrichtung: Aufbau und Pflege eines automatisierten QA-Moduls, einschließlich LLM-as-a-judge-Mustern, um Genauigkeit, Sicherheit, Latenz und Lösungsqualität in großem Maßstab zu messen; Übersetzung von Evaluierungserkenntnissen in systematische Modelle und Verbesserungen von Eingabeaufforderungen.
- Modellstrategie & hybride Integration: Integration und Betrieb sowohl kommerzieller Grundmodelle (z.B. OpenAI, Anthropic, Google) als auch Open-Source-Alternativen (z.B. Qwen, Kimi, DeepSeek, Moonshot, GLM), Auswahl und Optimierung von Modellen basierend auf Leistung, Latenz, Kosten und Anforderungsprofilen.
Wir suchen nach jemandem mit
- Starken Python- und/oder Java-Entwicklungsfähigkeiten: fortgeschrittene Python-Entwicklungserfahrung, einschließlich asynchroner Programmierung (z.B. FastAPI, asyncio) und Aufbau leistungsstarker, produktionsreifer Dienste. Erfahrung mit Streaming-Architekturen ist von Vorteil.
- Erfahrung mit LLM-Anwendungen & Multi-Agenten-Orchestrierung: praktische Erfahrung beim Aufbau von LLM-gestützten Systemen, einschließlich mehrstufiger Workflows, zustandsbehafteter Agenten und Toolaufrufen. Vertrautheit mit Orchestrierungsframeworks wie LangChain, LlamaIndex oder LangGraph für zustandsbehaftete, mehrstufige Agenten.
- Fortgeschrittenes Retrieval- & Kontextmanagement: tiefes Verständnis von Vektordatenbanken (z.B. Weaviate, Qdrant, pgvector, Elasticsearch), semantischer Suche, Einbettungsstrategien und Re-Ranking-Techniken; Erfahrung im Entwerfen und Optimieren von RAG-Pipelines.
- Echtzeit- & latenzarme Systeme: Erfahrung im Entwerfen von Systemen, die unter Latenzbeschränkungen arbeiten, einschließlich Streaming-APIs, ereignisgesteuerten Architekturen und Leistungsoptimierung; Verständnis der Kompromisse zwischen Qualität, Kosten und Antwortzeit.
- Evaluierungsgetriebenes Entwickeln: Erfahrung in der Implementierung von Evaluierungsrahmen für LLM-basierte Systeme, einschließlich automatisierter QA-Pipelines und LLM-as-a-judge-Muster.
- Vertrautheit mit API-Design: Kenntnisse im Design von RESTful APIs und OAuth2.
Was wir bieten
- Zugang zu lokalen und internationalen Schulungen, Entwicklungs- und Wachstumschancen, einschließlich E-Learning-Plattformen, die sowohl technische als auch soziale Fähigkeiten abdecken.
- Moderne Technologien und Produktverantwortung.
- Flexibler Arbeitszeitplan.
- Hybride Arbeitsoption.
- Medizinisches Dienstleistungspaket von einem von zwei privaten Anbietern.
- 25 Urlaubstage pro Jahr.
- Ausgleichstage für Feiertage, die auf ein Wochenende fallen.
- Essensgutscheine.
- Internes Empfehlungsprogramm.
- Teamevents und Networking-Veranstaltungen, die organisiert werden, um eine leidenschaftliche, kreative und vielfältige Kultur zu fördern.
- Sommerfest- und Winterfestpartys.
- Bürokaffee, Erfrischungsgetränke und frisches Obst.
Senior AI Developer with Python - Customer Care AI Platform team (f/m/d) Arbeitgeber: IONOS Group
Kontaktperson:
IONOS Group HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Senior AI Developer with Python - Customer Care AI Platform team (f/m/d)
✨Tipp Nummer 1
Mach dir eine Liste von Fragen, die du im Vorstellungsgespräch stellen möchtest. Das zeigt dein Interesse und hilft dir, mehr über das Team und die Projekte zu erfahren.
✨Tipp Nummer 2
Bereite dich darauf vor, deine bisherigen Projekte und Erfahrungen zu präsentieren. Zeig, wie deine Skills in Python und KI-Entwicklung direkt zur Stelle passen und was du konkret beitragen kannst.
✨Tipp Nummer 3
Netzwerke mit Leuten aus der Branche! Nutze Plattformen wie LinkedIn, um Kontakte zu knüpfen und vielleicht sogar Insider-Infos über die Firma zu bekommen.
✨Tipp Nummer 4
Bewirb dich direkt über unsere Website! So hast du die besten Chancen, gesehen zu werden und zeigst, dass du wirklich an der Position interessiert bist.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Senior AI Developer with Python - Customer Care AI Platform team (f/m/d)
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wenn du deine Bewerbung schreibst, sei authentisch und zeige deine Persönlichkeit. Wir suchen nach Menschen, die nicht nur die richtigen Fähigkeiten haben, sondern auch gut ins Team passen.
Betone deine Erfahrungen: Stelle sicher, dass du relevante Erfahrungen und Projekte hervorhebst, die zu der Stelle passen. Zeige uns, wie du mit Python und KI gearbeitet hast und welche Erfolge du erzielt hast.
Mach es klar und prägnant: Halte deine Bewerbung übersichtlich und auf den Punkt. Verwende klare Sprache und vermeide unnötigen Jargon, damit wir schnell verstehen, was du kannst und was dich auszeichnet.
Bewirb dich über unsere Website: Wir empfehlen dir, dich direkt über unsere Website zu bewerben. So stellst du sicher, dass deine Bewerbung an die richtige Stelle gelangt und du alle notwendigen Informationen bereitstellst.
Wie du dich auf ein Vorstellungsgespräch bei IONOS Group vorbereitest
✨Verstehe die Technologie
Mach dich mit den neuesten Entwicklungen im Bereich KI und den spezifischen Technologien, die das Unternehmen verwendet, vertraut. Zeige im Interview, dass du nicht nur die Grundlagen von Python beherrschst, sondern auch ein tiefes Verständnis für LLMs und deren Anwendung in realen Szenarien hast.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte oder Herausforderungen, die du in der Vergangenheit gemeistert hast. Sei bereit, diese zu erläutern und zu zeigen, wie deine Erfahrungen direkt auf die Anforderungen der Stelle als Senior AI Developer zutreffen.
✨Fragen stellen
Bereite einige durchdachte Fragen vor, die sich auf die Teamdynamik, die Technologien oder die zukünftigen Projekte beziehen. Das zeigt dein Interesse und Engagement für die Rolle und hilft dir, mehr über die Unternehmenskultur zu erfahren.
✨Praktische Übungen
Sei darauf vorbereitet, praktische Aufgaben oder Coding-Challenges zu lösen. Übe vorher ähnliche Aufgaben, um sicherzustellen, dass du deine Fähigkeiten unter Beweis stellen kannst. Dies könnte auch das Design von Agenten-Workflows oder die Optimierung von RAG-Pipelines umfassen.