Auf einen Blick
- Aufgaben: Entwickle leistungsstarke APIs und bringe Forschungsergebnisse in die Produktion.
- Arbeitgeber: Innovatives Unternehmen im Bereich generative KI mit Fokus auf Forschung und Kreativität.
- Mitarbeitervorteile: Attraktives Gehalt, flexible Arbeitszeiten und Möglichkeiten zur persönlichen Weiterentwicklung.
- Andere Informationen: Dynamisches Arbeitsumfeld mit großartigen Wachstumschancen und Teamgeist.
- Warum dieser Job: Sei Teil eines Teams, das die Zukunft der Bild- und Videoerstellung gestaltet.
- Gewünschte Qualifikationen: Erfahrung in der Entwicklung von APIs und ML-Systemen unter Last.
Über Black Forest Labs
Wir sind das Team hinter Latent Diffusion, Stable Diffusion und FLUX – grundlegende Technologien, die verändert haben, wie die Welt Bilder und Videos erstellt. Wir entwickeln die generativen Modelle, die die Art und Weise, wie Menschen Bilder und Videos erstellen, antreiben – Werkzeuge, die von Millionen von Kreativen, Entwicklern und Unternehmen weltweit genutzt werden. Unsere FLUX-Modelle gehören zu den fortschrittlichsten der Welt, und wir stehen erst am Anfang. Mit Hauptsitz in Freiburg, Deutschland, und einer wachsenden Präsenz in San Francisco, wachsen wir schnell, während wir uns treu bleiben: Forschungsexzellenz, offene Wissenschaft und der Aufbau von Technologien, die die menschliche Kreativität erweitern.
Warum diese Rolle
Unser Forschungsteam arbeitet schnell. Modelle verbessern sich wöchentlich. Neue Fähigkeiten entstehen ständig. Was uns verlangsamt, ist nicht die Modellqualität – es ist die Produktionsfähigkeit. Ohne diese Rolle:
- Forschungsprüfungen sitzen länger, bevor sie nutzbare APIs werden
- Inference ist langsamer als nötig
- APIs kämpfen unter Last
- Demos spiegeln nicht das wahre Potenzial unserer Modelle wider
Diese Rolle beseitigt das Nadelöhr zwischen Grenzforschung und Produktionsrealität. Nach der Einstellung können Forscher schneller liefern, Demos schneller starten und Kunden erleben die Modelle in ihrer besten Form.
Woran Sie arbeiten werden
Sie werden die Brücke zwischen Forschungsergebnissen und Produktionssystemen besitzen.
- Forschungskontrollen in produktionsbereite Inferenzdienste umwandeln
- Hochleistungs-APIs entwerfen und pflegen, die Millionen von Anfragen bedienen
- Inferenzlatenz und -durchsatz über GPU-Infrastruktur optimieren
- Skalierbare Servierungsarchitekturen aufbauen, die unvorhersehbaren Verkehr bewältigen
- Zuverlässigkeit, Überwachung und Beobachtbarkeit über Modellservierungssysteme verbessern
- Prototypen und Demos erstellen und versenden, die neue Fähigkeiten in Tagen, nicht Wochen, präsentieren
- Eng mit Forschern zusammenarbeiten, um schnell von der Idee zum Live-Endpunkt zu gelangen
Werkzeuge & Kontext – Modellservierung & API-Infrastruktur
- Python, FastAPI, asynchrone Systeme
- GPU-Infrastruktur, CUDA, Inferenzoptimierung
- Docker und Kubernetes
- Redis, Postgres, verteilte Aufgabenwarteschlangen
- Cloud-Plattformen (AWS, GCP oder Azure)
- Beobachtungsstacks (Metriken, Protokollierung, Nachverfolgung)
Diese Rolle umfasst Backend-Systeme, GPU-Leistung und Produktions-ML-Servierung.
Was wir suchen
Sie haben Systeme in bedeutendem Maßstab aufgebaut und betrieben. Sie verstehen den Unterschied zwischen einem Forschungsprototyp und einem Produktionssystem. Sie fühlen sich wohl dabei, durch Unklarheiten zu navigieren, Kompromisse einzugehen und Systeme unter realen Bedingungen zu verbessern. Sie zeigen:
- Starkes Urteilsvermögen in Bezug auf Leistung, Zuverlässigkeit und Kostenkompromisse
- Erfahrung in der Skalierung von APIs oder ML-Systemen unter Last
- Komfort in schnelllebigen, forschungsnahen Umgebungen
- Eigenverantwortung vom Systemdesign bis zur Fehlersuche und Bereitstellung
Rollenbezogene Erfahrungen, die wir schätzen:
- Aufbau und Betrieb von ML-Inferenzdiensten in der Produktion
- Entwurf skalierbarer API-Architekturen mit asynchroner Verarbeitung
- Optimierung von GPU-Workloads (Batching, Quantisierung, Kompilierung, CUDA)
- Verwaltung verteilter Systeme und Aufgabenwarteschlangen unter variabler Last
- Implementierung von Überwachung und Beobachtbarkeit für Produktions-ML-Systeme
- Fehlersuche bei Leistungsengpässen über Modell-, Infrastruktur- und Netzwerkschichten
Bonus-Erfahrungen umfassen:
- Echtzeit- oder latenzarme Inferenzsysteme
- TensorRT, reduzierte Präzision, Layerfusion oder Modellkompilierungstechniken
- Frontend-Demo-Tools (Streamlit, Gradio, React)
- CI/CD und automatisierte Tests für ML-Systeme
- Sicherheitsbest Practices für API- und Modellservierung
Wie wir zusammenarbeiten
Wir sind ein verteiltes Team mit echten Büros, die die Leute tatsächlich nutzen. Je nach Ihrer Rolle werden Sie entweder mindestens 2 Tage pro Woche (oder eine volle Woche alle zwei Wochen) in Freiburg oder SF bei uns sein oder remote arbeiten mit einer monatlichen persönlichen Woche, um verbunden zu bleiben. Wir übernehmen angemessene Reisekosten, um dies zu ermöglichen. Wir denken, dass persönliche Zeit wichtig ist, und wir haben die Dinge so strukturiert, dass sie für alle zugänglich sind. Wir werden besprechen, wie dies für die Rolle während unseres Interviewprozesses aussehen wird.
Alles, was wir tun, basiert auf vier Werten:
- Besessen. Wir sind ein Grenzforschungslabor. Die Wissenschaft muss stimmen, das Verständnis tief, das Produkt schön sein.
- Niedriger Ego. Die Arbeit spricht. Die beste Idee gewinnt, egal wer sie gesagt hat. Anerkennung wird geteilt. Niemand steht über einer Aufgabe.
- Mutig. Wir gehen die ehrgeizige Wette ein. Wir liefern, wir warten nicht darauf, dass die Bedingungen perfekt sind.
- Freundlich. Menschen über Politik. Wir behandeln uns gegenseitig mit echter Wärme. Handlungsmacht ohne Empathie schafft Chaos.
Jahresgrundgehalt: $180.000–$300.000 USD
Wir sind in Europa ansässig und schätzen Tiefe über Lärm, Zusammenarbeit über Heldenkultur und ehrliche technische Gespräche über Hype. Unsere Modelle wurden hunderte Millionen Mal heruntergeladen, aber wir sind immer noch ein ~50-köpfiges Team, das lernt, was an der Spitze der generativen KI möglich ist.
Member of Technical Staff - Model Serving / API Backend Engineer Arbeitgeber: Black Forest Labs
Kontaktperson:
Black Forest Labs HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Member of Technical Staff - Model Serving / API Backend Engineer
✨Tipp Nummer 1
Mach dir ein starkes Netzwerk! Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Oft sind es persönliche Empfehlungen, die den Unterschied machen.
✨Tipp Nummer 2
Bereite dich auf technische Interviews vor! Übe Coding-Challenges und Systemdesign-Fragen, die für die Rolle relevant sind. Wir wissen, dass du das kannst – zeig uns dein Können!
✨Tipp Nummer 3
Sei proaktiv und zeige Interesse! Frag nach Projekten, an denen das Team arbeitet, und bringe eigene Ideen ein. Das zeigt, dass du wirklich motiviert bist und zur Teamdynamik beitragen möchtest.
✨Tipp Nummer 4
Bewirb dich direkt über unsere Website! So hast du die besten Chancen, gesehen zu werden. Wir freuen uns darauf, von dir zu hören und gemeinsam an der Zukunft der Technologie zu arbeiten!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Member of Technical Staff - Model Serving / API Backend Engineer
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wenn du deine Bewerbung schreibst, sei authentisch und zeig uns, wer du wirklich bist. Wir suchen nach Menschen, die Leidenschaft für Technologie und Kreativität haben, also lass das in deiner Bewerbung durchscheinen!
Mach es konkret!: Verwende konkrete Beispiele aus deiner bisherigen Erfahrung, um zu zeigen, wie du mit Herausforderungen umgegangen bist. Erzähl uns von Projekten, bei denen du Systeme skaliert oder APIs optimiert hast – das hilft uns, dich besser kennenzulernen.
Pass auf die Details auf!: Achte darauf, dass deine Bewerbung gut strukturiert und fehlerfrei ist. Ein klarer und präziser Schreibstil zeigt uns, dass du Wert auf Qualität legst – genau wie wir bei StudySmarter!
Bewirb dich über unsere Website!: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass sie schnell und effizient bei uns ankommt. Wir freuen uns darauf, von dir zu hören!
Wie du dich auf ein Vorstellungsgespräch bei Black Forest Labs vorbereitest
✨Verstehe die Technologien
Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Python, FastAPI und GPU-Infrastruktur. Zeige im Interview, dass du nicht nur die Grundlagen verstehst, sondern auch, wie diese Technologien zusammenarbeiten, um leistungsstarke APIs zu erstellen.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte oder Erfahrungen, die deine Fähigkeiten im Bereich API-Entwicklung und ML-Systeme demonstrieren. Sei bereit, über Herausforderungen zu sprechen, die du gemeistert hast, und wie du Performance-Optimierungen umgesetzt hast.
✨Zeige deine Problemlösungsfähigkeiten
Sei darauf vorbereitet, technische Probleme zu lösen, die dir während des Interviews präsentiert werden. Dies könnte das Debuggen von Code oder das Optimieren von Systemen unter Last umfassen. Deine Fähigkeit, unter Druck zu denken, wird geschätzt.
✨Kulturelle Passung betonen
Black Forest Labs legt Wert auf Teamarbeit und eine positive Unternehmenskultur. Zeige, dass du die Werte des Unternehmens teilst, indem du Beispiele für deine Teamarbeit und deinen Umgang mit Kollegen nennst. Betone, wie wichtig dir Zusammenarbeit und Empathie sind.