Member of Technical Staff - Model Serving / API Backend Engineer
Member of Technical Staff - Model Serving / API Backend Engineer

Member of Technical Staff - Model Serving / API Backend Engineer

San Francisco Vollzeit Home Office möglich (teilweise)
Go Premium
B

Auf einen Blick

  • Aufgaben: Entwickle leistungsstarke APIs und bringe Forschungsergebnisse in die Produktion.
  • Arbeitgeber: Innovatives Unternehmen im Bereich generative KI mit Fokus auf Forschung und Kreativität.
  • Mitarbeitervorteile: Attraktives Gehalt, flexible Arbeitszeiten und Möglichkeiten zur persönlichen Weiterentwicklung.
  • Andere Informationen: Dynamisches Arbeitsumfeld mit großartigen Wachstumschancen und Teamgeist.
  • Warum dieser Job: Sei Teil eines Teams, das die Zukunft der Bild- und Videoerstellung gestaltet.
  • Gewünschte Qualifikationen: Erfahrung in der Entwicklung von APIs und ML-Systemen unter Last.

Über Black Forest Labs

Wir sind das Team hinter Latent Diffusion, Stable Diffusion und FLUX – grundlegende Technologien, die verändert haben, wie die Welt Bilder und Videos erstellt. Wir entwickeln die generativen Modelle, die die Art und Weise, wie Menschen Bilder und Videos erstellen, antreiben – Werkzeuge, die von Millionen von Kreativen, Entwicklern und Unternehmen weltweit genutzt werden. Unsere FLUX-Modelle gehören zu den fortschrittlichsten der Welt, und wir stehen erst am Anfang. Mit Hauptsitz in Freiburg, Deutschland, und einer wachsenden Präsenz in San Francisco, wachsen wir schnell, während wir uns treu bleiben: Forschungsexzellenz, offene Wissenschaft und der Aufbau von Technologien, die die menschliche Kreativität erweitern.

Warum diese Rolle

Unser Forschungsteam arbeitet schnell. Modelle verbessern sich wöchentlich. Neue Fähigkeiten entstehen ständig. Was uns verlangsamt, ist nicht die Modellqualität – es ist die Produktionsfähigkeit. Ohne diese Rolle:

  • Forschungsprüfungen sitzen länger, bevor sie nutzbare APIs werden
  • Inference ist langsamer als nötig
  • APIs kämpfen unter Last
  • Demos spiegeln nicht das wahre Potenzial unserer Modelle wider

Diese Rolle beseitigt das Nadelöhr zwischen Grenzforschung und Produktionsrealität. Nach der Einstellung können Forscher schneller liefern, Demos schneller starten und Kunden erleben die Modelle in ihrer besten Form.

Woran Sie arbeiten werden

Sie werden die Brücke zwischen Forschungsergebnissen und Produktionssystemen besitzen.

  • Forschungskontrollen in produktionsbereite Inferenzdienste umwandeln
  • Hochleistungs-APIs entwerfen und pflegen, die Millionen von Anfragen bedienen
  • Inferenzlatenz und -durchsatz über GPU-Infrastruktur optimieren
  • Skalierbare Servierungsarchitekturen aufbauen, die unvorhersehbaren Verkehr bewältigen
  • Zuverlässigkeit, Überwachung und Beobachtbarkeit über Modellservierungssysteme verbessern
  • Prototypen und Demos erstellen und versenden, die neue Fähigkeiten in Tagen, nicht Wochen, präsentieren
  • Eng mit Forschern zusammenarbeiten, um schnell von der Idee zum Live-Endpunkt zu gelangen

Werkzeuge & Kontext – Modellservierung & API-Infrastruktur

  • Python, FastAPI, asynchrone Systeme
  • GPU-Infrastruktur, CUDA, Inferenzoptimierung
  • Docker und Kubernetes
  • Redis, Postgres, verteilte Aufgabenwarteschlangen
  • Cloud-Plattformen (AWS, GCP oder Azure)
  • Beobachtungsstacks (Metriken, Protokollierung, Nachverfolgung)

Diese Rolle umfasst Backend-Systeme, GPU-Leistung und Produktions-ML-Servierung.

Was wir suchen

Sie haben Systeme in bedeutendem Maßstab aufgebaut und betrieben. Sie verstehen den Unterschied zwischen einem Forschungsprototyp und einem Produktionssystem. Sie fühlen sich wohl dabei, durch Unklarheiten zu navigieren, Kompromisse einzugehen und Systeme unter realen Bedingungen zu verbessern. Sie zeigen:

  • Starkes Urteilsvermögen in Bezug auf Leistung, Zuverlässigkeit und Kostenkompromisse
  • Erfahrung in der Skalierung von APIs oder ML-Systemen unter Last
  • Komfort in schnelllebigen, forschungsnahen Umgebungen
  • Eigenverantwortung vom Systemdesign bis zur Fehlersuche und Bereitstellung

Rollenbezogene Erfahrungen, die wir schätzen:

  • Aufbau und Betrieb von ML-Inferenzdiensten in der Produktion
  • Entwurf skalierbarer API-Architekturen mit asynchroner Verarbeitung
  • Optimierung von GPU-Workloads (Batching, Quantisierung, Kompilierung, CUDA)
  • Verwaltung verteilter Systeme und Aufgabenwarteschlangen unter variabler Last
  • Implementierung von Überwachung und Beobachtbarkeit für Produktions-ML-Systeme
  • Fehlersuche bei Leistungsengpässen über Modell-, Infrastruktur- und Netzwerkschichten

Bonus-Erfahrungen umfassen:

  • Echtzeit- oder latenzarme Inferenzsysteme
  • TensorRT, reduzierte Präzision, Layerfusion oder Modellkompilierungstechniken
  • Frontend-Demo-Tools (Streamlit, Gradio, React)
  • CI/CD und automatisierte Tests für ML-Systeme
  • Sicherheitsbest Practices für API- und Modellservierung

Wie wir zusammenarbeiten

Wir sind ein verteiltes Team mit echten Büros, die die Leute tatsächlich nutzen. Je nach Ihrer Rolle werden Sie entweder mindestens 2 Tage pro Woche (oder eine volle Woche alle zwei Wochen) in Freiburg oder SF bei uns sein oder remote arbeiten mit einer monatlichen persönlichen Woche, um verbunden zu bleiben. Wir übernehmen angemessene Reisekosten, um dies zu ermöglichen. Wir denken, dass persönliche Zeit wichtig ist, und wir haben die Dinge so strukturiert, dass sie für alle zugänglich sind. Wir werden besprechen, wie dies für die Rolle während unseres Interviewprozesses aussehen wird.

Alles, was wir tun, basiert auf vier Werten:

  • Besessen. Wir sind ein Grenzforschungslabor. Die Wissenschaft muss stimmen, das Verständnis tief, das Produkt schön sein.
  • Niedriger Ego. Die Arbeit spricht. Die beste Idee gewinnt, egal wer sie gesagt hat. Anerkennung wird geteilt. Niemand steht über einer Aufgabe.
  • Mutig. Wir gehen die ehrgeizige Wette ein. Wir liefern, wir warten nicht darauf, dass die Bedingungen perfekt sind.
  • Freundlich. Menschen über Politik. Wir behandeln uns gegenseitig mit echter Wärme. Handlungsmacht ohne Empathie schafft Chaos.

Jahresgrundgehalt: $180.000–$300.000 USD

Wir sind in Europa ansässig und schätzen Tiefe über Lärm, Zusammenarbeit über Heldenkultur und ehrliche technische Gespräche über Hype. Unsere Modelle wurden hunderte Millionen Mal heruntergeladen, aber wir sind immer noch ein ~50-köpfiges Team, das lernt, was an der Spitze der generativen KI möglich ist.

Member of Technical Staff - Model Serving / API Backend Engineer Arbeitgeber: Black Forest Labs

Black Forest Labs ist ein hervorragender Arbeitgeber, der seinen Mitarbeitern die Möglichkeit bietet, an der Spitze der generativen KI-Technologie zu arbeiten. Mit einem starken Fokus auf Forschungsexzellenz und offener Wissenschaft fördert das Unternehmen eine Kultur der Zusammenarbeit und des kontinuierlichen Lernens, während es gleichzeitig flexible Arbeitsmodelle und regelmäßige persönliche Treffen in Freiburg oder San Francisco ermöglicht. Die Mitarbeiter profitieren von einer dynamischen Arbeitsumgebung, in der sie ihre Fähigkeiten in der Entwicklung leistungsstarker APIs und ML-Systeme weiterentwickeln können.
B

Kontaktperson:

Black Forest Labs HR Team

StudySmarter Bewerbungstipps 🤫

So bekommst du den Job: Member of Technical Staff - Model Serving / API Backend Engineer

Tipp Nummer 1

Mach dir ein starkes Netzwerk! Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Oft sind es persönliche Empfehlungen, die den Unterschied machen.

Tipp Nummer 2

Bereite dich auf technische Interviews vor! Übe Coding-Challenges und Systemdesign-Fragen, die für die Rolle relevant sind. Wir wissen, dass du das kannst – zeig uns dein Können!

Tipp Nummer 3

Sei proaktiv und zeige Interesse! Frag nach Projekten, an denen das Team arbeitet, und bringe eigene Ideen ein. Das zeigt, dass du wirklich motiviert bist und zur Teamdynamik beitragen möchtest.

Tipp Nummer 4

Bewirb dich direkt über unsere Website! So hast du die besten Chancen, gesehen zu werden. Wir freuen uns darauf, von dir zu hören und gemeinsam an der Zukunft der Technologie zu arbeiten!

Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Member of Technical Staff - Model Serving / API Backend Engineer

Python
FastAPI
async Systeme
GPU-Infrastruktur
CUDA
Inferenzoptimierung
Docker
Kubernetes
Redis
Postgres
verteilte Aufgabenwarteschlangen
Cloud-Plattformen (AWS, GCP oder Azure)
Überwachungs- und Beobachtungsstacks (Metriken, Protokollierung, Nachverfolgung)
Skalierung von APIs oder ML-Systemen unter Last
Debugging von Leistungsengpässen

Tipps für deine Bewerbung 🫡

Sei du selbst!: Wenn du deine Bewerbung schreibst, sei authentisch und zeig uns, wer du wirklich bist. Wir suchen nach Menschen, die Leidenschaft für Technologie und Kreativität haben, also lass das in deiner Bewerbung durchscheinen!

Mach es konkret!: Verwende konkrete Beispiele aus deiner bisherigen Erfahrung, um zu zeigen, wie du mit Herausforderungen umgegangen bist. Erzähl uns von Projekten, bei denen du Systeme skaliert oder APIs optimiert hast – das hilft uns, dich besser kennenzulernen.

Pass auf die Details auf!: Achte darauf, dass deine Bewerbung gut strukturiert und fehlerfrei ist. Ein klarer und präziser Schreibstil zeigt uns, dass du Wert auf Qualität legst – genau wie wir bei StudySmarter!

Bewirb dich über unsere Website!: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass sie schnell und effizient bei uns ankommt. Wir freuen uns darauf, von dir zu hören!

Wie du dich auf ein Vorstellungsgespräch bei Black Forest Labs vorbereitest

Verstehe die Technologien

Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Python, FastAPI und GPU-Infrastruktur. Zeige im Interview, dass du nicht nur die Grundlagen verstehst, sondern auch, wie diese Technologien zusammenarbeiten, um leistungsstarke APIs zu erstellen.

Bereite konkrete Beispiele vor

Denke an spezifische Projekte oder Erfahrungen, die deine Fähigkeiten im Bereich API-Entwicklung und ML-Systeme demonstrieren. Sei bereit, über Herausforderungen zu sprechen, die du gemeistert hast, und wie du Performance-Optimierungen umgesetzt hast.

Zeige deine Problemlösungsfähigkeiten

Sei darauf vorbereitet, technische Probleme zu lösen, die dir während des Interviews präsentiert werden. Dies könnte das Debuggen von Code oder das Optimieren von Systemen unter Last umfassen. Deine Fähigkeit, unter Druck zu denken, wird geschätzt.

Kulturelle Passung betonen

Black Forest Labs legt Wert auf Teamarbeit und eine positive Unternehmenskultur. Zeige, dass du die Werte des Unternehmens teilst, indem du Beispiele für deine Teamarbeit und deinen Umgang mit Kollegen nennst. Betone, wie wichtig dir Zusammenarbeit und Empathie sind.

Member of Technical Staff - Model Serving / API Backend Engineer
Black Forest Labs
Standort: San Francisco
Premium gehen

Schneller zum Traumjob mit Premium

Deine Bewerbung wird als „Top Bewerbung“ bei unseren Partnern gekennzeichnet
Individuelles Feedback zu Lebenslauf und Anschreiben, einschließlich der Anpassung an spezifische Stellenanforderungen
Gehöre zu den ersten Bewerbern für neue Stellen mit unserem AI Bewerbungsassistenten
1:1 Unterstützung und Karriereberatung durch unsere Career Coaches
Premium gehen

Geld-zurück-Garantie, wenn du innerhalb von 6 Monaten keinen Job findest

>