Member of Technical Staff - Large Scale Data Infrastructure
Member of Technical Staff - Large Scale Data Infrastructure

Member of Technical Staff - Large Scale Data Infrastructure

San Francisco Vollzeit Home Office möglich (teilweise)
Go Premium
B

Auf einen Blick

  • Aufgaben: Entwickle skalierbare Dateninfrastrukturen für bahnbrechende KI-Modelle.
  • Arbeitgeber: Innovatives Unternehmen, das die Kreativität mit fortschrittlicher Technologie erweitert.
  • Mitarbeitervorteile: Attraktives Gehalt, Aktienoptionen und flexible Arbeitsmodelle.
  • Andere Informationen: Dynamisches Team mit echten Büros und flexiblen Arbeitsmöglichkeiten.
  • Warum dieser Job: Arbeite an der Spitze der Technologie und beeinflusse die Zukunft der Bild- und Videogenerierung.
  • Gewünschte Qualifikationen: Erfahrung im Betrieb von Datenpipelines und Optimierung von Datenladeprozessen.

Über Black Forest Labs

Wir sind das Team hinter Latent Diffusion, Stable Diffusion und FLUX – grundlegende Technologien, die verändert haben, wie die Welt Bilder und Videos erstellt. Wir entwickeln die generativen Modelle, die die Art und Weise, wie Menschen Bilder und Videos erstellen, antreiben – Werkzeuge, die von Millionen von Kreativen, Entwicklern und Unternehmen weltweit genutzt werden. Unsere FLUX-Modelle gehören zu den fortschrittlichsten der Welt, und wir fangen gerade erst an. Mit Hauptsitz in Freiburg, Deutschland, und einer wachsenden Präsenz in San Francisco, wachsen wir schnell, während wir uns treu bleiben: Forschungsexzellenz, offene Wissenschaft und der Aufbau von Technologien, die die menschliche Kreativität erweitern.

Warum diese Rolle

Wir suchen Infrastruktur-Ingenieure, die auf Peta- bis Exabyte-Skala arbeiten möchten. Sie werden die Datensysteme hinter den größten Trainingsläufen auf Tausenden von GPUs aufbauen, wobei das Beheben eines Engpasses es Forschern ermöglicht, das nächste bahnbrechende Modell zu trainieren.

Woran Sie arbeiten werden

  • Skalierbare Datenlader für Trainingsläufe über Tausende von GPUs
  • Effiziente Speicher- und Abrufsysteme für Petabyte-große Datensätze
  • Multi-Cloud-Objektspeicherabstraktion
  • Durchführung großangelegter Datenmigrationen über Speichersysteme und Anbieter
  • Fehlerbehebung und Behebung von Leistungsengpässen beim verteilten Laden von Daten

Technischer Fokus

  • Python, PyTorch DataLoader-Interna
  • Objektspeicher (z.B. S3, Azure Blob, GCS)
  • Parquet für Metadaten
  • Video: ffmpeg, PyAV, Codec-Grundlagen

Was wir suchen

  • Aufbau und Betrieb von Datenpipelines auf Petabyte-Skala
  • Optimierung des Datenladens
  • Arbeit mit Petabyte-großen Video- und Bilddatensätzen
  • Schreiben von Verarbeitungsjobs, die auf Millionen von Dateien arbeiten
  • Fehlerbehebung bei Engpässen in verteilten Systemen über große Maschinenflotten

Schön zu haben:

  • Erfahrung mit Streaming-Datensatzformaten (z.B. WebDataset)
  • Interne Video-Codecs und frame-genaues Suchen
  • Erfahrung mit verteilten Systemen
  • Slurm und Kubernetes für Job-Orchestrierung
  • Erfahrung mit der Leistungsoptimierung von Objektspeichern über Anbieter hinweg

Wie wir zusammenarbeiten

Wir sind ein verteiltes Team mit echten Büros, die die Leute tatsächlich nutzen. Je nach Ihrer Rolle werden Sie entweder mindestens 2 Tage pro Woche (oder eine volle Woche alle zwei Wochen) in Freiburg oder SF bei uns sein oder remote arbeiten mit einer monatlichen persönlichen Woche, um verbunden zu bleiben. Wir übernehmen angemessene Reisekosten, um dies zu ermöglichen. Wir denken, dass persönliche Zeit wichtig ist, und wir haben die Dinge so strukturiert, dass sie für alle zugänglich sind. Wir werden besprechen, wie dies für die Rolle während unseres Interviewprozesses aussehen wird.

Alles, was wir tun, basiert auf vier Werten:

  • Besessen. Wir sind ein Forschungsinstitut an der Front. Die Wissenschaft muss stimmen, das Verständnis tief, das Produkt schön.
  • Niedriger Ego. Die Arbeit spricht. Die beste Idee gewinnt, egal wer sie gesagt hat. Anerkennung wird geteilt. Niemand steht über einer Aufgabe.
  • Mutig. Wir gehen die ambitionierte Wette ein. Wir liefern, wir warten nicht darauf, dass die Bedingungen perfekt sind.
  • Freundlich. Menschen über Politik. Wir behandeln uns gegenseitig mit echter Wärme. Handlung ohne Empathie schafft Chaos.

Wenn sich das nach Arbeit anhört, die Ihnen Freude bereiten würde, würden wir uns freuen, von Ihnen zu hören.

Jahresgrundgehalt (SF-basierte Rolle): $180.000–$300.000 USD + Eigenkapital

Member of Technical Staff - Large Scale Data Infrastructure Arbeitgeber: Black Forest Labs

Black Forest Labs ist ein hervorragender Arbeitgeber, der seinen Mitarbeitern die Möglichkeit bietet, an bahnbrechenden Technologien im Bereich der generativen Modelle zu arbeiten. Mit einem Fokus auf Forschungsexzellenz und offener Wissenschaft fördert das Unternehmen eine Kultur der Zusammenarbeit und des Wissensaustauschs, während es gleichzeitig flexible Arbeitsmodelle und persönliche Entwicklungschancen bietet. Die Büros in Freiburg und San Francisco schaffen eine dynamische Arbeitsumgebung, in der Teamarbeit und Innovation im Vordergrund stehen.
B

Kontaktperson:

Black Forest Labs HR Team

StudySmarter Bewerbungstipps 🤫

So bekommst du den Job: Member of Technical Staff - Large Scale Data Infrastructure

Netzwerken, Netzwerken, Netzwerken!

Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Stell Fragen, teile deine Erfahrungen und zeig dein Interesse an den neuesten Technologien – das kann dir Türen öffnen!

Sei bereit für technische Gespräche

Bereite dich auf technische Interviews vor, indem du deine Kenntnisse über Python, PyTorch und verteilte Systeme auffrischst. Mach dir Notizen zu deinen bisherigen Projekten und sei bereit, diese im Detail zu erklären.

Präsentiere deine Projekte

Erstelle ein Portfolio oder eine GitHub-Seite, die deine besten Arbeiten zeigt. Zeige, wie du Probleme gelöst hast und welche Technologien du verwendet hast – das macht einen starken Eindruck!

Bewirb dich direkt über unsere Website

Wir empfehlen dir, dich direkt über unsere Website zu bewerben. So kannst du sicherstellen, dass deine Bewerbung die richtigen Leute erreicht und du die besten Chancen hast, Teil unseres Teams zu werden!

Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Member of Technical Staff - Large Scale Data Infrastructure

Python
PyTorch
DataLoader Internals
Object Storage (z.B. S3, Azure Blob, GCS)
Parquet für Metadaten
ffmpeg
PyAV
Codec-Grundlagen
Datenpipelines auf Petabyte-Skala
Optimierung des Datenladens
Verarbeitung von Video- und Bilddatensätzen auf Petabyte-Skala
Debugging von Engpässen in verteilten Systemen
Erfahrung mit Streaming-Datenformaten (z.B. WebDataset)
Verteilte Systeme
Slurm und Kubernetes für Job-Orchestrierung
Leistungsoptimierung von Objektspeichern

Tipps für deine Bewerbung 🫡

Sei authentisch!: Zeig uns, wer du wirklich bist! Deine Persönlichkeit und Leidenschaft für Technologie sollten in deiner Bewerbung deutlich werden. Lass uns wissen, warum du für diese Rolle brennst und was dich motiviert.

Betone deine Erfahrungen: Erzähle uns von deinen bisherigen Projekten und Erfahrungen im Bereich Dateninfrastruktur. Konkrete Beispiele helfen uns, deine Fähigkeiten besser zu verstehen und wie du unser Team bereichern kannst.

Technische Skills hervorheben: Stell sicher, dass du deine technischen Fähigkeiten klar und präzise darstellst. Wenn du mit Python, PyTorch oder großen Datensätzen gearbeitet hast, lass es uns wissen! Wir suchen nach konkreten Kenntnissen, die du mitbringst.

Bewirb dich über unsere Website: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass sie schnell bei uns ankommt und wir dich zeitnah kontaktieren können. Wir freuen uns auf deine Bewerbung!

Wie du dich auf ein Vorstellungsgespräch bei Black Forest Labs vorbereitest

Verstehe die Technologie

Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Python, PyTorch und Object Storage. Zeige im Interview, dass du nicht nur die Grundlagen verstehst, sondern auch, wie sie in großen Dateninfrastrukturen angewendet werden.

Bereite konkrete Beispiele vor

Denke an spezifische Projekte oder Erfahrungen, die du hattest, bei denen du Datenpipelines auf Petabyte-Skala gebaut oder optimiert hast. Sei bereit, diese Beispiele detailliert zu erläutern und zu zeigen, wie du Herausforderungen gemeistert hast.

Fragen stellen

Bereite einige durchdachte Fragen vor, die sich auf die Unternehmenskultur und die technischen Herausforderungen beziehen. Das zeigt dein Interesse und deine Neugierde für die Rolle und das Unternehmen. Frage zum Beispiel nach den größten Herausforderungen, die das Team derzeit hat.

Teamarbeit betonen

Da das Unternehmen Wert auf Zusammenarbeit legt, sei bereit, über deine Erfahrungen in der Teamarbeit zu sprechen. Betone, wie du in der Vergangenheit mit anderen zusammengearbeitet hast, um technische Probleme zu lösen und wie du zur Teamdynamik beigetragen hast.

Member of Technical Staff - Large Scale Data Infrastructure
Black Forest Labs
Standort: San Francisco
Premium gehen

Schneller zum Traumjob mit Premium

Deine Bewerbung wird als „Top Bewerbung“ bei unseren Partnern gekennzeichnet
Individuelles Feedback zu Lebenslauf und Anschreiben, einschließlich der Anpassung an spezifische Stellenanforderungen
Gehöre zu den ersten Bewerbern für neue Stellen mit unserem AI Bewerbungsassistenten
1:1 Unterstützung und Karriereberatung durch unsere Career Coaches
Premium gehen

Geld-zurück-Garantie, wenn du innerhalb von 6 Monaten keinen Job findest

>