Auf einen Blick
- Aufgaben: Entwickle skalierbare Dateninfrastrukturen für bahnbrechende KI-Modelle.
- Arbeitgeber: Innovatives Unternehmen, das die Kreativität mit fortschrittlicher Technologie erweitert.
- Mitarbeitervorteile: Attraktives Gehalt, Aktienoptionen und flexible Arbeitsmodelle.
- Andere Informationen: Dynamisches Team mit echten Büros und flexiblen Arbeitsmöglichkeiten.
- Warum dieser Job: Arbeite an der Spitze der Technologie und beeinflusse die Zukunft der Bild- und Videogenerierung.
- Gewünschte Qualifikationen: Erfahrung im Betrieb von Datenpipelines und Optimierung von Datenladeprozessen.
Über Black Forest Labs
Wir sind das Team hinter Latent Diffusion, Stable Diffusion und FLUX – grundlegende Technologien, die verändert haben, wie die Welt Bilder und Videos erstellt. Wir entwickeln die generativen Modelle, die die Art und Weise, wie Menschen Bilder und Videos erstellen, antreiben – Werkzeuge, die von Millionen von Kreativen, Entwicklern und Unternehmen weltweit genutzt werden. Unsere FLUX-Modelle gehören zu den fortschrittlichsten der Welt, und wir fangen gerade erst an. Mit Hauptsitz in Freiburg, Deutschland, und einer wachsenden Präsenz in San Francisco, wachsen wir schnell, während wir uns treu bleiben: Forschungsexzellenz, offene Wissenschaft und der Aufbau von Technologien, die die menschliche Kreativität erweitern.
Warum diese Rolle
Wir suchen Infrastruktur-Ingenieure, die auf Peta- bis Exabyte-Skala arbeiten möchten. Sie werden die Datensysteme hinter den größten Trainingsläufen auf Tausenden von GPUs aufbauen, wobei das Beheben eines Engpasses es Forschern ermöglicht, das nächste bahnbrechende Modell zu trainieren.
Woran Sie arbeiten werden
- Skalierbare Datenlader für Trainingsläufe über Tausende von GPUs
- Effiziente Speicher- und Abrufsysteme für Petabyte-große Datensätze
- Multi-Cloud-Objektspeicherabstraktion
- Durchführung großangelegter Datenmigrationen über Speichersysteme und Anbieter
- Fehlerbehebung und Behebung von Leistungsengpässen beim verteilten Laden von Daten
Technischer Fokus
- Python, PyTorch DataLoader-Interna
- Objektspeicher (z.B. S3, Azure Blob, GCS)
- Parquet für Metadaten
- Video: ffmpeg, PyAV, Codec-Grundlagen
Was wir suchen
- Aufbau und Betrieb von Datenpipelines auf Petabyte-Skala
- Optimierung des Datenladens
- Arbeit mit Petabyte-großen Video- und Bilddatensätzen
- Schreiben von Verarbeitungsjobs, die auf Millionen von Dateien arbeiten
- Fehlerbehebung bei Engpässen in verteilten Systemen über große Maschinenflotten
Schön zu haben:
- Erfahrung mit Streaming-Datensatzformaten (z.B. WebDataset)
- Interne Video-Codecs und frame-genaues Suchen
- Erfahrung mit verteilten Systemen
- Slurm und Kubernetes für Job-Orchestrierung
- Erfahrung mit der Leistungsoptimierung von Objektspeichern über Anbieter hinweg
Wie wir zusammenarbeiten
Wir sind ein verteiltes Team mit echten Büros, die die Leute tatsächlich nutzen. Je nach Ihrer Rolle werden Sie entweder mindestens 2 Tage pro Woche (oder eine volle Woche alle zwei Wochen) in Freiburg oder SF bei uns sein oder remote arbeiten mit einer monatlichen persönlichen Woche, um verbunden zu bleiben. Wir übernehmen angemessene Reisekosten, um dies zu ermöglichen. Wir denken, dass persönliche Zeit wichtig ist, und wir haben die Dinge so strukturiert, dass sie für alle zugänglich sind. Wir werden besprechen, wie dies für die Rolle während unseres Interviewprozesses aussehen wird.
Alles, was wir tun, basiert auf vier Werten:
- Besessen. Wir sind ein Forschungsinstitut an der Front. Die Wissenschaft muss stimmen, das Verständnis tief, das Produkt schön.
- Niedriger Ego. Die Arbeit spricht. Die beste Idee gewinnt, egal wer sie gesagt hat. Anerkennung wird geteilt. Niemand steht über einer Aufgabe.
- Mutig. Wir gehen die ambitionierte Wette ein. Wir liefern, wir warten nicht darauf, dass die Bedingungen perfekt sind.
- Freundlich. Menschen über Politik. Wir behandeln uns gegenseitig mit echter Wärme. Handlung ohne Empathie schafft Chaos.
Wenn sich das nach Arbeit anhört, die Ihnen Freude bereiten würde, würden wir uns freuen, von Ihnen zu hören.
Jahresgrundgehalt (SF-basierte Rolle): $180.000–$300.000 USD + Eigenkapital
Member of Technical Staff - Large Scale Data Infrastructure Arbeitgeber: Black Forest Labs
Kontaktperson:
Black Forest Labs HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Member of Technical Staff - Large Scale Data Infrastructure
✨Netzwerken, Netzwerken, Netzwerken!
Nutze Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Stell Fragen, teile deine Erfahrungen und zeig dein Interesse an den neuesten Technologien – das kann dir Türen öffnen!
✨Sei bereit für technische Gespräche
Bereite dich auf technische Interviews vor, indem du deine Kenntnisse über Python, PyTorch und verteilte Systeme auffrischst. Mach dir Notizen zu deinen bisherigen Projekten und sei bereit, diese im Detail zu erklären.
✨Präsentiere deine Projekte
Erstelle ein Portfolio oder eine GitHub-Seite, die deine besten Arbeiten zeigt. Zeige, wie du Probleme gelöst hast und welche Technologien du verwendet hast – das macht einen starken Eindruck!
✨Bewirb dich direkt über unsere Website
Wir empfehlen dir, dich direkt über unsere Website zu bewerben. So kannst du sicherstellen, dass deine Bewerbung die richtigen Leute erreicht und du die besten Chancen hast, Teil unseres Teams zu werden!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Member of Technical Staff - Large Scale Data Infrastructure
Tipps für deine Bewerbung 🫡
Sei authentisch!: Zeig uns, wer du wirklich bist! Deine Persönlichkeit und Leidenschaft für Technologie sollten in deiner Bewerbung deutlich werden. Lass uns wissen, warum du für diese Rolle brennst und was dich motiviert.
Betone deine Erfahrungen: Erzähle uns von deinen bisherigen Projekten und Erfahrungen im Bereich Dateninfrastruktur. Konkrete Beispiele helfen uns, deine Fähigkeiten besser zu verstehen und wie du unser Team bereichern kannst.
Technische Skills hervorheben: Stell sicher, dass du deine technischen Fähigkeiten klar und präzise darstellst. Wenn du mit Python, PyTorch oder großen Datensätzen gearbeitet hast, lass es uns wissen! Wir suchen nach konkreten Kenntnissen, die du mitbringst.
Bewirb dich über unsere Website: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass sie schnell bei uns ankommt und wir dich zeitnah kontaktieren können. Wir freuen uns auf deine Bewerbung!
Wie du dich auf ein Vorstellungsgespräch bei Black Forest Labs vorbereitest
✨Verstehe die Technologie
Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, wie Python, PyTorch und Object Storage. Zeige im Interview, dass du nicht nur die Grundlagen verstehst, sondern auch, wie sie in großen Dateninfrastrukturen angewendet werden.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte oder Erfahrungen, die du hattest, bei denen du Datenpipelines auf Petabyte-Skala gebaut oder optimiert hast. Sei bereit, diese Beispiele detailliert zu erläutern und zu zeigen, wie du Herausforderungen gemeistert hast.
✨Fragen stellen
Bereite einige durchdachte Fragen vor, die sich auf die Unternehmenskultur und die technischen Herausforderungen beziehen. Das zeigt dein Interesse und deine Neugierde für die Rolle und das Unternehmen. Frage zum Beispiel nach den größten Herausforderungen, die das Team derzeit hat.
✨Teamarbeit betonen
Da das Unternehmen Wert auf Zusammenarbeit legt, sei bereit, über deine Erfahrungen in der Teamarbeit zu sprechen. Betone, wie du in der Vergangenheit mit anderen zusammengearbeitet hast, um technische Probleme zu lösen und wie du zur Teamdynamik beigetragen hast.