Auf einen Blick
- Aufgaben: Entwickle und pflege skalierbare Dateninfrastrukturen für riesige Bild- und Videodaten.
- Arbeitgeber: Innovatives Unternehmen, das an der Spitze der generativen KI steht.
- Mitarbeitervorteile: Wettbewerbsfähiges Gehalt, Gesundheitsleistungen und flexible Arbeitsmöglichkeiten.
- Warum dieser Job: Gestalte die Zukunft der Forschung mit modernster Technologie und großen Datenmengen.
- Gewünschte Qualifikationen: Erfahrung in Python und im Umgang mit großflächigen Datenspeichern.
- Andere Informationen: Dynamisches Team mit exzellenten Wachstumschancen in einem kreativen Umfeld.
Das voraussichtliche Gehalt liegt zwischen 48000 - 84000 € pro Jahr.
Was wäre, wenn die Fähigkeit, kontinuierlich verbesserte Modelle zu trainieren, nur die Möglichkeit wäre, all unsere Daten abzurufen und zu verarbeiten? Unser Gründungsteam hat Latent Diffusion und Stable Diffusion - Durchbrüche, die generative KI Millionen zugänglich gemacht haben - maßgeblich geprägt. Heute treiben unsere FLUX-Modelle kreative Werkzeuge, Design-Workflows und Produkte in verschiedenen Branchen weltweit an. Unsere FLUX-Modelle sind nicht nur aufgrund ihrer Leistungsfähigkeit, sondern auch wegen der Benutzerfreundlichkeit bei der Entwicklung von Produktionsanwendungen erstklassig. Wir führen öffentliche Benchmarks an und konkurrieren an der Spitze - und in den meisten Fällen gewinnen wir. Wenn Sie unermüdlich neugierig sind und von hoher Eigenverantwortung getrieben werden, möchten wir mit Ihnen sprechen.
Mit einem Team von ~50 bewegen wir uns schnell und übertreffen unsere Möglichkeiten. Von unseren Labors in Freiburg - einer Universitätsstadt im Schwarzwald - und San Francisco aus bauen wir das, was als Nächstes kommt.
Was Sie Pionierarbeit leisten werden
Sie werden die Datensysteme erstellen, die Grenzforschung und die größten Trainingsläufe ermöglichen. Es geht darum, Infrastruktur in einem Maßstab zu schaffen, in dem Milliarden-Bilddatensätze normal sind und in dem Videoverarbeitungs-Pipelines über Tausende von GPUs laufen müssen.
Sie werden die Person sein, die:
- Skalierbare Infrastruktur entwickelt und pflegt, um massive Bild- und Videodatensätze zu speichern und abzurufen - wo "groß" Milliarden von Assets bedeutet, nicht Millionen.
- Die Datenabfrage optimiert, damit jeder Trainingslauf alle GPUs vollständig nutzen kann.
- Werkzeuge zum effizienten Management von Datensätzen erstellt.
- Datenübertragungen von Lizenzpartnern verwaltet und koordiniert.
- Sicherstellt, dass wir unseren Objektspeicher so effizient wie möglich nutzen.
Fragen, mit denen wir uns auseinandersetzen
Welche Formate bieten die beste Ladegeschwindigkeit für Daten, während sie die notwendige Flexibilität beibehalten, um weiterhin auf den Daten aufzubauen? Was sind die tatsächlichen Engpässe und Fehlerfälle beim Abrufen von Daten im großen Maßstab? Wie können wir Datenabruffehler in einzelnen Prozessen identifizieren, verhindern und umgehen?
Diese Fragen beeinflussen den Kern unserer gesamten Forschung und wirken sich auf die Effizienz und Iterationszyklen aus, die wir durchführen können.
Wer hier gedeiht
Sie haben in der Vergangenheit große Objektspeicher mit hohen Abrufraten verwaltet. Sie kennen den Unterschied zwischen Infrastruktur, die theoretisch funktioniert, und Infrastruktur, die funktioniert, wenn Forscher darauf angewiesen sind.
Sie haben wahrscheinlich:
- Starke Kenntnisse in Python und Erfahrung mit verschiedenen Dateisystemen für datenintensive Manipulation und Analyse.
- Erfahrung im Aufbau zuverlässiger und skalierbarer Datenlader für maschinelles Lernen.
- Tiefes Wissen über Cloud-Objektspeicher und die Herausforderungen, die damit einhergehen.
- Praktische Vertrautheit mit Cloud-Objektspeichern wie S3 und Azure Blob Storage, Cloud-Plattformen (AWS, GCP oder Azure) und Slurm/HPC-Umgebungen für verteilte Datenverarbeitung.
- Speicherinfrastruktur im PB-Maßstab erstellt und verwaltet.
- Mit großflächigen Bild- und Videodaten gearbeitet.
Worauf wir hinarbeiten
Wir warten nicht nur Infrastruktur - wir bauen das rechnerische Fundament, das bestimmt, welche Forschung möglich ist. Wir entwerfen Systeme, die alle zukünftigen Trainings- und Datenverarbeitungsprozesse antreiben werden. Wenn das überzeugender klingt, als bestehende Systeme am Laufen zu halten, sollten wir sprechen.
Member of Technical Staff - Large Scale Data Infrastructure Arbeitgeber: Black Forest Labs Inc.
Kontaktperson:
Black Forest Labs Inc. HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Member of Technical Staff - Large Scale Data Infrastructure
✨Tipp Nummer 1
Sei proaktiv und nutze dein Netzwerk! Sprich mit Leuten in der Branche, besuche Meetups oder Konferenzen. Oft erfährt man von offenen Stellen, bevor sie offiziell ausgeschrieben werden.
✨Tipp Nummer 2
Bereite dich auf technische Interviews vor, indem du an realistischen Projekten arbeitest. Zeige, dass du nicht nur die Theorie beherrschst, sondern auch praktische Lösungen für komplexe Probleme entwickeln kannst.
✨Tipp Nummer 3
Nutze unsere Website, um dich direkt zu bewerben! Das zeigt dein Interesse und gibt uns die Möglichkeit, dich besser kennenzulernen. Vergiss nicht, deine Leidenschaft für innovative Technologien zu betonen!
✨Tipp Nummer 4
Sei bereit, über deine Erfahrungen mit großen Datenmengen zu sprechen. Erkläre, wie du Herausforderungen gemeistert hast und welche Tools du verwendet hast, um effiziente Dateninfrastrukturen aufzubauen.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Member of Technical Staff - Large Scale Data Infrastructure
Tipps für deine Bewerbung 🫡
Sei authentisch!: Zeig uns, wer du wirklich bist! Deine Persönlichkeit und Leidenschaft für das, was du tust, sollten in deiner Bewerbung deutlich werden. Lass uns spüren, dass du für die Position brennst!
Betone deine Erfahrungen: Erzähl uns von deinen bisherigen Projekten und Erfahrungen, die relevant für die Stelle sind. Zeige auf, wie du große Dateninfrastrukturen gemanagt hast und welche Herausforderungen du dabei gemeistert hast.
Mach es klar und prägnant: Halte deine Bewerbung übersichtlich und auf den Punkt. Wir schätzen klare Informationen, die schnell zu verstehen sind. Vermeide unnötigen Jargon und konzentriere dich auf das Wesentliche.
Bewirb dich über unsere Website: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass sie schnell bei uns ankommt und wir sie zügig bearbeiten können. Wir freuen uns auf deine Unterlagen!
Wie du dich auf ein Vorstellungsgespräch bei Black Forest Labs Inc. vorbereitest
✨Verstehe die Technologie
Mach dich mit den neuesten Entwicklungen in der Dateninfrastruktur vertraut. Informiere dich über Latent Diffusion und Stable Diffusion, da diese Technologien für das Unternehmen von zentraler Bedeutung sind. Zeige im Interview, dass du nicht nur die Grundlagen verstehst, sondern auch, wie sie in der Praxis angewendet werden.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte, bei denen du große Datenmengen verwaltet hast. Sei bereit, über die Herausforderungen zu sprechen, die du dabei überwunden hast, und wie deine Lösungen zur Effizienzsteigerung beigetragen haben. Das zeigt, dass du praktische Erfahrung hast und Probleme proaktiv angehst.
✨Fragen stellen
Bereite einige durchdachte Fragen vor, die sich auf die Herausforderungen beziehen, mit denen das Team konfrontiert ist, wie z.B. Datenabrufgeschwindigkeit oder die Verwaltung von großen Datensätzen. Das zeigt dein Interesse und deine Neugierde, was in einem dynamischen Umfeld wie diesem sehr geschätzt wird.
✨Teamgeist und Anpassungsfähigkeit
Betone deine Fähigkeit, in einem kleinen, agilen Team zu arbeiten. Teile Beispiele, wie du in der Vergangenheit schnell auf Veränderungen reagiert hast und wie du zur Teamdynamik beigetragen hast. Das Unternehmen sucht nach jemandem, der nicht nur technisch versiert ist, sondern auch gut ins Team passt.