Auf einen Blick
- Aufgaben: Optimiere GPU-Leistung für maschinelles Lernen und arbeite an innovativen AI-Projekten.
- Arbeitgeber: Führendes Unternehmen im Bereich KI-Infrastruktur mit internationalem Team.
- Mitarbeitervorteile: Flexibles Arbeiten, kontinuierliche Weiterbildung und wettbewerbsfähige Vergütung.
- Andere Informationen: Dynamisches Umfeld mit großartigen Wachstumschancen in der KI-Branche.
- Warum dieser Job: Gestalte die Zukunft der KI-Infrastruktur und arbeite an bahnbrechenden Projekten.
- Gewünschte Qualifikationen: Erfahrung in maschinellem Lernen und GPU-Optimierung erforderlich.
Das voraussichtliche Gehalt liegt zwischen 60000 - 80000 € pro Jahr.
Wir suchen derzeit einen ML Infrastructure Engineer in Deutschland. Treten Sie einer modernen AI-Infrastrukturumgebung bei, die sich auf die nächste Generation von maschinellem Lernen und großangelegten AI-Workloads konzentriert. Diese Rolle bietet die Möglichkeit, an der Schnittstelle von GPU-Leistungsengineering, Optimierung des tiefen Lernens und Entwicklung von Cloud-Infrastrukturen zu arbeiten. Sie werden direkt zur Benchmarking und Optimierung fortschrittlicher GPU-Plattformen beitragen, die das Training und die Inferenz komplexer neuronaler Netzwerke und AI-Systeme unterstützen.
Zusammenarbeit mit hochqualifizierten Ingenieuren und Hardware-Teams wird Ihnen helfen, Leistungsverbesserungen über Rechenarchitekturen, Software-Stacks und verteilte AI-Umgebungen voranzutreiben. Die Position ist ideal für Ingenieure, die leidenschaftlich an ML-Systemen, der Leistung großangelegter Modelle und Infrastrukturinnovationen interessiert sind. Mit Einblicken in moderne AI-Frameworks, Hochleistungs-GPU-Ökosysteme und internationale Zusammenarbeit bietet diese Rolle eine starke Plattform für technisches Wachstum und bedeutenden Einfluss in der AI-Branche.
Verantwortlichkeiten:- Benchmarking und Bewertung der GPU-Plattformleistung für maschinelles Lernen und AI-Workloads über verschiedene Architekturen, Frameworks und Softwareumgebungen.
- Enger Austausch mit Hardware- und Engineering-Teams zur Profilerstellung der GPU-Leistung auf System- und Kernel-Ebene und Identifizierung von Optimierungsmöglichkeiten.
- Analyse, Debugging und Optimierung von Trainings- und Inferenz-Workloads zur Verbesserung der Effizienz, Skalierbarkeit und der gesamten Hardware-Nutzung.
- Durchführung von Abnahmetests für neue GPU-Cluster zur Validierung von Leistung, Stabilität, Kompatibilität und betrieblicher Einsatzbereitschaft für AI-Workloads.
- Durchführung von Experimenten über mehrere GPU-Konfigurationen und Interconnect-Strategien zur Bewertung der systemweiten Skalierbarkeit und Leistungsabgleich.
- Entwicklung interner Tools, Dashboards und Reporting-Frameworks zur Visualisierung von Leistungskennzahlen, Engpässen und Infrastrukturtrends.
- Beitrag zu Best Practices in der Infrastruktur, Verbesserungen interner Tools und Benchmarking-Methoden für AI- und ML-Umgebungen.
- Unterstützung laufender Plattformoptimierungsbemühungen im Zusammenhang mit verteiltem Training, Inferenzbeschleunigung, Parallelitätsstrategien und hardwarebewusster Leistungstuning.
- Starke theoretische Grundlagen im maschinellen Lernen, in tiefen Lernarchitekturen und in den Prinzipien der AI-Systemoptimierung.
- Tiefes Verständnis von Techniken zur Leistungsoptimierung für das Training und die Inferenz großer neuronaler Netzwerke, einschließlich Parallelitätsstrategien, Kernel-Optimierung, Batching und Hardware-Beschleunigung.
- Umfangreiche Erfahrung mit modernen Deep-Learning-Frameworks wie PyTorch, JAX, Megatron-LM, TensorRT-LLM oder gleichwertigen Technologien.
- Solide Expertise mit GPU-Technologien und Software-Stacks, einschließlich CUDA, NCCL, GPU-Treibern und leistungsbezogenen Bibliotheken.
- Erfahrung in der Profilerstellung und im Debugging von GPU-Workloads mit Tools wie Nsight, nvprof, perf oder ähnlichen Leistungsanalyseplattformen.
- Vertrautheit mit containerisierten und verteilten Umgebungen, einschließlich Docker und Kubernetes.
- Starke Programmier- und Skriptfähigkeiten, insbesondere in Python und leistungsorientierten Entwicklungsabläufen.
- Exzellente Problemlösungs-, analytische Denk- und Kommunikationsfähigkeiten mit der Fähigkeit, unabhängig in hochgradig technischen Umgebungen zu arbeiten.
- Erfahrung mit LLM-Inferenz-Frameworks wie vLLM, SGLang oder TensorRT wird als großer Vorteil angesehen.
- Vertrautheit mit cloudbasierten ML-Ökosystemen wie AWS, Google Cloud Platform oder Azure ML ist von Vorteil.
- Beiträge zu Open-Source-ML-Tools, Benchmarking-Frameworks oder Infrastrukturprojekten sind sehr geschätzt.
- Wettbewerbsfähiges Vergütungspaket, das an Erfahrung und technische Expertise angepasst ist.
- Flexibles Remote-Arbeitsumfeld, das eine starke Work-Life-Balance unterstützt.
- Zugang zu kontinuierlichem Lernen, Karriereentwicklung und Wachstumschancen im Bereich der AI-Infrastruktur.
- Gelegenheit, an wirkungsvollen AI-Projekten zu arbeiten, die die Zukunft der Infrastruktur für maschinelles Lernen und Cloud-Computing gestalten.
- Kollaborative und innovationsgetriebene Ingenieurkultur mit starkem technischem Eigentum und Autonomie.
- Internationales Arbeitsumfeld mit Einblicken in global verteilte Teams und fortschrittliche AI-Technologien.
- Schnelles Umfeld, das sich auf mutiges Denken, Experimente und kontinuierliche technische Evolution konzentriert.
- Gelegenheit, zu Hochleistungs-AI-Systemen beizutragen, die von Entwicklern und Unternehmen weltweit genutzt werden.
ML Infrastructure Engineer Arbeitgeber: Jobgether
Kontaktperson:
Jobgether HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: ML Infrastructure Engineer
✨Tipp Nummer 1
Netzwerken ist der Schlüssel! Nutze Plattformen wie LinkedIn, um mit Fachleuten aus der KI- und ML-Branche in Kontakt zu treten. Teile deine Projekte und Erfahrungen, um sichtbar zu werden und vielleicht sogar Empfehlungen zu erhalten.
✨Tipp Nummer 2
Bereite dich auf technische Interviews vor! Übe gängige Fragen zu GPU-Optimierung und ML-Architekturen. Zeige dein Wissen über Frameworks wie PyTorch oder TensorRT und sei bereit, deine Problemlösungsfähigkeiten unter Beweis zu stellen.
✨Tipp Nummer 3
Sei proaktiv! Wenn du eine interessante Stelle siehst, bewirb dich direkt über unsere Website. Zeige dein Interesse und deine Motivation, indem du ein paar Worte über deine Leidenschaft für ML und Infrastruktur schreibst.
✨Tipp Nummer 4
Bleib am Ball! Verfolge die neuesten Trends in der KI und ML. Lies Blogs, nimm an Webinaren teil und teile dein Wissen in der Community. Das zeigt nicht nur dein Engagement, sondern hilft dir auch, im Gespräch zu bleiben.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: ML Infrastructure Engineer
Tipps für deine Bewerbung 🫡
Mach es persönlich!: Zeig uns, wer du bist! Verwende in deinem Anschreiben eine persönliche Ansprache und erzähle uns, warum du dich für die Position als ML Infrastructure Engineer interessierst. Das macht deine Bewerbung einzigartig und hebt dich von anderen ab.
Betone deine technischen Skills: Wir suchen nach jemandem mit einem starken Hintergrund in Machine Learning und GPU-Technologien. Stelle sicher, dass du deine relevanten Erfahrungen und Kenntnisse in diesen Bereichen klar und präzise darstellst. Zeig uns, was du drauf hast!
Sei konkret bei deinen Projekten: Wenn du an Projekten gearbeitet hast, die mit GPU-Optimierung oder AI-Infrastruktur zu tun haben, dann nenne konkrete Beispiele. Erkläre, welche Herausforderungen du gemeistert hast und welche Ergebnisse du erzielt hast. Das gibt uns einen besseren Einblick in deine Fähigkeiten.
Bewirb dich über unsere Website: Um sicherzustellen, dass deine Bewerbung schnell und effizient bearbeitet wird, bewirb dich direkt über unsere Website. So können wir deine Unterlagen direkt an die richtigen Leute weiterleiten und du erhöhst deine Chancen auf eine schnelle Rückmeldung.
Wie du dich auf ein Vorstellungsgespräch bei Jobgether vorbereitest
✨Verstehe die Grundlagen von ML und AI
Mach dich mit den grundlegenden Konzepten des maschinellen Lernens und der KI-Systemoptimierung vertraut. Zeige im Interview, dass du ein starkes theoretisches Fundament hast und bereit bist, dein Wissen über moderne Deep-Learning-Frameworks wie PyTorch oder JAX zu teilen.
✨Praktische Erfahrungen hervorheben
Bereite konkrete Beispiele aus deiner bisherigen Arbeit vor, in denen du GPU-Leistung optimiert oder komplexe neuronale Netzwerke trainiert hast. Das zeigt nicht nur deine Fähigkeiten, sondern auch deine Leidenschaft für ML-Systeme und Infrastrukturinnovationen.
✨Fragen zur Teamarbeit stellen
Da die Rolle enge Zusammenarbeit mit Hardware- und Engineering-Teams erfordert, solltest du Fragen vorbereiten, die dein Interesse an Teamarbeit und interdisziplinärer Zusammenarbeit zeigen. Das zeigt, dass du nicht nur technisch versiert bist, sondern auch gut ins Team passt.
✨Bleib auf dem neuesten Stand
Informiere dich über aktuelle Trends und Technologien im Bereich der KI-Infrastruktur. Im Interview kannst du dann zeigen, dass du proaktiv lernst und bereit bist, neue Tools und Methoden zu nutzen, um die Leistung von AI-Systemen zu verbessern.