Auf einen Blick
- Aufgaben: Führe komplexe Sicherheitsbewertungen und Angriffe auf KI-Modelle durch.
- Arbeitgeber: Google DeepMind, ein führendes Unternehmen im Bereich künstliche Intelligenz.
- Mitarbeitervorteile: Attraktives Gehalt, Boni, Aktienoptionen und umfassende Sozialleistungen.
- Andere Informationen: Dynamisches Team mit Fokus auf Vielfalt und Chancengleichheit.
- Warum dieser Job: Gestalte die Zukunft der KI-Sicherheit und arbeite an innovativen Projekten.
- Gewünschte Qualifikationen: Abschluss in Informatik oder verwandtem Bereich und Erfahrung in Offensive Security.
Das voraussichtliche Gehalt liegt zwischen 100000 - 140000 € pro Jahr.
Überblick: Künstliche Intelligenz könnte eine der nützlichsten Erfindungen der Menschheit sein. Bei Google DeepMind sind wir ein Team von Wissenschaftlern, Ingenieuren und Experten für maschinelles Lernen, das zusammenarbeitet, um den Stand der Technik in der künstlichen Intelligenz voranzutreiben. Wir nutzen unsere Technologien zum Wohle der Öffentlichkeit und für wissenschaftliche Entdeckungen und arbeiten mit anderen an kritischen Herausforderungen, wobei Sicherheit und Ethik höchste Priorität haben.
Über uns: Das Agentic Red Team ist eine spezialisierte, hochdynamische Einheit innerhalb der Google DeepMind Security. Unsere Mission ist es, die "Agentic Launch Gap" zu schließen – das kritische Zeitfenster, in dem neuartige KI-Fähigkeiten traditionelle Sicherheitsüberprüfungen übertreffen. Im Gegensatz zu traditionellen Red Teams, die Berichte übergeben und weiterziehen, arbeiten wir mit extremer Agilität und integrieren uns direkt in Produktteams als sowohl beratender Partner als auch als Ausnutzungsarm. Wir agieren als "Spezialkräfte", die in hochpriorisierte Starts eingreifen können, wobei wir auf Google Core für grundlegende systemweite Schutzmaßnahmen zurückgreifen, damit wir uns ausschließlich auf Risiken auf Modell- und Agentenschicht konzentrieren können.
Die Rolle: Als Senior Security Engineer im Agentic Red Team sind Sie der primäre technische Ausführer unserer adversarialen Engagements. Sie werden "im Raum" mit Produktentwicklern arbeiten und architektonische Schwächen bereits in der Entwurfsphase identifizieren, lange bevor formale Überprüfungen beginnen. Ihr Hauptaugenmerk liegt darauf, komplexe, mehrstufige Angriffe auf produktionsreife KI-Modelle durchzuführen, insbesondere auf agentische Verhaltensweisen wie Werkzeugnutzung und Denkketten. Sie werden nicht nur Schwachstellen finden, sondern auch dazu beitragen, den Kreislauf zu schließen, indem Sie zu "Auto Red Teaming"-Frameworks und Verteidigungsstrategien beitragen, um sicherzustellen, dass Ihre Erkenntnisse in wiederverwendbare Leitplanken für alle Google-Agentenentwickler kodifiziert werden.
Hauptverantwortlichkeiten:
- Agile Red Teaming durchführen: Schnelle, wirkungsvolle Sicherheitsbewertungen von agentischen Diensten durchführen, wobei der Fokus auf Schwachstellen liegt, die einzigartig für GenAI sind, wie z.B. Eingabeaufforderungsinjektion, Eskalation der Werkzeugnutzung und autonome laterale Bewegung.
- Fortgeschrittene Exploits entwickeln: Komplexe Angriffssequenzen konstruieren und ausführen, die nicht-deterministische Modellverhalten, agentische Logikfehler und Datenvergiftungsvektoren ausnutzen.
- Automatisierte Abwehrmaßnahmen aufbauen: Code schreiben, um manuelle Schwachstellenerkennungen in automatisierte Regressionstest-Frameworks ("Auto Red Teaming") umzuwandeln, die Regressionen in zukünftigen Modellversionen verhindern.
- Mit Produktteams integrieren: Direkt mit Entwicklern während der Entwurfs- und Bauphasen zusammenarbeiten, um sofortiges Feedback zu geben und so den Feedbackzyklus zwischen offensiven Erkenntnissen und defensiver Technik zu verkürzen.
- Bedrohungsintelligenz kuratieren: Eine Bibliothek agentenspezifischer Angriffsmuster und Exploit-Primitiven pflegen und erweitern, um robuste Freigabekriterien für neue Modelle festzulegen.
Über Sie: Um Sie als Software Engineer bei Google DeepMind erfolgreich zu machen, suchen wir nach folgenden Fähigkeiten und Erfahrungen:
- Abschluss in Informatik, Informationssicherheit oder gleichwertige praktische Erfahrung.
- Erfahrung im Red Teaming, in der offensiven Sicherheit oder im adversarialen maschinellen Lernen.
- Starke Programmierkenntnisse in Python, Go oder C++ mit Erfahrung im Aufbau von Sicherheitstools oder Automatisierung.
- Technisches Verständnis von LLM-Architekturen, agentischen Workflows (z.B. Ketten von Gedanken) und gängigen Klassen von KI-Schwachstellen.
Zusätzlich wären folgende Punkte von Vorteil:
- Praktische Erfahrung in der Entwicklung von Exploits für GenAI-Modelle (z.B. Eingabeaufforderungsinjektion, adversariale Beispiele, Extraktion von Trainingsdaten).
- Erfahrung in einer beratenden Funktion mit Produktteams oder in einem schnelllebigen "Startup-ähnlichen" Umfeld.
- Vertrautheit mit KI-Sicherheitsbenchmarks, Bewertungsrahmen und Fuzzing-Techniken.
- Fähigkeit, komplexe probabilistische Risiken in umsetzbare technische Lösungen für Entwickler zu übersetzen.
Bei Google DeepMind schätzen wir Vielfalt in Erfahrung, Wissen, Hintergründen und Perspektiven und nutzen diese Qualitäten, um außergewöhnliche Auswirkungen zu erzielen. Wir setzen uns für Chancengleichheit ein, unabhängig von Geschlecht, Rasse, Religion oder Glauben, ethnischer oder nationaler Herkunft, Behinderung, Alter, Staatsbürgerschaft, Familienstand, Partnerschaftsstatus, sexueller Orientierung, Geschlechtsidentität, Schwangerschaft oder verwandten Bedingungen (einschließlich Stillen) oder aus anderen Gründen, die durch geltendes Recht geschützt sind.
Senior Security Engineer, Agentic Red Team Arbeitgeber: Google DeepMind
Kontaktperson:
Google DeepMind HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Senior Security Engineer, Agentic Red Team
✨Tipp Nummer 1
Sei proaktiv! Nutze Networking-Plattformen wie LinkedIn, um mit Leuten aus der Branche in Kontakt zu treten. Lass uns wissen, wenn du Fragen hast oder Unterstützung brauchst!
✨Tipp Nummer 2
Bereite dich auf technische Interviews vor, indem du deine Fähigkeiten in Python, Go oder C++ auffrischst. Wir empfehlen, an Coding-Challenges teilzunehmen, um dein Wissen zu testen und zu erweitern.
✨Tipp Nummer 3
Zeige deine Leidenschaft für KI-Sicherheit! Teile Projekte oder Beiträge, die du gemacht hast, um deine Expertise zu demonstrieren. Das kann dir helfen, dich von anderen Bewerbern abzuheben.
✨Tipp Nummer 4
Bewirb dich direkt über unsere Website! So kannst du sicherstellen, dass deine Bewerbung die richtigen Leute erreicht. Und vergiss nicht, uns bei Fragen zu kontaktieren!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Senior Security Engineer, Agentic Red Team
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wenn du deine Bewerbung schreibst, sei authentisch und zeige deine Persönlichkeit. Wir wollen wissen, wer du wirklich bist und was dich motiviert, Teil unseres Teams zu werden.
Betone deine Erfahrungen: Stelle sicher, dass du relevante Erfahrungen und Fähigkeiten hervorhebst, die zu der Rolle passen. Zeige uns, wie deine bisherigen Projekte und Erfolge dich auf die Herausforderungen bei Google DeepMind vorbereiten.
Mach es klar und prägnant: Halte deine Bewerbung übersichtlich und auf den Punkt. Verwende klare Sprache und vermeide unnötigen Jargon, damit wir schnell verstehen, was du zu bieten hast.
Bewirb dich über unsere Website: Vergiss nicht, dich direkt über unsere Website zu bewerben! So stellst du sicher, dass deine Bewerbung an die richtige Stelle gelangt und wir sie schnell bearbeiten können.
Wie du dich auf ein Vorstellungsgespräch bei Google DeepMind vorbereitest
✨Verstehe die Rolle und das Team
Mach dich mit der Agentic Red Team Mission vertraut. Verstehe, wie sie sich von traditionellen Red Teams unterscheidet und welche spezifischen Herausforderungen sie angehen. Zeige im Interview, dass du die Dynamik zwischen Offensive und Defensive in der Sicherheitsarchitektur verstehst.
✨Bereite technische Beispiele vor
Sei bereit, konkrete Beispiele für deine Erfahrungen im Bereich Red Teaming oder adversarial Machine Learning zu teilen. Überlege dir, wie du komplexe Angriffe auf AI-Modelle durchgeführt hast und welche Tools du dabei verwendet hast. Das zeigt, dass du praktische Erfahrung hast und die Theorie in die Praxis umsetzen kannst.
✨Zeige deine Coding-Fähigkeiten
Da starke Programmierkenntnisse in Python, Go oder C++ gefordert sind, solltest du im Interview bereit sein, über deine Projekte zu sprechen. Vielleicht kannst du sogar einige Code-Schnipsel oder Konzepte vorstellen, die du entwickelt hast, um Sicherheitslücken zu schließen oder Automatisierung zu implementieren.
✨Frage nach der Zusammenarbeit mit Produktteams
Stelle Fragen zur Zusammenarbeit mit den Produktteams während des Designprozesses. Zeige dein Interesse daran, wie du als Senior Security Engineer direkt Einfluss auf die Entwicklung nehmen kannst. Das zeigt, dass du nicht nur technisch versiert bist, sondern auch die Bedeutung der Kommunikation und Zusammenarbeit verstehst.