Auf einen Blick
- Aufgaben: Forschung und Entwicklung im Bereich KI-Sicherheit, Fokus auf Betriebs- und Angriffssicherheit.
- Arbeitgeber: DLR Institut für KI-Sicherheit, führend in innovativer Forschung.
- Mitarbeitervorteile: Möglichkeiten zur Fernarbeit und attraktive Firmenvorteile.
- Warum dieser Job: Arbeiten an der Spitze der KI-Sicherheitstechnologie, mit Einfluss auf zukunftsweisende Lösungen.
- Gewünschte Qualifikationen: Hochschulabschluss in Naturwissenschaften, Erfahrung in Cybersecurity, IT-Sicherheit und KI.
- Andere Informationen: Position bietet Leitungsaufgaben und wissenschaftliche Forschung.
Das voraussichtliche Gehalt liegt zwischen 60000 - 84000 € pro Jahr.
- Entwicklungsprozesse und -Methoden für sicherheitskritische KI-Anwendungen
- robuste und zuverlässig absicherbare KI-Methoden und -Algorithmen
- Betriebs- und Angriffssicherheit für KI-basierte Anwendungen
- Absicherung und Nutzung sensibler Datenbestände
- Ausführungsumgebungen für KI-Anwendungen
- innovative Rechenmethoden
- fachliche Leitung und Koordination eines Teams im Kontext „AI and IT Security & Trust“
- Umsetzung der strategischen Ziele im Kontext „AI and IT Security & Trust“(intern als auch extern)
- Identifizierung, Akquise und Koordination von wissenschaftlichen Projekten
- Konsolidierung und technische Integration unterschiedlicher funktionaler Ansätze (teilweise aktuell in Entwicklung) in das Gesamtkonzept „AI and IT Security & Trust“
- Konsolidierung der Themen des Teams im Hinblick auf wissenschaftliche Veröffentlichungen, inkl. der Koordination der Erstellung dieser Publikationen und Fachbeiträge
- Darstellung der „AI and IT Security & Trust“ relevanten Themen in DLR internen und externen Arbeitsgruppen, Konferenzen, etc.
- Erstellung von wissenschaftlichen Studien zu Methoden und Prozessen zur Operationalisierung von wegweisenden Lösungen im Kontext „Security & Trust“ mit Bezug auf KI-Systeme und traditionelle IT Systeme
- Erarbeitung und Umsetzung eines übergreifenden Konzepts für Ergebnisse im Rahmen der Arbeiten bzgl. „AI and IT Security & Trust“ die eine Konsoli-dierung der verschiedenen in der Abteilung und am Institut entwickelten Komponenten und funktionaler Module darstellt
- Erarbeitung von Ansätzen zur Integration von „AI and IT Security & Trust“ in DevOps-Vorgehensmodellen zur Steigerung der Sicherheit und Robustheit
- Erarbeitung von Konzepten und Steuerung der Umsetzung von Integrationsansätzen, um Themen des Teams „AI and IT Security & Trust“ in verteilten Systemen verfügbar zu machen
abgeschlossenes wissenschaftliches Hochschulstudium (Master / Diplom Uni) der Naturwissenschaften (z.B. Informatik, Mathematik oder Physik) oder andere für die Tätigkeit relevanten Studiengänge praktische Forschungserfahrung (mindestens 3 Jahre) im Aufgabenbereich (Cyber-) Security, z.B. erworben durch eine Promotion oder durch anderweitige nachgewiesene Forschungstätigkeiten sehr gute Fachkenntnisse im Bereich Cybersicherheit sehr gute Fachkenntnisse im Bereich IT- Sicherheit Erfahrungen im Bereich der Künstlichen Intelligenz umfangreiche Erfahrungen im Bereich komplexer Systemumgebungen umfassende Fachkenntnisse im Bereich des wissenschaftlichen Publizierens vertiefte Anwenderkenntnisse im Umfeld des Projektmanagements und dessen IT Tools. fundierte und nachgewiesene Erfahrung in der fachlichen Führung von Teams, z.B. erworben durch die fachliche Leitung von Projekten
Gewünschte Qualifikationen
Englischkenntnisse in Wort und Schrift Deutschkenntnisse in Wort und Schrift
Payment
Je nach Qualifikation und Aufgabenübertragung bis Entgeltgruppe E14 TV EntgO Bund.
Informatiker/in, Mathematiker/in oder Physiker/in o. ä. (w/m/d) Arbeitgeber: Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Kontaktperson:
Deutsches Zentrum für Luft- und Raumfahrt (DLR) HR Team