
Aufgaben
Du entwickelst Security‑Architekturen für AI‑Integrationen – inklusive Agent‑Security, Protection gegen Prompt‑Injection, Workflow‑Validierung und LLM‑Security‑Kontrollen.
Mit durchdachten Threat Models analysierst du Risiken wie Datenmissbrauch, Privilege Escalation oder Model Abuse und setzt Guardrails, DLP‑Mechanismen, Secret‑Management sowie RBAC-/ABAC‑Policies wirksam um.
Durch Monitoring‑ und Detection‑Systeme machst du Model Drift, Halluzinationsraten und ungewöhnliches Verhalten in Inference‑Pipelines sichtbar; außerdem integrierst du AI‑Decision‑Logging in unsere Enterprise‑SIEM‑Plattformen.
Du verankerst Security‑by‑Design, dokumentierst Architekturen und etablierst Bounded‑Autonomy‑Kontrollen – inklusive Human‑in‑the‑Loop‑Prozessen – um Teams effizient zu unterstützen.
Red‑Team‑Übungen führst du an, deckst Schwachstellen auf und entwickelst Incident‑Response‑Playbooks für AI‑spezifische Sicherheitsvorfälle.
Engineering‑Teams berätst du zu Security‑Architekturen, IAM, Datenverschlüsselung und Cloud‑Workload‑Protection (CNAPP) und hältst sie zu aktuellen Risiken und Trends auf dem Laufenden.
Automatisierte Security‑Prozesse setzt du mit Skripting und Infrastructure‑as‑Code um; zudem überführst du Erkenntnisse aus Security Research in skalierbare Architekturverbesserungen.
Gemeinsam mit Product & Engineering balancierst du Sicherheitsanforderungen mit Produktgeschwindigkeit und triffst fundierte Architekturentscheidungen.
English Version:
Develop security architectures for AI integrations, including agent security, prompt‑injection protection, workflow validation, and LLM‑specific security controls.
Create threat models for AI workflows, assess risks such as data misuse, privilege escalation, or model abuse, and implement guardrails, DLP, secret management, and RBAC/ABAC for AI pipelines.
Build monitoring and detection systems to track model drift, hallucinations, and anomalies across inference pipelines; integrate AI decision logging into enterprise SIEM platforms.
Establish security‑by‑design principles, architecture documentation, and bounded‑autonomy controls (including human‑in‑the‑loop approvals) to support engineering teams.
Lead red‑team exercises, uncover vulnerabilities, and create incident response playbooks for AI‑related security incidents.
Advise engineering teams on security architecture, IAM, data encryption, and cloud workload protection (CNAPP) while staying aligned with evolving threats and industry trends.
Automate security tasks using scripting and IaC; collaborate with Security Research to integrate new findings into architecture improvements.
Work with product and engineering leadership to balance safety, velocity, and strategic priorities.
Anforderungen
Langjährige Erfahrung in Security Architecture oder Application Security – idealerweise mit tiefem Verständnis von AI‑Systemarchitekturen und deren Angriffsflächen.
Fundierte Expertise im Threat Modeling, in Secure‑Development‑Praktiken und in DevSecOps‑Methoden für verteilte Systeme.
Sehr gute Kenntnisse in IAM, Datenverschlüsselung und Cloud‑Security‑Prinzipien.
Fähigkeit, komplexe Security‑Konzepte klar zu vermitteln und technische Entscheidungen zu beeinflussen.
Ausgeprägtes Urteilsvermögen, um Security‑Bedarfe mit Business‑Zielen sinnvoll auszubalancieren.
Additional – PLUS
Erfahrung mit AI‑Workflow‑Validierung, Agent‑Testing, Monitoring‑Methoden und LLM‑Security‑Kontrollen.
Kenntnisse von EU AI Act, NIST AI RMF, GDPR, OWASP, MITRE ATLAS oder CIS Benchmarks.
Programmierkenntnisse in Python (AI‑Kontext) und Skripting‑Erfahrung zur Security‑Automatisierung.
Relevante Zertifizierungen (z. B. CISSP‑E, CCSP, Azure/AWS Security).
Erfahrung mit GitLab oder vergleichbaren DevSecOps‑Plattformen sowie SIEM‑Anbindungen.
Vertrautheit mit CNAPP, Cloud‑Workload‑Protection und IaC‑Tools.
English Version:
Extensive experience in security architecture or application security with a deep understanding of AI system architectures and common vulnerabilities.
Proven expertise in threat modeling, secure software development, and DevSecOps practices for distributed systems.
Strong knowledge of IAM, encryption, and cloud security principles.
Ability to communicate complex security concepts effectively and influence engineering decisions.
Strong ability to balance security requirements with business needs.
Additional – PLUS
Experience with AI workflow validation, agent testing, monitoring approaches, and LLM security controls.
Familiarity with EU AI Act, NIST AI RMF, GDPR, OWASP, MITRE ATLAS, or CIS benchmarks.
Python skills (AI frameworks) and automation scripting for security tasks.
Security certifications such as CISSP‑E, CCSP, or Azure/AWS security certs.
Experience with GitLab or similar DevSecOps platforms and SIEM integrations.
Knowledge of CNAPP, cloud workload protection, and IaC tooling.
Unsere Ausschreibung spricht dich sehr an, jedoch erfüllst du nicht ganz die 100 %? Kein Thema - die fehlenden Prozente gehen wir gemeinsam.
As an AI Security Engineer, you shape secure AI architectures and ensure that security and privacy principles translate into real technical solutions. Your work creates clarity, traceability, and a stable foundation for fast and safe AI deployments. You bring security‑by‑design into engineering teams, bridge governance with practical implementation, and increase the resilience of our AI ecosystem.
Das Sahnehäubchen – diese Vorteile bieten wir dir:
Wir sind ausgezeichnet!


Interesse geweckt?
Fragen zur Bewerbung?

Mehr Jobs aus diesem Bereich entdecken
SAP IS-U / S/4 Utilities Consultant Modulbetreuer:in (befristet)
InformationstechnologieGlocksee (40 Std.)Systems Engineer - Identity Management (m/w/d)
InformationstechnologieHannoverService Owner:in Teams Communication Systems
InformationstechnologieHannover