Principal AI Security Engineer
Om jobbet
Setting the standard for Secure AIYour mission
You will be the first dedicated security function within Advania's AI business. You will define, own, and continuously improve the security framework for ourTrusted AI Platform and the full product portfolio built on top of it. For defined release classes, your sign-off will be required before customer delivery. You will ensure security is embedded from design through delivery and close the critical gaps identified in the current portfolio. You will also work closely with Advania's Security Team, AI Engineers, Tech Leads, Infrastructure, and relevant business stakeholders to embed security throughout the product lifecycle, not as a final control point, but as an integrated capability from design to delivery.
This role is for you who wants a clear mandate and can turn risk and regulatory obligations into practical engineering requirements, security testing expectations, and release decisions.
We are a Stockholm-based AI team working from our Liljeholmen office. While Advania's corporate language is Swedish, our day-to-day collaboration in this team is conducted in English. We're therefore looking for someone based in the Stockholm region who wants to be part of the on-site/hybrid rhythm in Liljeholmen and collaborate closely with engineers, tech leads, infrastructure, and business stakeholders. Fluent spoken and written English is required, and Swedish is strongly meriting, including the willingness to develop your Swedish over time. Read on if you'd like to learn more.
Dina arbetsuppgifter och ansvar:
• Äga security framework, release-kriterier och approval gates för plattform och produkter.
• Designa, implementera och underhålla Framework for AI Security Testing (FAST).
• Leda threat modeling (t.ex. STRIDE/PASTA) inför produktion och definiera vad som måste testas.
• Identifiera och bedöma AI/LLM-angreppsytor i modeller, API:er, dataflöden, orkestrering och infrastruktur.
• Beställa och granska externa pentest/red team-upplägg och resultat, och driva remediation till stängning.
• Översätta GDPR och EU AI Act till konkreta, testbara engineeringkrav samt ta fram evidens/dokumentation för governance och enterprise-kunder.
• Stödja kunddialoger vid security due diligence och arkitekturgranskning.
Teknisk tyngd och mandat i samma roll
Vi söker dig som tar ägarskap för säkerhetsbeslut i en AI-produktmiljö
Det här är en roll för dig som vill ha tydligt mandat och som kan omsätta risk och regelkrav till praktiska krav, tester och release-beslut. För att vara rätt för rollen behöver du särskilt ha:
• Erfarenhet av att äga säkerhetsbeslut, standarder eller godkännandeansvar i produkt-, plattforms- eller applikationssäkerhet.
• Djup hands-on förståelse för AI- och LLM-specifika risker och hur de angrips i hela kedjan (modell, API, data, orkestrering, infra).
• Förmåga att översätta GDPR och EU AI Act till konkreta, testbara engineeringkrav.
Det här kompletterar din profil:
• Praktisk erfarenhet av threat modeling och att omsätta analysen till krav och kontroller.
• Erfarenhet av att definiera säkerhetskrav och driva åtgärder med engineeringteam.
• Erfarenhet av att bedöma scope och kvalitet i penetrationstester/audits.
• Praktisk bekantskap med EU AI Act och förmåga att operationalisera kraven från dag ett.
• Förmåga att bygga struktur som första säkerhetsfunktion i en snabb organisation.
Meriterande är om du har erfarenhet av att arbeta i reglerade miljöer med höga assurance-krav, att säkra on-premises eller hybrida miljöer där isolation, evidensinsamling och operativ kontroll är centralt, samt att stötta enterprise-kunder i security reviews, due diligence och arkitekturgranskning. Det är också positivt om du har arbetat med open-source eller self-hosted LLM:er, exempelvis model serving, API gateway-kontroller, tenant isolation och access control, och om du förstår, talar och skriver på svenska.
Självledarskap och konsultmässighet
Du prioriterar själv mellan risk och leverans, skapar struktur där den saknas och eskalerar när risk kräver beslut. Du gör risk begriplig och handlingsbar för engineers, ledning och kunder, och hjälper team att fatta tydligare säkerhetsbeslut tidigt.
Varför Advania och nu
Advanias AI-verksamhet bygger en sovereignTrusted AI Platformoch en växande produktportfölj för enterprise- och reglerade miljöer. Det här är rätt timing för dig som vill ha reellt mandat och faktiskt ansvar: du blir första dedikerade AI-säkerhetsfunktionen, sätter standarden för hur AI-produkter granskas och godkänns, och stänger identifierade gap innan plattformen och portföljen skalar. Du får nära access till AI-ledning och governance från dag ett och bygger en säkerhetskapacitet som håller över tid, inte bara enstaka punktinsatser.
Vi ser fram emot din ansökan!
Visa gärna ditt intresse så snart som möjligt då vi intervjuar löpande. Vi välkomnar sökanden med olika bakgrunder, erfarenheter och synsätt, eftersom vi vet att en bredare mångfald berikar var och en av oss och stärker såväl effektivitet som kreativitet i vårt arbete.
Som en del av vår rekryteringsprocess genomgår våra slutkandidater en obligatorisk bakgrundskontroll, en för oss kvalitativ kontroll inför ett anställningsbeslut. Advania samarbetar med Ljung & Sjöberg i ärenden kopplat till alkohol-, drog- och spelproblematik och är en certifierad "Proaktiv Arbetsplats".
Tveka inte att höra av dig om du har några frågor eller funderingar.
Specialistområden AI Framework Platser Stockholm Liljeholmen
Advania AB
FöretagAdvania AB
Visa alla jobb för Advania AB





