Offre · Sécurité IA

Audit sécurité IA et LLM — threat modeling, red teaming, durcissement.

Pour les éditeurs et déployeurs de systèmes IA en production : threat modeling LLM, audit du RAG, sécurisation des agents, red teaming automatisé, conformité ISO 42001 / OWASP LLM Top 10. Cabinet indépendant, expertise rare en France.

Réserver une scope-call de 20 min

Pourquoi un audit sécurité IA n'est pas un pentest classique

Un pentest applicatif classique teste des vulnérabilités technique (injection SQL, XSS, contrôle d'accès cassé). Un système LLM en production introduit 5 nouvelles familles d'attaques que les pentests traditionnels ne couvrent pas :

1. Prompt injection directe et indirecte — manipulation du modèle via les inputs ou les données contextuelles (documents, RAG, MCP, emails).

2. Jailbreak des guardrails — contournement des protections du modèle par roleplay, encodage, multi-tour.

3. Data leakage et exfiltration — fuite des données d'entraînement mémorisées, contexte d'autres utilisateurs, secrets de l'environnement.

4. Model manipulation et data poisoning — empoisonnement de l'index RAG ou des données de fine-tuning.

5. Hijack d'agent — compromission d'un agent autonome via instruction injectée pour qu'il abuse des outils accessibles.

Le référentiel principal est l'OWASP LLM Top 10 (LLM01-LLM10), complété par le NIST AI RMF Generative Profile (AI 600-1).

Périmètre d'un audit sécurité IA WeeSec

Un audit complet couvre 6 axes :

Axe 1 — Threat modeling. Modélisation des menaces propres à votre système IA, alignée OWASP LLM Top 10 + NIST AI RMF. Cartographie des actifs (modèle, prompts système, données contextuelles, outils accessibles, comptes), identification des trust boundaries, listing des scénarios d'attaque pertinents.

Axe 2 — Tests adversariaux ciblés. Tests manuels et automatisés (Garak, PyRIT, Promptfoo) sur prompt injection, jailbreak, exfiltration. Pour les agents : tests de hijack, exécution non autorisée, escalade de privilèges via outils.

Axe 3 — Audit du RAG. Si vous opérez un RAG : sécurité de l'ingestion (parsing PDF, scraping web), contrôle de l'index (authoring, validation), isolation cross-tenant, prévention des injections indirectes.

Axe 4 — Audit des agents. Périmètre des outils accessibles, sandbox d'exécution, kill-switch, validation des entrées/sorties, audit log forensique. Particulièrement critique pour les agents tool-using (Claude Agent SDK, LangGraph, AutoGen).

Axe 5 — Conformité. Alignement avec OWASP LLM Top 10, NIST AI RMF, ISO 42001, AI Act. Préparation à un éventuel audit certificateur.

Axe 6 — Durcissement. Recommandations concrètes : architecture défense en profondeur (input filter + Constitutional AI + output filter + sandbox + logs), guardrails (Llama Guard, ShieldGemma, IBM Granite Guardian), red teaming continu en CI/CD.

Outils utilisés

WeeSec opère avec un mix d'outils open source et de techniques manuelles :

  • Garak (NVIDIA, open source) : framework de référence avec 100+ probes adversariales.
  • PyRIT (Microsoft) : orchestration multi-tours.
  • Promptfoo : tests d'évaluation et de robustesse.
  • Lakera Red, Robust Intelligence (commerciaux) selon contexte.
  • Tests manuels structurés : 30+ patterns de prompt injection avancés, jailbreak adversariaux, exfiltration.
  • Pour les agents : tests d'évasion de sandbox, manipulation des outils, prompt injection indirecte via outputs d'outils.

Livrables et plan d'action

À l'issue de l'audit (4 à 6 semaines selon ampleur) :

  • Rapport d'audit (40-80 pages) : cartographie des menaces, résultats des tests, scoring par axe, vulnérabilités identifiées avec preuves.
  • Plan de durcissement priorisé : 20 à 50 actions classées (Critique / Important / Optimisation), avec effort et cibles techniques.
  • Architecture cible documentée : schéma de l'architecture défensive recommandée, intégrations CI/CD, monitoring.
  • Indicateurs de robustesse : pass rate sur Garak/PyRIT, score OWASP LLM Top 10, baseline de surveillance.
  • Restitution exécutive + atelier de transfert avec votre équipe technique.

WeeSec peut accompagner ensuite la mise en œuvre opérationnelle (mode RSSI externalisé ou mission ad-hoc).

Combien ça coûte ?

Audit sécurité IA standard (1 système LLM en production, ampleur moyenne) : 18 à 35 K€ HT, 4 à 6 semaines.

Audit sécurité IA étendu (système avec RAG complexe ou agents autonomes en production) : 30 à 60 K€ HT, 6 à 8 semaines.

Audit avec accompagnement durcissement (audit + 3 mois de mise en œuvre) : 60 à 120 K€ HT.

Audit éclair (cadrage 1 semaine pour décider de la stratégie) : 5 à 8 K€ HT.

Une scope-call gratuite de 20 minutes permet de cadrer le périmètre et fournir un devis ferme.

Pourquoi WeeSec sur la sécurité IA

La sécurité IA est un domaine très récent. La plupart des cabinets de cybersécurité classiques n'ont pas l'expertise IA. La plupart des cabinets IA n'ont pas l'expertise cybersécurité offensive.

La fondatrice WeeSec combine les deux :

  • Doctorat en cybersécurité Télécom SudParis (2009) — fondation académique solide.
  • MIT Professional Education — Applied AI — formation IA récente structurée.
  • 15+ ans en cybersécurité opérationnelle — savoir distinguer théorie et pratique.
  • 3 ans de pratique active sur la sécurité LLM depuis l'arrivée de GPT-3.5/4 — tests, audits, missions de durcissement.

C'est l'un des rares profils en France à pouvoir auditer un système LLM avec une lecture technique et une lecture conformité simultanées.

Cadrage direct, sans engagement.

Une scope-call de 20 minutes pour qualifier votre besoin et vous fournir un devis ferme.

Réserver un échange Calendly
FAQ

Questions fréquentes.

Qu'est-ce qu'un audit de sécurité IA / LLM ?

Un audit sécurité IA évalue la robustesse d'un système IA en production face aux menaces spécifiques aux LLM : prompt injection (directe et indirecte), jailbreak, exfiltration de données, hijack d'agent, model manipulation. Il s'appuie sur l'OWASP LLM Top 10 et le NIST AI RMF Generative Profile. Il complète le pentest applicatif classique, qui ne couvre pas ces vecteurs.

Combien coûte un audit sécurité LLM en France ?

Pour une scale-up avec un système LLM en production, comptez 18 à 35 K€ HT pour un audit standard (4-6 semaines). Système avec RAG complexe ou agents autonomes : 30 à 60 K€. Audit + 3 mois d'accompagnement durcissement : 60 à 120 K€. Cadrage rapide 1 semaine : 5 à 8 K€.

Quels outils sont utilisés pour le red teaming IA ?

WeeSec combine outils open source (Garak de NVIDIA pour les probes adversariales, PyRIT de Microsoft pour les attaques multi-tours, Promptfoo pour les tests d'évaluation) et tests manuels structurés (30+ patterns de prompt injection, jailbreak avancés, exfiltration). Pour les agents, tests spécifiques d'évasion de sandbox et de manipulation des outils.

Comment auditer un système RAG ?

L'audit RAG porte sur 4 axes : (1) sécurité de l'ingestion (parsing PDF, scraping web — vecteurs de prompt injection indirecte) ; (2) contrôle d'authoring de l'index (qui peut écrire) ; (3) isolation cross-tenant (un client ne doit pas voir les documents d'un autre) ; (4) protection contre les injections indirectes via les documents récupérés. WeeSec teste les 4 axes manuellement et avec Garak/Promptfoo.

Quels référentiels de sécurité IA existent ?

Trois référentiels structurants : OWASP LLM Top 10 (LLM01-LLM10, opérationnel pour les développeurs), NIST AI RMF Generative Profile (NIST AI 600-1, gestion du risque), ISO/IEC 42001:2023 (management). Complétés par les recommandations de l'ANSSI sur l'IA générative (PA-102) et le projet MITRE ATLAS pour la threat intelligence sur les attaques IA.

Mon SaaS utilise OpenAI / Claude / Gemini en backend. Cela change-t-il l'audit ?

Oui, le périmètre s'élargit : votre fournisseur LLM (OpenAI, Anthropic, Google) est un composant de la chaîne de confiance. L'audit inclut alors l'évaluation du fournisseur (DDQ aligné AI Act + ISO 42001) en plus de la sécurisation de votre propre intégration. WeeSec dispose d'un canevas DDQ structuré pour les principaux fournisseurs LLM en 2026.