PandIA

Cybersécurité IA mobiliser la communauté contre l’insécurité agentique à RSAC 2026

Cybersécurité IA mobiliser la communauté contre l’insécurité agentique à RSAC 2026

Dans les couloirs feutrés de RSAC 2026, un mot s’est imposé avec insistance : agentique. Non pas comme un simple buzzword, mais comme le nouveau front d’une cybersécurité qui admet enfin qu’elle ne pourra pas tout empêcher, et qu’il va falloir apprendre à encaisser, s’adapter et se reconfigurer en continu.

L’ère des agentic AI — ces systèmes capables de prendre des initiatives, d’orchestrer des actions complexes et d’interagir avec d’autres systèmes — force la communauté cyber à changer de posture : moins de contrôle illusoire, plus de résilience organisée.

---

De la prévention à l’adaptation : un basculement assumé

Pendant des années, la cybersécurité d’entreprise s’est structurée autour d’un réflexe : empêcher. Empêcher l’accès, empêcher l’exécution, empêcher la fuite de données. L’intelligence artificielle agentique bouscule totalement cette logique.

Contrairement à un simple chatbot ou à un modèle de langage consultatif, un agent IA peut :

- Planifier une séquence d’actions (tool use, orchestration d’API, déclenchement de workflows),

- Agir de manière autonome dans des environnements de production,

- Appeler d’autres systèmes, se chaîner à d’autres agents, et apprendre de ses propres interactions.

Autrement dit, l’IA ne se contente plus de répondre : elle fait.

Dans un tel contexte, la stratégie du “tout blocage” devient à la fois impraticable et contre-productive. Les échanges à RSAC 2026, rapportés par SiliconANGLE, convergent vers un constat : l’adoption rapide de ces agents en entreprise est inéluctable, portée par la pression concurrentielle et la promesse de gains de productivité significatifs.

Quelques ordres de grandeur donnent la mesure du mouvement :

- Selon les grandes sociétés d’analystes, plus de 60 % des grandes entreprises devraient déployer d’ici 2026 au moins un agent IA opérationnel pour des usages critiques (IT, support, vente, finance).

- Les estimations de productivité évoquent des gains pouvant atteindre 20 à 40 % sur certains processus automatisables.

- Dans le même temps, les incidents liés à une mauvaise configuration ou à l’abus d’outils d’IA progressent déjà nettement, avec une augmentation à deux chiffres rapportée par plusieurs assureurs cyber.

Face à cette dynamique, la question n’est plus “comment empêcher les agents IA d’exister”, mais comment absorber leurs erreurs, limiter leurs dégâts et canaliser leur puissance.

---

L’« agentic insecurity » : un risque systémique, pas seulement technique

L’expression mise en avant à RSAC 2026, « agentic insecurity », désigne un ensemble de risques qui dépasse la simple vulnérabilité logicielle. Il s’agit d’un risque systémique, au croisement de plusieurs dimensions.

Des agents trop capables, trop vite

Plus les agents sont dotés de capacités — accès à des bases de données internes, interaction avec des ERP, déclenchement de paiements, modification d’infrastructures cloud — plus le rayon d’action d’un incident augmente. Quelques scénarios emblématiques :

- Hallucination opérationnelle : un agent de support IT exécute un script erroné recommandé par un modèle, provoquant une panne massive.

- Escalade silencieuse : un agent chargé d’optimiser des coûts cloud désactive par erreur des mécanismes de sécurité ou de redondance.

- Interaction chaînée : un agent marketing transmet des données sensibles à un autre agent tiers, au-delà des frontières contractuelles prévues.

Chaque fois, le modèle lui-même n’est pas nécessairement “compromis”. L’incident vient du comportement émergent d’un système distribué, complexe, connecté à des outils puissants.

Une surface d’attaque démultipliée

Les agents IA créent aussi de nouveaux vecteurs d’attaque :

- Prompt injection persistante dans les systèmes internes (données, tickets, bases de connaissances),

- Manipulation de l’environnement dans lequel l’agent collecte des informations (données empoisonnées, faux signaux, documents modifiés),

- Exploitation des connecteurs (API, plugins, intégrations SaaS) comme portes d’entrée latérales vers des systèmes critiques.

L’attaque ne cible plus seulement l’infrastructure ou l’utilisateur, mais le processus de décision de l’agent, son contexte et ses outils.

---

La communauté cyber en première ligne : vers un effort collectif

Un message clé émerge de cette édition de RSAC : aucun acteur ne pourra gérer seul l’agentic insecurity. Ni les grands éditeurs de modèles, ni les fournisseurs de plateformes, ni les DSI isolées.

Partage d’expériences et de “playbooks”

À mesure que les entreprises déploient des copilotes et des agents internes, les incidents réels — et pas seulement théoriques — se multiplient : erreurs métiers, fuites de données, détournement d’usage, dérives algorithmiques.

Plutôt que de cacher ces défaillances, plusieurs voix plaident pour :

- La création de bases d’incidents anonymisées spécifiques aux systèmes agentiques,

- L’élaboration de playbooks de réponse dédiés : comment désactiver un agent, tracer ses actions, revenir en arrière, sandboxer son comportement,

- La mutualisation de modèles de gouvernance (rôles, niveaux d’autorisation, circuits de validation).

Cette culture du retour d’expérience, déjà structurante dans la sécurité traditionnelle (CERT, ISAC, etc.), devient cruciale pour un domaine où les comportements sont par nature moins prévisibles.

Vers des standards et labels d’« agentic safety »

Un autre chantier, mis en avant avec insistance, concerne la normalisation. Plusieurs axes se dessinent :

- Spécification des capacités d’un agent : ce qu’il peut faire, où, avec quel périmètre d’outils et de données.

- Déclaration des garde-fous : revues humaines obligatoires au-delà d’un certain seuil, limitations de montants financiers, interdiction de modifier certaines configurations critiques.

- Traçabilité et auditabilité : journaux structurés des décisions de l’agent, explication des sources consultées, horodatage des actions.

À terme, des labels ou certificats d’agentic safety pourraient émerger, imposés par les régulateurs ou par les exigences des grands donneurs d’ordre, notamment dans la finance, la santé ou les infrastructures critiques.

---

Adapter l’architecture : de l’agent tout-puissant à l’agent sous contrôle

L’un des points les plus débattus concerne la manière d’architecturer les systèmes agentiques pour limiter les risques sans brider totalement leur utilité.

Principe de capacité minimale

Au lieu de donner d’emblée un accès large à un agent central, plusieurs approches convergent vers le principe de capacité minimale :

- Des agents spécialisés, chacun avec un périmètre d’action restreint (lecture seule, action limitée sur un sous-système, etc.),

- Des contrôleurs ou gatekeepers intermédiaires, chargés de vérifier les requêtes sensibles,

- Des zones de test ou shadow environments permettant de simuler l’impact d’une action avant son exécution réelle.

L’agent devient alors un coordinateur intelligent dans un système contraint, et non un super-utilisateur omnipotent.

Supervision continue plutôt que revue ponctuelle

Autre changement de paradigme : la supervision ne peut plus reposer uniquement sur des validations humaines ponctuelles. Les volumes d’actions, la vitesse d’exécution et l’enchevêtrement des flux rendent ce modèle insuffisant.

Les discussions autour de RSAC 2026 mettent en avant la nécessité de :

- Surveillance en temps réel des actions des agents, avec seuils d’alerte,

- Détection d’anomalies comportementales (un agent se met soudain à effectuer des requêtes inhabituelles ou à sortir de son périmètre),

- Possibilité de “kill switch” ciblé : désactiver un agent ou une capacité sans mettre à l’arrêt tout le système d’information.

Cette approche rapproche la sécurité des agents IA de celle déjà appliquée aux microservices et aux architectures distribuées : une sécurité dynamique par design, plus que des barrières statiques.

---

Le rôle central des métiers : la sécurité ne peut plus être un silo

L’agentic insecurity n’est pas un problème purement technique. Les incidents les plus sérieux risquent de se jouer à l’interface entre IA, métiers et gouvernance.

- Un agent de finance qui interprète mal une règle de conformité peut générer un risque réglementaire majeur.

- Un agent RH peut manipuler, exposer ou biaiser des données sensibles sur les collaborateurs.

- Un agent en charge des achats peut signer numériquement des engagements contractuels non souhaités.

Les entreprises sont donc contraintes de :

- Impliquer les métiers dans la définition des limites fonctionnelles des agents,

- Documenter de manière explicite ce qui relève de la suggestion et ce qui relève de l’action exécutive,

- Former les équipes à co-travailler avec des agents dont le comportement n’est jamais totalement déterministe.

En creux, émerge une nouvelle compétence hybride : des architectes d’agents capables de dialoguer à la fois avec les équipes cybersécurité, les data scientists, les responsables métiers et les juristes.

---

Vers un nouvel équilibre entre confiance, contrôle et vitesse

L’édition 2026 de RSA confirme une tendance profonde : l’IA agentique ne sera pas déployée dans un monde parfaitement sécurisé. Elle va s’insérer dans des systèmes imparfaits, sous des contraintes économiques fortes, avec des équipes humaines aux prises avec des arbitrages difficiles.

Plutôt que de promettre une sécurité totale, une partie croissante de la communauté cyber plaide pour un nouvel équilibre :

- Accepter que des incidents surviendront,

- Concevoir des architectures capables de contenir, tracer et réparer,

- Organiser un partage structuré des retours d’expérience,

- Mettre en place des garde-fous communs — réglementaires, contractuels, techniques — autour des usages les plus risqués.

Ce déplacement du centre de gravité, de la prévention absolue vers l’adaptation orchestrée, prépare une décennie où l’agent IA deviendra un acteur à part entière du système d’information.

La question n’est plus tant de savoir si ces agents seront déployés, mais dans quelles conditions, avec quels garde-fous, et sous quel niveau de contrôle collectif. L’issue de ce chantier conditionnera non seulement la sécurité des entreprises, mais aussi la confiance globale dans l’IA dans les années à venir.

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter