Sécuriser l'IA générique grâce à des contrôles granulaires : activer l'IA sans exposer les risques
À la demande (12février 2026 à 8 h, heure du Pacifique)
Avec Dhiraj Sehgal, directeur principal, Marketing produit
Chris Wong, ingénieur marketing technique principal
Les plateformes GenAI s'intègrent rapidement dans les flux de travail des entreprises, mais la plupart des organisations ne disposent pas de la visibilité et des contrôles nécessaires pour prévenir les fuites de données, l'IA fantôme et les violations des politiques. Lorsque les utilisateurs adoptent des outils d'IA en dehors des flux de travail approuvés, les équipes de sécurité ne savent pas comment GenAI est accessible, quelles données sont partagées et si l'utilisation est conforme à la politique de l'entreprise.
Dans le même temps, bloquer complètement l'IA générique n'est plus réaliste. Les responsables de la sécurité doivent permettre l'adoption de l'IA tout en limitant les risques liés à une utilisation non autorisée et non gérée de l'IA.
Au cours de cette session, vous découvrirez comment les entreprises sécurisent les plateformes GenAI à l'aide de contrôles granulaires et contextuels, notamment :
- Visibilité sur l'utilisation autorisée et non autorisée de l'IA générique
- Détection et gestion de l'IA fantôme parmi les utilisateurs, les appareils et les emplacements
- Application précise des politiques pour les invites, les réponses et le partage de données
- Protection en temps réel contre l'exposition des données et la fuite d'informations confidentielles
- Comment SASE unifié SASE une sécurité GenAI cohérente partout