
🎤 Les erreurs que font les entreprises avec l’IA générative (Émilie Brochette, Orange Cyberdéfense)
L’intelligence artificielle bouleverse les usages dans les entreprises, mais elle ouvre aussi une nouvelle génération de risques cyber. Entre Shadow AI, fuite de données, agents autonomes et manipulation des chatbots, les organisations découvrent un terrain encore largement incontrôlé.
Interview : Émilie Brochette, spécialiste solutions IA et business chez Orange Cyberdéfense
En partenariat avec Orange Cyberdéfense
Punchlines
- 90 % des entreprises ont du Shadow AI.
- Tout le monde est devenu développeur avec l’IA.
- On ne peut pas se protéger de quelque chose que l’on ignore.
- Les IA génératives sont sensibles à la manipulation psychologique.
- L’IA générative va booster le DLP.
Pourquoi l’IA est-elle devenue un sujet majeur pour la cybersécurité ?
L’IA est entrée très vite dans les entreprises, souvent sans véritable cadre. Pendant longtemps, tout le monde s’est focalisé sur les gains de productivité et les cas d’usage, sans regarder les risques associés. En 2025, j’ai passé beaucoup de temps à sensibiliser les entreprises et j’ai été frappée par le niveau de méconnaissance, même chez des équipes cybersécurité.
Le premier risque, c’est le Shadow AI. Des collaborateurs utilisent des outils comme ChatGPT avec des comptes personnels pour des tâches professionnelles, en partageant parfois des données sensibles sans s’en rendre compte. Cela peut provoquer des pertes de propriété intellectuelle, des problèmes RGPD ou des fuites de secrets industriels.
Comment les entreprises peuvent-elles reprendre le contrôle ?
La première étape, c’est la sensibilisation. Il faut expliquer les risques à tout le monde, pas seulement aux équipes IT ou cybersécurité. Aujourd’hui, tous les métiers utilisent l’IA : RH, juridique, marketing, recherche…
Ensuite, il faut des outils de visibilité et de contrôle. Certaines entreprises installent des plugins navigateurs ou des solutions de DLP pour détecter les usages IA, classifier les documents et empêcher certains transferts de données sensibles. L’IA générative améliore même ces technologies de DLP en aidant à analyser automatiquement les documents non structurés.
L’autre enjeu, c’est de proposer des alternatives sécurisées. Si l’entreprise interdit simplement ChatGPT sans offrir d’outil équivalent, les collaborateurs continueront à utiliser des solutions non contrôlées.
Pourquoi les agents IA changent-ils complètement la donne ?
Avec les agents IA, on passe à un autre niveau. L’IA n’est plus seulement capable de répondre ou d’analyser des informations : elle agit directement dans le système d’information.
On peut connecter un agent à Outlook, Salesforce, à un agenda ou à un Active Directory. Il peut créer des réunions, envoyer des mails, ouvrir des opportunités commerciales ou interagir avec d’autres outils. Certains agents restent supervisés par l’humain, mais d’autres deviennent totalement autonomes.
Cela soulève énormément de questions de sécurité. Comment contrôler leurs actions ? Faut-il centraliser les échanges entre agents ? Comment vérifier ce qu’ils font ? Aujourd’hui, tout le monde expérimente encore ces technologies et cherche les bons modèles de protection.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Altri episodi di "Monde Numérique | Actualité Tech & IA"



Non perdere nemmeno un episodio di “Monde Numérique | Actualité Tech & IA”. Iscriviti all'app gratuita GetPodcast.








