La montée en puissance de l’intelligence artificielle générative (GenAI) transforme radicalement les pratiques des directions des systèmes d’information (DSI). Entre une adoption rapide encouragée par les directions générales et les métiers, et la nécessité de contenir les risques liés à cette technologie, les DSI demeurent en quête d’un équilibre délicat.
Malgré un enthousiasme généralisé, les retours concrets sur investissement restent difficiles à mesurer et les risques nombreux. Cette dualité oblige les DSI à inventer des stratégies combinant expérimentation, gouvernance stricte et sensibilisation. Comment réussissent-ils un tel exercice ? Les enjeux économiques, réglementaires et humains constituent les clefs de compréhension à explorer.
Gouvernance et contrôle : réduire les risques liés à l’essor de la GenAI
Les directions des systèmes d’information sont les premières à constater que la GenAI s’introduit souvent de manière non maîtrisée dans l’environnement professionnel. Le phénomène de Shadow IA illustre cette difficulté : environ un salarié sur deux utilise des outils d’IA générative personnels pour des usages professionnels, selon une étude récente. Cette situation expose l’entreprise à des risques majeurs, tels que la fuite de données sensibles ou encore la diffusion d’informations erronées.
Face à cette réalité, les DSI instaurent des mesures de gouvernance adaptées. La création de conseils internes dédiés à l’éthique numérique et à la surveillance des technologies IA se généralise. Ces entités évaluent notamment les impacts socio-environnementaux, juridiques et stratégiques découlant de la montée en charge des projets en IA générative. La Maif, par exemple, a mis en place un conseil de surveillance intégré à la gouvernance numérique afin d’étudier les risques liés aux nouveaux usages.
Par ailleurs, la mise en place d’une cartographie claire des cas d’usage est cruciale pour limiter l’exposition. À Bpifrance, seulement 10 % des initiations métiers aboutissent à un déploiement verticalisé sur les systèmes, reflétant une prudence calculée. Cette méthode permet de cibler les cas d’usage pertinents où le retour sur investissement est tangible et les précautions renforcées sur les environnements sensibles. D’autres stratégies complètent cette gouvernance, comme le contrôle permanent des flux et la surveillance spécifique des chatbots pour identifier des problèmes d’hallucinations ou de mauvaises réponses.
Intégration stratégique de la GenAI au cœur des missions des DSI
L’adoption de l’intelligence artificielle générative s’inscrit désormais au cœur des transformations pilotées par les DSI qui ont vu leur rôle s’élargir. Ce profil élargi va bien au-delà des opérations IT traditionnelles : les DSI contribuent de plus en plus à définir les feuilles de route stratégiques et à impulser l’innovation métier via les nouvelles technologies.
Selon l’étude State of CIO 2024 de CIO.com, 35 % des DSI se considèrent comme des acteurs stratégiques et près de la moitié anticipent un rôle renforcé prochainement. Ces professionnels alignent désormais leurs actions sur les enjeux business, démontrant aussi une compréhension fine des besoins spécifiques des directions métiers. La collaboration étroite avec les équipes de marketing, finance ou production est un passage obligé pour identifier des leviers d’efficience grâce à la GenAI.
La genèse d’une nouvelle culture IT se dessine ainsi autour de la création de business models innovants et d’une transformation accélérée des processus. Par exemple, chez Edward Jones, le DSI supervise désormais non seulement l’organisation de l’architecture des données, mais aussi leur gouvernance pour garantir robustesse et optimisation dans l’usage de l’IA. Ce pilotage transverse impacte directement la performance globale en favorisant une meilleure gestion des risques et une automatisation intelligente des activités métier.
La sensibilisation des utilisateurs, pierre angulaire de la gestion des risques IA
Interdire l’usage de la GenAI en entreprise reste inefficace, car l’adhésion des collaborateurs se joue surtout sur la compréhension des risques. La quasi-totalité des directions adoptent une approche pédagogique pour accompagner les utilisateurs dans cette montée en compétence. Cela va de la diffusion de notes explicatives aux programmes d’information ciblés, touchant les différents niveaux hiérarchiques et métiers.
Chez Crosscall, le DSI souligne que la responsabilisation prime sur la répression : seuls les outils autorisés figurent sur une liste blanche, tandis que l’usage des outils non approuvés est strictement encadré. De même, à la Maif, l’accès à Copilot web est permis mais tous les échanges sont surveillés pour prévenir les fuites ou usages inappropriés. Au-delà de la technique, ces organisations instaurent aussi des cellules dédiées à l’assistance et au contrôle réguliers des solutions déployées pour détecter rapidement les déviations.
Cette démarche pragmatique vise à atténuer les risques liés à la désinformation, notamment les hallucinations générées par les outils d’IA. Le dialogue constant entre DSI, métiers et utilisateurs facilite l’intégration fluide de la GenAI, en réduisant les frictions et en structurant une gouvernance partagée. Les expériences passées montrent que la sensibilisation contribue à une meilleure appropriation, plus sûre et plus efficace.
- Partager l'article :