Ce que les boards attendent vraiment de vous sur l'IA en 2026
L'IA évolue vite, les attentes de votre board aussi ! La question n'est plus 'que faites-vous ?' mais 'qu'est-ce que ça rapporte, et qui en est responsable.

Matthieu Sénéchal
06.03.2026
L'IA évolue vite, les attentes de votre board aussi ! La question n'est plus 'que faites-vous ?' mais 'qu'est-ce que ça rapporte, et qui en est responsable.

Matthieu Sénéchal
06.03.2026
.png)
Il y a deux ans, la question qui revenait en board était : "Qu'est-ce que vous faites avec l'IA ?" Montrer qu'on expérimentait suffisait. Avoir un projet pilote, un lab interne, quelques équipes formées, c'était déjà une réponse acceptable.
Cette époque est terminée.
La question a changé de nature. Les boards ne cherchent plus à savoir si vous avez pris le train. Ils veulent savoir ce que ça rapporte, qui en est personnellement responsable, et si vous seriez capable de le défendre chiffres à l'appui. Beaucoup de dirigeants ne sont pas encore prêts à cette conversation. Voici ce qui la structure.
Commençons par ce qui rend la conversation urgente.
Ce qui a changé dans la compétition, c'est moins la technologie elle-même que l'économie du développement. Des cycles qui prenaient six à dix-huit mois se ramènent aujourd'hui à quelques semaines pour les organisations qui partent de zéro. Pas parce qu'elles sont plus intelligentes, mais parce qu'elles n'ont pas à composer avec une infrastructure existante, des choix techniques vieux de dix ans, et les habitudes organisationnelles qui vont avec.
La question que certains dirigeants commencent à se poser sérieusement est celle-ci : si nous devions reconstruire notre produit aujourd'hui, avec les outils disponibles et sans notre historique, que ferions-nous différemment ? C'est une question inconfortable parce qu'elle implique souvent de regarder la dette technique comme un risque compétitif, et non comme un problème IT à traiter un jour.
La dette technique a toujours existé. Ce qui est nouveau, c'est qu'elle devient un désavantage structurel dans une course où la vitesse d'itération est devenue déterminante.
Les investissements IA des deux dernières années ont produit beaucoup de preuves de concept, quelques succès notables et une masse de résultats intermédiaires qu'on a tendance à qualifier prudemment de "prometteurs". Les boards ont été patients. Ils ne le seront plus autant en 2026.
L'IA est désormais traitée comme n'importe quelle ligne budgétaire significative : on attend un retour mesurable, un périmètre clair, et un responsable identifié. Les estimations qui circulent aujourd'hui dans les organisations les plus avancées situent le gain de marge atteignable entre 2 et 5 points, selon les fonctions adressées. Ce n'est pas un plafond, c'est un plancher de crédibilité.
Ce qui affaiblit les dirigeants dans cette conversation, ce n'est généralement pas l'absence de résultats. C'est l'absence de cadre. Quand on n'a jamais défini ce que "ça marche" voulait dire, on ne peut pas démontrer que ça marche. Et un board qui pose la question sans obtenir de réponse structurée en tire ses propres conclusions.
Une des observations les plus constantes chez les entreprises qui peinent à tirer parti de l'IA : le problème précède l'IA de plusieurs années. Des données stockées mais jamais vraiment gouvernées, des processus qui reposent sur la mémoire de quelques personnes plutôt que sur de la documentation, des organisations où l'information circule mal entre les fonctions. L'IA, dans ces contextes, n'apporte pas de solution. Elle rend le problème plus visible et plus coûteux.
Les organisations qui progressent le plus vite sont celles qui avaient déjà fait ce travail de fond, ou qui acceptent de le faire avant d'aller plus loin. Ce n'est pas un message que tout le monde veut entendre, mais c'est celui qui protège d'investissements qui n'aboutiront pas.
Il y a une formulation qui résume assez bien la situation : l'IA amplifie ce qui est solide et expose ce qui ne l'est pas. Engager des budgets importants sans avoir réglé les fondamentaux, c'est accélérer dans la mauvaise direction avec une bonne technologie.
La gouvernance IA est l'angle mort de beaucoup d'organisations. On trouve des initiatives dans les équipes produit, d'autres dans la DSI, parfois un Chief AI Officer avec une équipe dédiée mais peu de pouvoir transverse. Le résultat est prévisible : des chantiers qui ne se parlent pas, des doublons, et personne en position d'arbitrer quand les priorités entrent en conflit.
Ce que les boards regardent de plus en plus, c'est si le CEO est personnellement propriétaire du sujet. Pas s'il a créé une structure dédiée, pas s'il a recruté un responsable IA, mais s'il en parle en board avec la même précision qu'il parlerait de la stratégie commerciale ou des résultats financiers. La transformation IA traverse toutes les fonctions de l'organisation. Elle ne peut pas être pilotée depuis un silo, quel qu'en soit le niveau.
Un signe d'alerte simple : si vous ne pouvez pas citer trois décisions que vous avez personnellement prises sur l'IA au cours des quatre dernières semaines, le sujet est probablement délégué plus qu'il ne devrait l'être.
Dans le prolongement direct de la gouvernance, il y a une question plus personnelle que les boards posent rarement explicitement, mais qu'ils se posent : est-ce que ce dirigeant comprend réellement ce sur quoi il prend des décisions ?
La frontière entre dirigeants qui avancent sur ce sujet et ceux qui accumulent du retard ne passe pas par le niveau technique. Elle passe par la capacité à prendre des décisions éclairées sur des sujets qu'on ne maîtrise pas dans le détail. C'est une compétence de dirigeant, pas d'ingénieur.
Ce qui change, concrètement : les profils qui montent vers les fonctions les plus stratégiques incluent de plus en plus une réelle expérience de la transformation tech, et non plus seulement une exposition à celle-ci. Les boards le notent dans les comités de succession. Pour un CEO non-technique, l'enjeu n'est pas d'apprendre à coder. C'est de comprendre les implications business des choix architecturaux, de distinguer ce qui est structurant de ce qui est secondaire, et d'être en mesure de challenger une recommandation technique avec les bonnes questions plutôt qu'avec de la confiance aveugle ou de la méfiance systématique.
Les succès IA sont bien documentés. Les fragilités le sont moins, parce qu'elles ne se sont pas encore manifestées à grande échelle, et parce que personne n'a envie d'être le premier à les inscrire à l'agenda du board.
Quelques réalités qui méritent attention. Les LLMs sur lesquels beaucoup d'organisations ont construit leurs workflows sont aujourd'hui accessibles à des prix qui reflètent une phase de conquête de marché. Ces prix changeront. Les organisations qui ont bâti une dépendance sans avoir anticipé ce scénario découvriront que leurs économies de coûts étaient partiellement subventionnées de l'extérieur.
Par ailleurs, le code généré par l'IA pose un problème de maintenabilité que peu d'équipes ont résolu : comment maintenir, déboguer et faire évoluer du code dont personne ne comprend vraiment la logique interne ? Ce n'est pas un problème hypothétique. Des organisations commencent à en mesurer les premiers effets sur des systèmes mis en production rapidement, sans que les questions de long terme aient été posées.
Gérer l'IA, c'est aussi gérer ce qu'on expose. Ce sujet appartient au board, et il vaut mieux l'y amener avant qu'un incident l'y impose.
En résumé, les attentes des boards en 2026 ne portent pas sur la sophistication des outils utilisés ni sur le nombre d'initiatives lancées. Elles portent sur quatre choses qui se tiennent : un ROI mesurable sur des périmètres définis, une gouvernance portée par le dirigeant lui-même, une organisation capable d'itérer à la vitesse que le marché impose, et une lucidité sur les risques que l'accélération crée.
Ce qui est frappant, c'est que ces quatre attentes ne sont pas propres à l'IA. Ce sont les mêmes exigences que les boards ont toujours eues sur les transformations stratégiques majeures. L'IA n'a pas changé les règles du jeu pour les dirigeants. Elle a rendu l'exigence d'exécution plus immédiate, et les conséquences du manque de clarté plus rapides à se manifester.
-
Pour ceux qui veulent aller plus loin : on parle aussi de ces sujets sur notre espace Substack, en donnant des repères concrets aux dirigeants pour mieux arbitrer les sujets tech et IA.
Contenu mis à jour le :
06.03.2026
Blog
Blog